Roboética ¿Puede una máquina ser un agente moral? (2º)

facebooktwittergoogle_plusredditpinterestlinkedinmail

Se planteó en la primera parte de este artículo el hipotético supuesto de dos asistentes hospitalarios de cuidados que, ante una subida de la fiebre de sus respectivos pacientes, optan, en un caso, por avisar al médico supervisor y, en el otro, por aplicar el antipirético pautado para tales casos por el historial clínico. Imaginemos que el primero de los pacientes fallece y el otro se salva. Parece claro que ambas opciones son moralmente calificables y atribuibles a agentes morales y, ante un supuesto así, cabe plantearse si el hecho de que uno de los cuidadores fuera humano y el otro un robot de cuidados autónomo alteraría la conceptuación de sus actos como moralmente cualificados y procedentes de un agente moral 

Características del agente moral
Características del agente moral: autonomía, interactividad y adaptabilidad

Floridi y Sanders (2004) articulan la noción de agente moral sobre tres pilares: interactividad, autonomía y adaptabilidad. Podemos calificar estos pilares como esenciales, pues son un mínimo necesario y, faltando cualquiera de ellos, el concepto de agente moral se derrumba:

1) La interactividad significa que el agente y su entorno pueden actuar recíprocamente.

2) La autonomía implica una actuación independiente, se concibe como la capacidad de elegir, de hacer y actuar según las propias decisiones y significa que el agente es capaz de cambiar de estado sin que ello suponga una respuesta automatizada a la interacción.

3) La adaptabilidad es la aptitud para acomodarse a las condiciones del entorno. Significa que, ante alteraciones en este, las interacciones del agente pueden cambiar las reglas de transición por las cuales modifica su estado.

Para ilustrar estas nociones, los autores citados exponen algunos ejemplos de sistemas en los que concurren todas o algunas de estas notas y que podemos articular del siguiente modo en atención a la presencia (1)  o no (0) de las mismas:

Interactividad (0); autonomía (0); adaptabilidad (0): se trata de sistemas totalmente inertes, como por ejemplo las rocas, respecto de los cuales solo en un sentido muy amplio e impropio podríamos hablar de cierta interactividad; por ejemplo, en atención a su erosión por el paso del tiempo.

Interactividad (1); autonomía (0); adaptabilidad (0): son sistemas que reaccionan de modo automático a ciertas alteraciones del entorno, como por ejemplo un molino de viento.

Interactividad (0); autonomía (1); adaptabilidad (0): son sistemas que actúan con independencia del entorno o, al menos, mientras no se alteren las condiciones del mismo, como por ejemplo, a un bajo nivel, un péndulo.

Interactividad (0); autonomía (0); adaptabilidad (1): los propios Floridi y Sanders reconocen que ni siquiera en un sentido vago y general podría encontrarse un sistema en el que concurriese solo la nota de la adaptabilidad sin interactividad ni autonomía.

Interactividad (0); autonomía (1); adaptabilidad (1): se citan los ejemplos de los sistemas planetarios y de ecosistemas cerrados.

Interactividad (1); autonomía (0); adaptabilidad (1): son sistemas sensibles a los cambios del entorno, a los que responden de forma automatizada. Aquí se incluyen los termostatos o los sistemas tradicionales de pilotaje automático de barcos.

Interactividad (1); autonomía (1); adaptabilidad (0): la tradición india habla de la fuerza irresistible del dios Jagannātha, que arrasa con todo lo que encuentra a su paso, acabando incluso con la vida de sus fieles, que, en las procesiones, fallecen bajo las ruedas de los carros que portan las estatuas que lo representan, pues nada puede detenerlo.

Interactividad (1); autonomía (1); adaptabilidad (1): el ser humano es el ejemplo citado por Floridi y Sanders.

La concurrencia de estas tres notas (interactividad, autonomía y adaptabilidad) en un ente enfrentado a una decisión moral nos sitúa según estos autores ante un agente moral, y las mismas podrían predicarse de los sistemas de inteligencia artificial más avanzados, en los que faltan, sin embargo, metas, objetivos y cualquier tipo de estado intencional, pues tampoco son libres ni responsables de sus acciones.

Floridi y Sanders advierten de que, si a las citadas características de interactividad, autonomía y adaptabilidad se pretende añadir cualquier otro requisito esencial al concepto de agente moral pleno, dicho requisito ha de estar libre de toda discusión fenomenológica, eliminando así todos los aspectos psicológicos y subjetivistas del concepto. Con ello se «garantiza que el análisis se basa realmente solo en lo que se acepta como observable y no en alguna especulación psicológica». Floridi y Sanders (2004) consideran que este enfoque fenomenológico es una fortaleza de su planteamiento acerca del agente moral.

En esta línea argumental, la concurrencia de estados intencionales (metas, objetivos, deseos…) puede ser una condición agradable para el sujeto, pero es innecesaria para su caracterización como agente moral. Dictaminar sobre la existencia de estados intencionales presupone la disponibilidad de algún tipo de acceso privilegiado a los estados mentales o intencionales del agente, que, aun siendo posible, no se puede garantizar en la práctica en cada caso concreto, hasta el punto de que su existencia acaba por presumirse en las relaciones humanas cotidianas. Lo decisivo es que los agentes realicen acciones morales que «jueguen» al juego moral; que sepan que lo hacen o no será determinante de su responsabilidad, pero eso es una cuestión que atañe a un momento posterior: el de la determinación y atribución de las consecuencias.

Algo similar ocurre con la objeción de la libertad y, en general, con todas las objeciones basadas en cualquier estado interno especial disfrutado solo por los seres humanos. Para Floridi y Sanders (2004:14), los sistemas de inteligencia artificial autónomos ya son libres en el sentido de que no se comportan como sistemas deterministas y eso «nos salva de la horrible perspectiva de tener que entrar en el espinoso debate sobre lo razonable del determinismo, una infame zona libre, de interminable disputa» y que, por lo tanto, no puede considerarse un requisito esencial del agente moral.

En la próxima entrega de este post se hará referencia a la moralidad sin mente, como una consecuencia de desligar la responsabilidad del concepto de agente moral y trasladarla al campo de los efectos de la actuación del agente moral y también se introducirá el concepto de moralidad distribuida para explicar  acciones, con relevancia moral, realizadas por sistemas multi-agente, de naturaleza híbrida, humana-tecnológica. Continuará …/… 

Extracto del  Trabajo de Fin de Máster “DE LA PERSONA A LA PERSONALIDAD ALGORÍTMICA.A propósito de la personalidad jurídica de la inteligencia artificial” MÁSTER EN BIOÉTICA Y DERECHO (Edición 2016/18).  UNIVERSIDAD DE BARCELONA

facebooktwittergoogle_plusredditpinterestlinkedinmail

2 comentarios

  1. Muy interesante el tercer post, y el final te deja con ganas del cuarto, en un punto que parece el principio de todo, pero no entiendo qué significa “objeción a la libertad” en ese contexto.

    1. Gracias por tu comentario Yolanda. Esa “objeción de la libertad” es una referencia a las tesis que entienden que uno de los requistos del agente moral es que actúe con libertad. En la posición que se expone en el post ni la libertad del sujeto, ni su voluntad, ni su autoconciencia son requisitos del agente moral.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *