Roboética ¿Puede una máquina ser un agente moral? (y 3º)

Facebooktwitterredditpinterestlinkedinmail

Moralidad sin mente, moralidad distribuida y responsabilidad.

En el segundo capítulo de este artículo se expuso la tesis defendida por Floridi y Sanders para quienes los únicos requisitos definitorios del agente moral son  la interactividad, la autonomía y la adaptabilidad sin que quepa exigir ningún tipo requisito subjetivo o psicológico como la voluntad, la libertad o la autoconciencia. 

¿Es posible una moralidad sin mente?
 Una moralidad sin mente

En una posición radicalmente opuesta a la de Floridi y Sanders, se ha sostenido que es esencial que el agente moral se sepa a sí mismo y se muestre a los demás como alguien con una identidad propia, que se conciba a sí mismo (y a los otros) no solo como sujeto, sino como sujeto racional que actúa intencionalmente y posee sentido de la responsabilidad y de rendición de cuentas.

Floridi y Sanders insisten, tal y como ya se ha expuesto en la anterior entrada de este blog, en que tales estados cognitivos no añaden nada a la hora de calificar una acción como moral, y postulan separar esos elementos de orden psicológico-cognitivo (responsibility) de la cuestión de la rendición de cuentas (accountability), atribuyendo esta última a los sistemas de inteligencia artificial en los que concurra el triple requisito (autonomía, interactividad, adaptabilidad) antes señalado, que es el que permite la identificación del agente moral. Se trasladaría así la cuestión de la responsabilidad al campo de la evaluación del acto, pues equiparar identificación y evaluación constituye un «atajo, una falacia jurídica». La responsabilidad es pues una consecuencia que permite distinguir un agente moral de una mera causa eficiente, pero no es un requisito definitorio de la esencia de aquel.

Las razones que llevan a esta ampliación del concepto de agente moral para comprender en él a los agentes artificiales son, para estos autores, de orden práctico: a cierto nivel, los requisitos de autonomía, interactividad y adaptabilidad pueden concurrir. Así ocurre, por ejemplo, en animales de salvamento enfrentados a una acción con consecuencias morales, lo que da lugar a reproches (correcciones o castigos) por parte de sus cuidadores, pero no se plantea respecto de ellos una rendición de cuentas, que en todo caso correspondería al ser humano (al «poseedor del animal o al que se sirve de él», dice nuestro Código Civil). Contrariamente, en el caso de los sistemas de inteligencia artificial, pretender un reproche (corrección o castigo) ante una mala acción tendría el mismo alcance que construir muros más altos en las riberas de un río tras una crecida devastadora, aunque, en sentido contrario, un «castigo» como un apagado definitivo o una reprogramación (como se hace con un sistema de software defectuoso) sería inadmisible tratándose de un ser vivo. ¿Qué razones hay pues para atribuir responsabilidad a los sistemas de inteligencia artificial?

Moralidad distribuida: la complejidad como causa

 La tradicional concepción del conocimiento como el producto de una mente individual quiebra, a finales del siglo XX, con las aportaciones de Edwin Hutchins acerca de lo que denominó «cognición distribuida». Muchas de las manifestaciones de los procesos cognitivos, a fin de lograr efectividad práctica, se concretan en actuaciones cooperativas y son producto de la interacción colectiva de varios sujetos, ambientes y herramientas, de suerte que la cognición es inseparable de la interacción con el mundo, y actúa de forma contextualizada y concreta.

Partiendo de esto, es posible constatar que la cognición se beneficia de la interacción entre humanos y no-humanos. Es decir, [se] trata de la idea de que la producción de conocimiento no está centrada en un único individuo, sino en la interacción entre los individuos y las herramientas presentes en el ambiente en que estos viven y que auxilian en la producción de conocimientos de forma colaborativa. (Regis, Timponi & Maia, 2011)

Desde esta perspectiva es evidente que la tecnología informática, en general, y, más en concreto, los sistemas de inteligencia artificial se han integrado definitivamente en el proceso humano de formación del conocimiento.

La traslación de estas ideas al ámbito de la moralidad y sus relaciones con la robótica y la tecnología en general ha dado lugar al concepto de moralidad distribuida, con el que autores como Lorenzo Magnani y los ya citados Floridi y Sanders se refieren a acciones con resultados moralmente relevantes, realizadas por sistemas multi-agentes, ya sean de naturaleza exclusivamente humana —el caso, por ejemplo, de las personas jurídicas— ya de naturaleza híbrida humano-tecnológica.

 

Esa idea de la moralidad (y de la cognición) distribuida guarda cierto paralelismo con el problema de la determinación de responsabilidad, que cobra especial relieve en aquellos casos en los que al lado de agentes humanos intervienen robots o sistemas de inteligencia artificial con un elevado grado de autonomía y autoplanificación, pues esto puede dificultar notablemente la determinación del sujeto causante del daño. Aquí, a la intervención del fabricante, del operario y del usuario debe añadirse el papel del programador y, en el caso de robots o sistemas con posibilidad de aprendizaje, el instructor en ese proceso.

 

A esta cuestión hace referencia expresa el punto 28 de las Recomendaciones a la Propuesta de Resolución del Parlamento Europeo sobre robótica, que declara que una vez que las partes responsables hayan sido identificadas en última instancia, su responsabilidad será proporcional al nivel real de las instrucciones dadas a los robots y a su autonomía, por lo que cuanto mayor sea la capacidad de aprendizaje o la autonomía, menor será la responsabilidad de las otras partes, y cuanto más larga haya sido la educación del robot, mayor será la responsabilidad de su profesor

Hay que tener muy presente, respecto de este último punto, que no se trata de la ejecución repetitiva de instrucciones recibidas en el proceso de aprendizaje, pues las competencias adquiridas a través de la educación de un robot no deberían confundirse con las competencias estrictamente dependientes de su capacidad de aprender de modo autónomo.

Estas ideas (complejidad, autonomía, aprendizaje, carácter impredecible de las acciones) deben ponerse en relación con la ampliación de los contextos en los que los robots y sistemas de inteligencia artificial desempeñan sus funciones, pues las barreras físicas de separación que permiten mitigar riesgos en el ámbito de la robótica industrial (campo primigenio de la robótica) son impensables en el caso de los robots asistenciales, médicos, protésicos, o de los vehículos autónomos. Al mismo tiempo, la ampliación de los contextos de utilización de esta tecnología conlleva la ampliación del espectro de los daños que pueden producirse (no solo físicos, sino también morales y patrimoniales) y de las eventuales víctimas (terceros y los propios usuarios).

Claro que, además de esta complejidad contextual, existe otra de orden tecnológico que puede igualmente contribuir a incrementar la dificultad en el deslinde de responsabilidades: en efecto, las técnicas matemáticas empleadas para la formulación de algoritmos de los sistemas de inteligencia artificial provocan lo que se ha denominado «ausencia de trazabilidad de las decisiones» (Barrio & García-Prieto, 2018). Como ejemplo, se cita el caso de las redes neuronales artificiales de tipo convolucional empleadas por los sistemas de reconocimiento visual, en las que se asiste a la «emergencia de la independencia (o de agencia)» en la toma de decisiones: durante su aprendizaje, cada neurona recibe múltiples entradas, cada una de la cuales tiene su «peso» específico. Equivalentes funcionales de las fuerzas sinápticas de las neuronas biológicas, esos «pesos» son coeficientes que serán calibrados durante el aprendizaje del algoritmo. Una vez que el aprendizaje ha concluido, para reconocer una imagen, una función matemática relaciona aquellos coeficientes con el valor atribuido a determinados píxeles y, aunque es evidente que unos píxeles tienen mayor valor que otros, la determinación de cuáles ha tenido en cuenta el algoritmo resulta matemáticamente imposible.

Y así, concluye García-Prieto (2018:12), «el algoritmo adquiere cierta distancia frente al diseñador o al programador del mismo (…) y toma sus propias decisiones».

Estas nociones de complejidad externa (contextual) e interna (tecnológica) se traducen, en el Proyecto de Informe y en la Resolución del Parlamento de la Unión Europea, en las de mayor autonomía, capacidad de aprendizaje y menor responsabilidad de agentes como el propietario, el programador o el fabricante, y lleva a considerar al propio robot como un agente más integrado en un sistema complejo, de suerte que, según el Proyecto: «cuanto más autónomos sean los robots, menos se los podrá considerar simples instrumentos en manos de otros agentes … [y] como consecuencia de ello, resulta cada vez más urgente abordar la cuestión fundamental de si los robots deben tener personalidad jurídica»

Por su parte, la Resolución reconduce esa cuestión, no a la atribución de la personalidad jurídica, sino, de un modo más general, a la cuestión de si la normativa (…) sobre responsabilidad es suficiente o si se requieren normas y principios específicos que aporten claridad sobre la responsabilidad jurídica de los distintos agentes y su responsabilidad por los actos y omisiones de los robots cuya causa no pueda atribuirse a un agente humano concreto.

La atribución de personalidad jurídica a  los sistemas de inteligencia artificial es una de las soluciones propuestas para hacer frente al problema de la responsabilidad por daños pero no es la única. En la próxima entrega  se hará referencia a las distintas soluciones jurídicas propuestas . En septiembre, Continuará …/… Feliz verano.

Extracto del  Trabajo de Fin de Máster “DE LA PERSONA A LA PERSONALIDAD ALGORÍTMICA.A propósito de la personalidad jurídica de la inteligencia artificial” MÁSTER EN BIOÉTICA Y DERECHO (Edición 2016/18).  UNIVERSIDAD DE BARCELONA

 

Facebooktwitterredditpinterestlinkedinmail

Un comentario:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *