Los principios bioéticos en la regulación de la robótica

Facebooktwitterredditpinterestlinkedinmail

El pasado 29 de junio presenté, bajo la dirección de Don Manuel Jesús López Baroni, mi trabajo de fin de máster de Bioética y Derecho en la Universidad de Barcelona. Lleva por título » De la persona a la personalidad algorítmica. A propósito de la personalidad jurídica de la inteligencia artificial» y es una investigación acerca de la propuesta de personificación de los sistemas de inteligencia artificial formulada, el 31 de mayo de 2016 , por la  Comisión de Asuntos Jurídicos del Parlamento Europeo en el Proyecto de informe con recomendaciones a la Comisión sobre normas de Derecho Civil sobre robótica y reiterada (con matices) en la Resolución del Parlamento Europeo el 16 de Febrero de 2017.

En sucesivas entradas de este blog publicaré los aspectos más destacados del trabajo, comenzando hoy por el índice y por el epígrafe dedicado los Principios bioéticos recogidos en los dos citados documentos de la Unión Europea.

Principios bioéticos
Los principios bioéticos y la inteligencia artificial.

La Resolución del Parlamento Europeo, en el apartado titulado «Principios éticos», sitúa la necesidad de regulación en el punto de equilibrio entre las ventajas sociales y económicas de la robótica y los posibles riesgos que su implantación y generalización pueden suponer para «la seguridad y la salud humanas; la libertad, la intimidad, la integridad y la dignidad; la autodeterminación y la no discriminación, y la protección de los datos personales».

También consagra, de forma expresa, el marco de orientaciones éticas en el que debe basarse, no solo la eventual regulación sobre la personalidad jurídica electrónica, sino, en general , la normativa sobre robótica e inteligencia artificial, y lo sitúa en torno a cuatro principios de honda raigambre bioética: los principios de beneficencia, no maleficencia, autonomía y justicia.

El principio de no maleficencia nos sitúa de forma inmediata ante la primera de las Leyes de Asimov, pero la afirmación que la misma encierra («Un robot no hará daño a un ser humano ni permitirá, por inacción, que un ser humano sufra daño») tiene un soporte de mayor fortaleza: el principio de dignidad humana al que Natalie Nevejans se refiere de forma expresa en el Estudio del  Departamento de Política de Derechos de los Ciudadanos, Libertades Fundamentales y Asuntos Constitucionales del Parlamento Europeo  y  que no en vano aparece recogido en la Carta de los Derechos Fundamentales de la Unión Europea de 7 de diciembre de 2000. Ahí se establece que la dignidad humana es el fundamento de todos los derechos y que es inviolable, por lo que es adecuado considerarlo como un concepto fundador que podría servir de base jurídica para la robótica (…) [y situarlo] como la fuente de todos los principios que protegen a las personas del daño.

El principio de beneficencia responde a la afirmación general de hacer el bien en el sentido más amplio, de modo que la robótica y la inteligencia artificial deben servir a los intereses del ser humano y su bienestar, incluyendo el respeto a su derechos. Tradicionalmente se ha considerado el principio más importante en el ámbito de la bioética, pero hoy se entiende modalizado por el principio de autonomía.

El principio de autonomía se concibe en la Resolución del Parlamento Europeo como la capacidad de tomar una decisión independiente y con conocimiento de causa sobre los términos de interacción con los robots. En cierto modo, aparecía reflejado en la tercera de las leyes de Asimov («Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley»). Jurídicamente, el principio descansa directamente en la dignidad y autodeterminación humanas, e implica la necesidad de poner en conocimiento de los ciudadanos el hecho de que van a interactuar con un sistema de inteligencia artificial o con un robot, a fin de que puedan decidir con conocimiento de causa. Natalie Nevejans destaca que de este principio derivan las siguientes ideas:

-El ser humano debería tener siempre la capacidad de obligar a un robot a obedecer sus órdenes (lo que excluiría su utilización como armas o como mecanismos de seguridad).

-Todo ser humano debe tener derecho a negarse a recibir atención de un robot, incluso si no sufriría ningún daño, por la simple razón de que no aceptar esta negativa violaría su dignidad.

-Es necesario el consentimiento previo y expreso del paciente para la prestación de servicios sanitarios por robots.

-Es necesario adaptar precauciones especiales en la interacción de sistemas de inteligencia artificial y robots con personas especialmente vulnerables (niños, ancianos, discapacitados).

El principio de justicia aplicado a la robótica se concibe en la resolución del Parlamento Europeo como la distribución justa de los beneficios asociados a la robótica y la asequibilidad de los robots utilizados en el ámbito de la asistencia sanitaria a domicilio y de los cuidados sanitarios en particular. En efecto, una «brecha robótica» sería especialmente preocupante en los sectores sanitario, educativo y geriátrico, lo que reclama vías de financiación (públicas, mediante aseguradoras…) a fin de garantizar el acceso en igualdad de condiciones a los sectores sociales más desfavorecidos.

También son constantes en la Resolución las referencias al principio de precaución y al de transparencia.

El primero cobra especial relieve al tratar los criterios de comercialización e investigación, con la finalidad de anticiparse a los posibles impactos sobre la seguridad y adoptar las medidas debidas, en función del nivel de protección, al tiempo que se fomenta el progreso en beneficio de la sociedad y del medio ambiente. En el ámbito jurídico aconseja no tomar decisiones precipitadas, pero impone también, so pena de resultar perjudicial, calibrar adecuadamente los inconvenientes de regular con demora.

El principio de trasparencia se formula en la Resolución con la exigencia de que siempre ha de ser posible justificar cualquier decisión que se haya adoptado con ayuda de la inteligencia artificial y que pueda tener un impacto significativo sobre la vida de una o varias personas (…) [y] siempre debe ser posible reducir los cálculos del sistema de inteligencia artificial a una forma comprensible para los humanos.  Para ello, propone un entorno abierto, que abarque normas abiertas, modelos de licencia innovadores y plataformas abiertas, con el fin de evitar el confinamiento en sistemas privados que limiten la interoperabilidad.

¿Leyes de Asimov para humanos o Derecho Natural para robots?

Es interesante destacar que, al plantear la regulación de los aspectos éticos de la robótica y la inteligencia artificial, tanto el Proyecto de Informe como la Resolución del Parlamento Europeo reiteran que debe entenderse que las leyes de Asimov van dirigidas a los diseñadores, fabricantes y operadores de robots, incluidos los que disponen de autonomía y capacidad de autoaprendizaje integradas, dado que dichas leyes no pueden traducirse en código máquina.

Concretando dicha proclamación de principios, la Resolución, además de las propuestas de orden normativo que realiza, contiene, en su anexo, códigos de conducta dirigidos a los ingenieros en robótica y a los comités de ética de la investigación para la revisión de los protocolos de robótica. Existe pues una renuncia expresa a implantar reglas morales en el código máquina de los sistemas de inteligencia artificial, reconociendo, de forma explícita, la imposibilidad técnica de programar aquellos principios a modo de Derecho Natural para robots.

Índice 

1.-INTRODUCCIÓN

2.- ORÍGENES

2.1.- HOMO SAPIENS, HOMO JURIDICUS

2.1.1.- Hordas, tribus, jefaturas y Estados

2.1.2.- Sociedades pre-jurídicas

2.1.3.- Sociedades proto-jurídicas

2.1.4.- Sociedades jurídicas plenas

2.2.- LOS DESTINATARIOS DE LAS PRIMERAS NORMAS JURÍDICAS

2.2.1.- Asia Menor, Egipto y Grecia

2.2.2.- Roma

2.3.- LA CONCRECIÓN DEL CONCEPTO

3.- SER HUMANO Y SUJETO DE DERECHOS: RAZONES, DEFECTOS Y EXCESOS

3.1.- RAZONES

3.1.1.- La comunidad moral

3.1.2.- Contractualismo social

3.1.3.- Utilitarismo

3.2.- DEFECTOS

3.2.1.- Esclavos, mujeres y enemigos

3.2.2.- Embriones

3.2.3.- Animales

3.3. EXCESOS

3.3.1.- Personas Jurídicas

3.3.2.- Personas Electrónicas

4.- HACIA UNA PERSONALIDAD ALGORÍTMICA

4.1.- ROBOTS E INTELIGENCIA ARTIFICIAL

4.1.1.- Del mito a la realidad

4.1.2.- De qué hablamos cuando hablamos de robots

4.2.- ROBOÉTICA Y DERECHO DE LOS ROBOTS

4.3.-LA SITUACIÓN LEGAL ACTUAL

4.3.1.- Lege data

4.3.2.- Lege ferenda

4.4.- ¿POR QUÉ PERSONAS? PROS Y CONTRAS

4.4.1.- El agente moral

4.4.2.- Agentes morales implícitos, explícitos y plenos

4.4.3.- Características del agente moral: autonomía, interactividad y adaptabilidad

4.4.4.- Una moralidad sin mente

4.4.5.- Moralidad distribuida: la complejidad como causa

4.4.6.- La cuestión de la responsabilidad jurídica

4.4.7.- Razones para una negativa

4.4.7.1.- Las objeciones a su participación en la toma de decisiones con alcance moral

4.4.7.2.- La carta abierta de la sociedad civil a los gobernantes de la Unión Europea

4.4.7.3.- El Estudio del Departamento de Política de Derechos de los Ciudadanos, Libertades Fundamentales y Asuntos Constitucionales del Parlamento Europeo

4.4.7.4.- El Dictamen del Comité Económico y Social Europeo

4.4.8.- Los contraargumentos

4.4.8.1.- La confusión con el ser humano

4.4.8.2.- La confusión con las personas jurídicas. Referencia al esquema societario como posible cobertura para una personalidad jurídica independiente de los sistemas de inteligencia artificial

4.4.8.3.- Juridificación de la ciencia ficción o regulación previsora

4.4.8.4.- Futuro y singularidad

4.4.8.5.- Tras la barrera humanista: El dataísmo

5.- BASES PARA UNA REGULACIÓN

5.1.- CUÁNDO

5.2.- DÓNDE

5.3.- CÓMO

5.3.1.- Los derechos afectados y los principios bioéticos

5.3.2.- Leyes de Asimov para humanos o Derecho Natural para robots

5.3.3.- El contenido de la personalidad algorítmica y requisitos constitutivos

6.- CONCLUSIONES

 

BIBLIOGRAFÍA

 

 

 

 

 

 

Facebooktwitterredditpinterestlinkedinmail

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *