Robótica, inteligencia artificial y responsabilidad jurídica (1ª)

Facebooktwitterredditpinterestlinkedinmail

En los artículos anteriores se ha perfilado el concepto de agente moral en torno a tres requisitos esenciales: interactividadautonomía y adaptabilidad haciendo referencia a la posición de autores como Floridi y Sanders que entienden que no debe exigirse  ningún tipo de requisito subjetivo o psicológico como la voluntad, la libertad o la autoconciencia y trasladan la cuestión de la responsabilidad al campo de la evaluación del acto, pues equiparar identificación y evaluación constituye un «atajo, una falacia jurídica».

La responsabilidad es pues una consecuencia que permite distinguir un agente moral de una mera causa eficiente, pero no es un requisito definitorio de la esencia de aquel.

Dilema: renunciar al desarrollo de la robótica o enfrentarse a una brecha de responsabilidad

«A responsibility gap»

La complejidad, traducida en una mayor autonomía de los sistemas robóticos y de inteligencia artificial, así como la proliferación de los contextos de uso y la especial trascendencia de los derechos eventualmente afectados elevan la seguridad y la responsabilidad a categorías fundamentales en los estudios jurídicos sobre estas materias, hasta el punto de haberse acuñado el término responsibility gap.

La sociedad se enfrenta a un dilema: renunciar al desarrollo de la robótica y de la inteligencia artificial «o enfrentarse a una brecha de responsabilidad que no puede salvarse con los conceptos tradicionales de atribución de responsabilidades» (Matthias).

Desde luego, una pretensión de prohibición de desarrollo de la industria robótica estaría fuera de la realidad, por lo que la cuestión se traslada a la elección del mecanismo jurídico adecuado para salvar esa brecha en el esquema actual de responsabilidad.

Posibles soluciones

Los sistemas de responsabilidad objetiva vs. caveat emptor

Una primera opción sería el mantenimiento del régimen ya conocido de la responsabilidad objetiva, imponiendo la misma, de ser necesario, con carácter solidario a cargo de todos los sujetos implicados, como contrapartida de las ventajas económicas, tecnológicas y productivas derivadas de la fabricación, entrenamiento, comercialización y utilización.

Si la tecnología alcanza un grado de desarrollo tal que la complejidad de funcionamiento se torna un riesgo ante la imposibilidad de determinar quién es el causante del daño, la sociedad, el Derecho puede exigir responsabilidad a todo aquel que se beneficie de la puesta en circulación de aquel riesgo. Para esta concepción, los eventuales obstáculos derivados del elevado coste de las demandas por daños contra la industria pueden compensarse con un sistema de seguros.

Frente a ello se ha afirmado que los fabricantes del sector difícilmente estarían en capacidad de anticipar y, por lo tanto, de internalizar los costos, potencialmente elevados, de las controversias civiles para el resarcimiento de los daños causados. (Palmerini)

Profundizando en estos aspectos económicos, se cita el caso de la grave crisis del sector de fabricación de pequeños aviones, al borde de la desaparición en Estados Unidos por los inasumibles costes de las demandas civiles interpuestas por usuarios o sus herederos tras accidentes (Calo). La General Aviation Revitalization Act («GARA») de 1994 concedió a los fabricantes la inmunidad frente a demandas por defecto de fabricación transcurridos dieciocho años desde la fabricación. El acta supuso la salvación del sector de la aviación comercial de aviones de menos de veinte plazas y, según algunos estudiosos el resultado, tras más de treinta años de vigencia de la norma, se traduce en un aumento de la tasa de producción y una reducción de la tasa de accidentes.

Un ejemplo puede poner de relieve algunas contradicciones del sistema: una avioneta pilotada por su dueño despega previa comprobación de que no existe ninguna incidencia meteorológica. Tras una hora de vuelo, el piloto recibe el aviso de la proximidad de una tormenta. El piloto toma el mejor rumbo posible de acuerdo con los datos disponibles (el rumbo que hubiera tomado cualquier experto en sus mismas circunstancias), pese a lo cual, no consigue evitar la tormenta, sufriendo un accidente mortal. ¿Cambiaría algo de tratarse de una avioneta no tripulada, controlada por un sistema de inteligencia artificial? Si el sistema ha tomado la mejor decisión posible (la que hubiese tomado cualquier experto humano en esas misma circunstancias), ¿debe haber una responsabilidad objetiva de fabricante?, ¿o del programador o entrenador del sistema?

El de la aviación civil no es el único sector en el que impera el caveat emptor. Ryan Calo se refiere también a la ausencia de responsabilidad de los fabricantes de armas por los daños que puedan causar sus usuarios o de los proveedores de servicio web por contenidos difundidos por sus usuarios.

Los sistemas de limitación de responsabilidad

Una segunda orientación defiende un sistema de limitación de responsabilidad del fabricante. A este sistema, según explica Palmerini , se le atribuye una doble función: por un lado, la de promover la innovación en la investigación y en la industria robótica, reduciendo el temor ante elevados costos ligados a la participación en las controversias civiles y, por el otro, la de garantizar inmunidad a los fabricantes frente a eventos dañosos que no habrían podido ser evitados usando la debida diligencia, al diseñar el producto y al informar al consumidor de sus riesgos potenciales.

La exención de responsabilidad del fabricante desplaza el problema a la figura del propietario y/o usuario y con ello la necesidad de distinguir entre el uso con fines personales y privados y el uso con finalidad empresarial o profesional. En el primer caso, el consumidor final no tendría modo de internalizar los costos ligados a acciones de responsabilidad y debería estar especialmente protegido frente a esta eventualidad, principalmente si se encuentra en condiciones de fragilidad personal (Palmerini).

Este sería el caso, por ejemplo, de robots de asistencia a enfermos o ancianos o de vigilancia de menores. Esa circunstancia podría ser contraproducente para la propia industria, pues podría desincentivar, en general, su difusión en esos sectores.

La atribución de personalidad jurídica a los robots y sistemas de inteligencia artificial

Una tercera orientación es la que postula la atribución a los robots y sistemas de inteligencia artificial (que cumplan aquellos requisitos de autonomía antes mencionados) de personalidad jurídica, a la que se la vincularía la titularidad de un fondo patrimonial constituido por aportaciones de aquellos sujetos (fabricantes, programadores, entrenadores…) que se beneficiarían de la exención de responsabilidad.

Esta es una de las propuestas del Proyecto de Informe y de la Resolución del Parlamento Europeo (a largo plazo) para los robots autónomos más complejos, considerándolos así como personas electrónicas con derechos y obligaciones específicos, incluida la obligación de reparar los daños que puedan causar, lo que se aplicaría a los supuestos en que los robots pudieran tomar decisiones autónomas inteligentes o interactuar con terceros de forma independiente.

Ante dicha propuesta de atribución de personalidad jurídica cabe preguntarse cual es el concepto de persona en que encajaría esta que bien puede  catalogarse de personalidad algorítmica y cuales son los argumentos favorables y contrarios a dicha posibilidad…/ Continuará…

 

Extracto del  Trabajo de Fin de Máster “DE LA PERSONA A LA PERSONALIDAD ALGORÍTMICA.A propósito de la personalidad jurídica de la inteligencia artificial” MÁSTER EN BIOÉTICA Y DERECHO (Edición 2016/18).  UNIVERSIDAD DE BARCELONA

Facebooktwitterredditpinterestlinkedinmail

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *