Robots y sujetos de derechos ¿hacia un concepto dataísta de la persona?

Facebooktwitterredditpinterestlinkedinmail
El humanismo como base de la civilización actual.

La quiebra de los valores del humanismo es uno de los mayores riesgos inherentes a la personificación jurídica de los sistemas de Inteligencia Artificial, según los  detractores de tal propuesta.  Así Nathalie Nevejans  (Study for Jury Committee European Civil Law Rules In Robotics Policy. Department C: Citizens Rights and Constitutional Affairs European Parliament Brussels -2016-)  habla de los peligros de derribar las fronteras entre el ser humano y las máquinas y afirma que el reconocimiento de lo que el Proyecto de Informe de 31 de mayo de 2016 con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (y la Resolución posterior del Parlamento de la Unión Europea de 16 de febrero de 2017) perfila como personalidad electrónica (el reconocimiento de derechos a los sistemas de inteligencia artificial- yo prefiero hablar de personalidad algorítmica-) «pondría en tela de juicio los fundamentos humanistas de Europa».

El universo es un flujo de datos ¿y el universo jurídico?

Remedio contra el sometimiento a un plan cósmico y la dictadura de un destino impuesto por la divinidad, el humanismo entregó al ser humano las riendas de su existencia, sustituyendo, como armazón estructural de la sociedad, la fe en los dioses que había guiado la civilización los siglos anteriores, por la fe en la humanidad —sus valores,  voluntad, sentimientos, experiencias, inteligencia— y  se concretó en diversas teorías de orden socialista, fascista, de tipo evolutivo y, en el ámbito de la Unión Europea, de orden liberal cristiano.

Humanismo ¿barrera infranqueable o armazón social sustituible?

Las referencias a esos valores humanistas son una constante citada con reiteración, a modo de infranqueable barrera, en todos los textos contrarios a la consideración de los sistemas de inteligencia artificial como sujetos de derecho. El temor jurídico a esa personificación de la inteligencia artificial, paralelo a la llamada al principio de prudencia en la investigación científica en estos sectores, se debe a que está en juego el principio esencial, fundador, del armazón humanista: la voluntad humana libre. Así, explica Harari en Homo Deus, para la concepción humanista las tecnologías encaminadas a sustituirla, controlarla, rediseñarla o incluso mejorarla estarían atentando contra la piedra de toque de la civilización .

Ocurre que, tras aquella barrera levantada por el humanismo, se alza hoy una propuesta, el dataísmo, para la cual lo esencial no es un plan divino, ni tampoco la voluntad humana, sino que «el dataísmo sostiene que el universo consiste en flujo de datos y que el valor de cualquier fenómeno o entidad está determinado por su contribución al procesamiento de datos». (Harari)

Datos y algoritmos.

Las leyes matemáticas que rigen los algoritmos electrónicos  son las mismas que regulan los algoritmos bioquímicos, lo que difumina la diferencia entre lo natural y lo artificial y provoca que «la barrera entre máquinas y animales se desplome» (Harari).

Un sistema de inteligencia artificial determina cuándo, qué, cuántos y a qué precio comprar determinados valores en una negociación online. Al otro lado de la pantalla, un bróker determina cuándo, qué, cuántos y a qué precio vender determinados valores. En tal escenario, donde el humanismo contemplaba una máquina confrontada con la voluntad humana desarrollando sus fines e intereses, el dataísmo describirá dos algoritmos, uno artificial, electrónico, y otro natural, bioquímico, interactuando, contribuyendo al aumento del caudal del flujo de datos.

Y si, para el humanismo jurídico, la voluntad humana (sus intereses) es el núcleo esencial de la subjetividad jurídica, el dataísmo atribuirá tal papel a los algoritmos que contribuyan a aquel flujo universal de información. En el ámbito jurídico, ese flujo se concreta en los datos de los intervinientes en los contratos o, en general, en actos con trascendencia jurídica, de las circunstancias antecedentes y coetáneas del mercado, de las prestaciones (bienes o servicios) intercambiadas, de su valor, forma de pago y de la fecha, lugar y normas jurídicas de aplicación. Ese flujo de datos jurídicos se retroalimenta sin pausa desde centros subjetivos de base algorítmica para la imputación de consecuencias jurídicas que, a modo de atractores, al ejecutar activa o pasivamente prestaciones, canalizan información, emiten y reciben datos, siendo indiferente para la regulación jurídica de ese flujo el que la base de aquellos algoritmos sea electrónica o bioquímica.

Una concepción dataísta de la personalidad jurídica respondería actualmente a un  esquema que prescindiría tanto del requisito del ADN humano como de la exigencia de conciencia o inteligencia. Ni la pertenencia a la especie humana ni la existencia de un elemento de raciocinio, autoconciencia o sensibilidad; lo relevante es la contribución al flujo jurídico de datos que realizan esos centros de imputación concebidos, desde esta perspectiva, como personalidades algorítmicas.

La determinación de responsabilidad como causa y una lección histórica.

Situemos esta referencia al dataísmo junto con el recordatorio de que la razón por la que se ha justificado la conveniencia de atribuir personalidad jurídica a los sistemas de inteligencia artificial, deriva de los problemas que plantea la determinación de la responsabilidad ante daños cometidos por tales sistemas a causa de su complejidad y autonomía.

Ante tal planteamiento —un problema de determinación de responsabilidad—, cualquiera podría ver una lección histórica en el hecho de que fue también un problema de determinación de la responsabilidad el que provocó la consolidación de la doctrina canónica de la persona ficta, elaboración doctrinal, que pretendía evitar que la pena de excomunión a las ciudades o corporaciones que se revelaban contra el Papa o el Emperador recayera sobre cada uno de sus miembros, fuesen culpables o no.

Eso aconteció mediado el siglo XIII, tan solo unas décadas antes de que el nuevo espíritu del Renacimiento acabase por establecer el humanismo como argamasa de la cohesión social durante los siglos venideros, lo que arrojaría por el sumidero de la historia la anterior concepción secular de que todo lo existente y por venir era fruto de un plan divino universal.

Entonces, se trataba de determinar la responsabilidad por el daño máximo que se podía ocasionar bajo aquel esquema mental y de organización de la sociedad: el daño a Dios.

Hoy, cuando se plantea la atribución de personalidad a los robots y sistemas de inteligencia artificial, se trata de determinar la responsabilidad por el daño máximo que se puede ocasionar bajo nuestro actual esquema mental y de organización de la sociedad: el daño al ser humano.

 

Artículo basado en ideas expuestas en el  Trabajo de Fin de Máster “DE LA PERSONA A LA PERSONALIDAD ALGORÍTMICA.A propósito de la personalidad jurídica de la inteligencia artificial” MÁSTER EN BIOÉTICA Y DERECHO (Edición 2016/18).  UNIVERSIDAD DE BARCELONA

 

 

 

 

Facebooktwitterredditpinterestlinkedinmail

2 comentarios:

  1. La creación de la persona ficta fue para dotarla de responsabilidad/personalidad? Creo entenderlo así. En tal caso la personalidad algorítmica limitaría, también, la responsabilidad a la misma. Si así es no veo que colisione con los valores del humanismo, es un avance.

  2. No creo que lleguemos a ese extremo pero también es verdad que los avances son cada día más grandes y con la implantación de los ordenadores cuanticos, ofrecen muchas mas posiblidades. El futuro nos lo dirá.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *