





La comunidad moral
La historia del Derecho puede concebirse como la historia de la ampliación de una comunidad moral, pues, en estadios primitivos, «los sentimientos de respeto, simpatía y solidaridad y, consiguientemente, la consideración moral, se limitan al grupo inmediato al que uno pertenece» (Mosterín), pero el círculo moral de respeto y solidaridad se ha ido extendiendo para abarcar grupos cada vez más amplios. No puede negarse «que en ocasiones ha habido dificultades cuando se trataba de dar el salto a otra religión, a otra raza o a otra nación» (Mosterín) pero las declaraciones de derechos derivadas del proceso ilustrado y las revoluciones del siglo XVIII, posteriormente acogidas y reformuladas por la comunidad internacional, cristalizaron en el concepto de derechos humanos, extendiendo así la órbita de la comunidad moral, sin distinción, a toda la familia humana.
Los sujetos morales
En el ámbito subjetivo de la comunidad moral, podemos distinguir: el mero espectador, sujeto moral que no es actor de la acción en cuestión pero presencia la acción del sujeto y la comprende como moralmente relevante; el paciente moral, destinatario de la conducta del agente moral, y el agente moral, concebido como un sujeto autónomo, «capaz de evaluación y decisión moral» y, según la concepción tradicional. responsable de las consecuencias de sus acciones.
Algunos ejemplos de máquinas adoptando decisiones con trascendencia moral y jurídica los encontramos en los vehículos (terrestres y aéreos) no tripulados, así como los robots asistenciales, de diagnóstico, quirúrgicos y protésicos. Su autonomía y complejidad crecen día a día y, en la medida en que conducen a la imprevisibilidad de su comportamiento, con la consiguiente imposibilidad de atribución de responsabilidad a un agente humano, nos sitúan a las puertas de lo que el Proyecto de Informe y la Resolución del Parlamento de la Unión Europea catalogan como insuficiencia del vigente sistema normativo.
Debemos pues plantearnos si el hecho de que los robots y sistemas de inteligencia artificial ejecuten decisiones con consecuencias morales o jurídicas los transforma inmediatamente en agentes morales y, en caso afirmativo, si esa condición de agente moral conduce de forma necesaria a su catalogación como sujetos de derecho.
Agentes morales implícitos, explícitos y plenos
Profundizando en la posible relación de los sistemas computacionales con la agencia moral, se distingue entre agentes morales implícitos, agentes morales explícitos y agentes morales plenos (Moor)
Según este autor, pueden catalogarse como agentes morales implícitos aquellos sistemas computacionales que no ejecutan decisiones éticas pero que por diseño y programación tienen restringidas sus acciones para evitar resultados no éticos. En lugar de programar un software con máximas éticas explícitas entre las que deba elegir el sistema en cada caso, estos sistemas actúan éticamente porque sus funciones internas así lo imponen: los cajeros automáticos o los sistemas de banca online serían un ejemplo de sistemas éticos implícitos que no constituyen un agente moral pleno pero cuyas funciones obligan a sus diseñadores a considerar rutinariamente la ética en la programación; impidiendo, por ejemplo, el acceso a cuentas ajenas al usuario.
Los agentes morales explícitos se corresponden con sistemas computacionales que emiten juicios y toman decisiones de carácter ético. Tales juicios y decisiones responden a los criterios éticos que sus programadores han incluido en su código fuente, de modo que se limitan a cumplir las normas, criterios o valores morales con los que han sido programados en los contextos en los que se utilizan. Son ejemplos los ya citados sistemas informáticos de calificación de solvencia bancaria y de currículums laborales, o el formulario LSI-R utilizado por la mayoría de los estados de Estados Unidos para valorar el riesgo de reincidencia de la población reclusa en la fijación de condenas y concesión de la libertad condicional. Es evidente que estos sistemas automatizados de valoración de riesgos se limitan a aplicar los mismos criterios éticos que los desarrolladores (con sus eventuales sesgos y prejuicios) han incluido en su programación y, por lo tanto, aunque formulen o ejecuten juicios éticos de forma explícita, no actúan tampoco como verdaderos agentes morales, pues lo hacen «en nombre» de sus programadores o usuarios.
Los agentes morales plenos no solo emiten y ejecutan juicios éticos de forma explícita, sino que son competentes para justificarlos razonablemente. El ser humano adulto promedio es el prototipo de lo que se considera un agente moral pleno. No obstante, en el estado actual de la tecnología, esa cualidad —la competencia para justificar decisiones éticas— no es atribuible a los sistemas de inteligencia artificial, aunque ciertamente no puede afirmarse que no lleguen a disponer de ella en el futuro.
Mientras tanto imaginemos el hipotético supuesto de dos asistentes hospitalarios de cuidados que, ante una subida de la fiebre de sus respectivos pacientes, optan, en un caso, por avisar al médico supervisor y, en el otro, por aplicar el antipirético pautado para tales casos por el historial clínico. Imaginemos que el primero de los pacientes fallece y el otro se salva. Parece claro que ambas opciones son moralmente calificables y atribuibles a agentes morales y, ante un supuesto así, cabe plantearse si el hecho de que uno de los cuidadores fuera humano y el otro un robot de cuidados autónomo alteraría la conceptuación de sus actos como moralmente cualificados y procedentes de un agente moral (Floridi, & Sanders).
En la próxima entrega de este post estudiaremos los requisitos que debe reunir un agente para ser considerado agente moral y no una mera causa eficiente y qué papel juega la responsabilidad del agente. La responsabilidad ¿es una consecuencia de los actos del agente moral o es un requisito esencial del concepto de agente moral? Continuará …/…
Extracto del Trabajo de Fin de Máster «DE LA PERSONA A LA PERSONALIDAD ALGORÍTMICA.A propósito de la personalidad jurídica de la inteligencia artificial» MÁSTER EN BIOÉTICA Y DERECHO (Edición 2016/18). UNIVERSIDAD DE BARCELONA





