





Este artículo fue publicado originariamente en el número 23 de la revista ULISES, REVISTA DE VIAJES INTERIORES

NEURODERECHOS ¿UN NUEVO PROHIBICIONISMO?
El libre albedrío para empezar…¿y el dataísmo para acabar con él?
Ted Chiang, en su cuento Lo que se espera de nosotros, plantea el futuro al que se enfrenta la humanidad tras la comercialización en masa de Pronostic, un juguete aparentemente sencillo pero aterrador: consiste en un pequeño aparato similar a un mando a distancia compuesto de un único botón y una gran luz de color verde. El juego es muy simple, se aprieta el botón y la luz se enciende. Más exactamente la luz de Pronostic se enciende un segundo antes de que el botón sea apretado y Pronostic no falla nunca: si esperas horas (podrían ser días) sin intención de apretar el botón, la luz no aparece y si aparece la luz, un segundo después, irremediablemente, pulsarás el botón, ni una milésima de segundo antes (en el caso de que intentases ser muy veloz) ni más tarde (en el caso en que intentases retrasar o evitar la pulsación).
La poética moraleja que puede extraerse del cuento de Chiang es que si en algún momento se llegase a demostrar, de una forma tan práctica, trivial y evidente, que el libre albedrío es una mera ilusión, la mejor solución sería seguir actuando como si el libre albedrío realmente existiese, conclusión coincidente con el aforismo de Georg Cristoph Lichtenberg para quien, en este ámbito de la libertad humana, una hipótesis errónea es preferible a una hipótesis exacta.
Remedio contra el sometimiento a un plan cósmico y la dictadura de un destino impuesto por la divinidad el humanismo entregó en el siglo XV al ser humano las riendas de su existencia, sustituyendo, como armazón estructural de la sociedad, la fe en los dioses que había guiado a la civilización durante los siglos anteriores por la fe en la humanidad (sus valores, su voluntad, su libertad). Con estos pilares sociales es clásico el recurso al libre albedrío como fundamento legitimador del Derecho Penal asentado sobre la idea de culpabilidad y esta ligada, a su vez, a la voluntad y a la consciencia y ello pese a que la física y la neurociencia nos obligan a revisar el canon del libre albedrío como potestad esencialmente humana.
En efecto, muy lejos ahora de la ciencia ficción, en experimentos y estudios de los llamados potenciales premotores, se demuestra la existencia de actividad eléctrica cerebral previa a la consciencia del sujeto, tanto a la hora de realizar movimientos corporales como a la hora de tomar decisiones. Esta idea y la reducción de la conducta humana al resultado de la acción de algoritmos bioquímicos fundamenta el auge del dataísmo que anuncia un nuevo paradigma social en el cual lo esencial no es, ni un plan divino ni la voluntad humana, sino el intercambio de información pues (escribe Harari) “el universo consiste en flujo de datos y el valor de cualquier fenómeno o entidad está determinado por su contribución al procesamiento de datos”.
Un sistema de inteligencia artificial determina qué, cuándo, cuántos y a qué precios comprar determinadas acciones en un mercado bursátil on line. Al otro lado de la pantalla un bróker determina cuándo, cuántos y a qué precios vender esos mismos valores. En tal escenario, allí donde el humanismo veía la voluntad humana desarrollando sus intereses confrontada con una máquina, el dataísmo describirá dos algoritmos, uno artificial y electrónico y otro natural y bioquímico, interactuando, contribuyendo al aumento del caudal del flujo de datos. Tal concepción de la sociedad obligaría a revisar el concepto de persona y de sujeto de derechos pues el núcleo esencial de la subjetividad jurídica ya no estaría en la voluntad humana sino en la aptitud para convertirse en nodo de creación, recepción y emisión de datos, papel que correspondería también a los algoritmos de inteligencia artificial. Y debe destacarse, muy lejos también ahora de la ciencia ficción, que, en esa línea, una Resolución del Parlamento Europeo de 16 de febrero de 2017 propone la atribución de personalidad jurídica (convirtiendo pues en sujetos de derechos) a ciertos sistemas complejos de inteligencia artificial, propuesta que ha sido objeto de severas críticas desde postulados humanistas.
Y ante este panorama, con el concepto de libre albedrío sujeto a revisión por la ciencia y con el concepto de persona puesto en entredicho por estas nuevas propuestas legales, surge, sin duda como un bastión más de defensa del humanismo, la pretensión de consagrar el derecho humano al libre albedrío como uno de los llamados neuroderechos.
Neuroderechos: La iniciativa de la Universidad de Columbia y la respuesta española.
La neurotecnología comprende todos los dispositivos, instrumentos y elementos no farmacológicos con capacidad para interferir o registrar la actividad cerebral, por lo que su impacto sobre la ética y el derecho no suponen ninguna novedad. Basta con recordar los dilemas éticos planteados por técnicas neuroquirúrgicas como la lobotomía frontal hasta su abandono en 1967 o los criterios jurisprudenciales (tanto en España como en EEUU) que respaldan el derecho de los padres sordos a oponerse a la implantación obligatoria de implantes cloqueares a sus hijos menores de edad.
El hecho novedoso que ha llevado a consolidar el neuroderecho y la neuroética como disciplinas en la primera década de este siglo es el avance tecnológico que, de la mano de la inteligencia artificial y el tratamiento de datos, está a las puertas de revolucionar ámbitos como el reconocimiento de emociones, la lectura de la actividad cerebral, los interfaces cerebro-máquina y la estimulación cognitiva. El potencial de estas nuevas neurotecnologías lleva a poner en entredicho la salvaguardia de derechos que, como la libertad de pensamiento, la autonomía cognitiva o la intimidad mental, se consideraban tradicionalmente protegidos sin necesidad de garantías jurídicas. La propia inaccesibilidad de la actividad cerebral ha sido tradicionalmente una garantía idónea para la salvaguardia de la libertad de pensamiento de modo que solo era necesaria la intervención protectora de la ley cuando se pretendía ejercitar hacia el exterior esa libertad de pensamiento actuando con arreglo a las propias ideas.
En este cambio de paradigma un articulo publicado en 2017 por Roberto Andorno y Marcello Incea plantea la insuficiencia del marco tradicional de los derechos humanos como medio de protección ante la posibilidad de “acceder, recoger, compartir y manipular la información del cerebro humano”. Dos años después, en la Universidad de Columbia, a propuesta de un grupo de científicos y bioéticos liderados por Rafael Yuste surge la Iniciativa de los neuroderechos con el objetivo de incorporar “los cinco neuroderechos o protecciones equivalentes en los documentos de derechos humanos que existen a nivel mundial” y, al mismo tiempo, fomentar modelos de “ética para empresarios, médicos e investigadores que desarrollan Neurotecnología y IA”
En su declaración germinal los neuroderechos se articulan del siguiente modo:
“El Derecho a la Identidad Personal: Deben desarrollarse límites para prohibir que la tecnología altere el concepto del sí-mismo. Al conectar el cerebro de individuos a computadoras, la Neurotecnología podría nublar la línea entre la conciencia de una persona y las tecnológicas externas.
El Derecho al Libre Albedrío: Las personas deben tener control absoluto sobre sus propias decisiones, sin la manipulación de Neurotecnologías externas.
El Derecho a la Privacidad Mental: Todos los datos obtenidos al medir la actividad neuronal («NeuroDatos») deben mantenerse privados. Adicionalmente, la venta, la transferencia comercial y el uso de datos neuronales deben estar estrictamente regulados.
El Derecho al Acceso Equitativo a Potenciadores Mentales: Deben establecerse pautas nacionales e internacionales que regulen el desarrollo y las aplicaciones de Neurotecnologías que permitan potenciar las capacidades mentales. Estas directrices deberán sustentarse en el principio de justicia y garantizar la igualdad de acceso a todos los ciudadanos.
El Derecho a la Protección Contra Sesgos Algorítmicos: Utilizar contramedidas para combatir sesgos algorítmicos debe ser la norma al emplear algoritmos de aprendizaje automático. Se deben considerar indicaciones de distintos grupos de usuarios para enfrentar los sesgos de manera colectiva desde las primeras fases del desarrollo del algoritmo.”
A partir de esta declaración inicial la Unión Europea incorpora estas materias a los estudios del Grupo de Expertos de Inteligencia Artificial y algunos países, como Chile, han iniciado procesos legislativos encaminados a la consagración de estos neuroderechos como nuevos derechos humanos con rango constitucional.
La primera referencia a estas cuestiones en un texto oficial español aparece el 15 de junio 2020 en la Carta de derechos digitales elaborada por el Grupo de Expertos promovido por la Secretaría de Estado de Digitalización e Inteligencia Artificial del Ministerio de Asuntos Económicos y Transformación Digital que dedica un capitulo a los que llama “derechos digitales en el empleo de las neurotecnologías”.
La Carta establece, por un lado, los principios finalistas que deberían inspirar la regulación de estas materias, esencialmente, preservar la identidad individual como conciencia de la persona sobre sí misma, garantizar la autodeterminación individual, asegurar la confidencialidad, seguridad y disponibilidad de los datos relativos a procesos cerebrales, regular el uso de interfaces persona-máquina, asegurar la voluntariedad en la toma de decisiones y evitar la intromisión inconsentida en las conexiones neuronales. Por otro lado, la Carta dispone que la ley regulará los “supuestos y condiciones de empleo de las neurotecnologías que, más allá de su aplicación terapéutica, pretendan el aumento cognitivo o la estimulación o potenciación de las capacidades de las personas.”
Una visión crítica: forma y fondo.
La primera cuestión a aclarar es que la Carta de derechos digitales promovida por el Gobierno español carece de cualquier valor normativo, no pasa de ser una simple declaración de intenciones cuyo formato ha sido objeto de críticas fundadas, pues su estructura, en capítulos con párrafos numerados a modo de artículos y su contenido, enumerativo de derechos, libertades, obligaciones y prohibiciones, puede inducir a confusión.
Por eso Javier de la Cueva, abogado y doctor en filosofía, experto en derecho digital, crítica abiertamente el proceso y la vía elegida para la formación de la Carta, a la que califica de propaganda y añade que la función del grupo de expertos debería ser la de redactar “un informe con un análisis de los problemas y con recomendaciones precisas de cómo actuar pero no una declaración reiterativa de derechos en un texto no normativo pero con apariencia de norma” y, en efecto, se ha criticado, respecto de ambas propuestas que no formulan ningún derecho novedoso sino que se limitan a proclamar, revestidos de tecnología, derechos y libertades ya consagrados y transcribir párrafos de otros informes o normas jurídicas vigentes. En su concreta referencia a los neuroderechos la Carta se asienta en tres principios ya clásicos en el ámbito bioético y también jurídico: el de consentimiento informado, el de protección de datos y el de no discriminación, ideas que también comparte la Iniciativa dirigida por el doctor Yuste que, además, rechaza expresamente al sesgo algorítmico.
En la misma línea se ha destacado que, en realidad, estas propuestas lo único que hacen es poner de relieve la existencia de amenazas nuevas a derechos viejos, es decir, se trata (Alejandra Zuñiga, Luis Villavicencio y Ricardo Salas) de “la antigua novedad de que los derechos humanos, derechos fundamentales o derechos constitucionales, están permanentemente expuestos a inéditos tipos de amenazas”. Es innegable que todos estos nuevos dispositivos, instrumentos y mecanismos no farmacológicos suponen una amenaza a bienes jurídicos esenciales como la privacidad, la intimidad y la integridad física y psíquica pero eso no implica que la respuesta a esa amenaza deba consistir en la creación de nuevos derechos pues existen otros, ya consagrados desde hace tiempo, que defienden de aquella amenaza. Que “surjan nuevas formas de matar no altera el contenido del derecho a la vida ni es fundamento para la creación jurídica de nuevos derechos” concluyen gráficamente los tres autores antes citados.
Además, el análisis jurídico de estas propuestas pone de relieve que estos llamados neuroderechos no se formulan como verdaderos derechos sino que se concretan en límites y prohibiciones a las injerencias de terceros. No se trata de propuestas para garantizar una libertad novedosa que puedan ahora ejercitar los seres humanos y que los Estados y los demás hayan de respetar, sino que se trata, sencillamente, de proclamar la prohibición de acceso a redes neuronales humanas o a sus datos sin el consentimiento del interesado.
Además de lo dicho, hay algunos aspectos de ambas propuestas que resultan especialmente polémicos como la referencia al derecho al libre albedrío, proclamada en la iniciativa de la Universidad de Columbia y el llamamiento a la necesidad de imponer límites (nacionales e internacionales) a las técnicas de estimulación, potenciación o aumento de las capacidades sensoriales o cognitivas de las personas, preocupación esta última compartida por la Iniciativa de la Universidad de Columbia y por la Carta del grupo de expertos españoles.
Derecho humano al libre albedrío: una propuesta fallida.
La propuesta del derecho humano al libre albedrío, concebido como control absoluto de la persona sobre sus propias decisiones sin la manipulación de neurotecnologías externas, formulada en la Iniciativa de los neurederechos de la Universidad de Columbia ha sido objeto de fundadas críticas (Diego Alejandro Borbón, Luisa Alejandra Borbón y Jeniffer Laverde) de un lado por el riesgo de acoger en la definición de libre albedrío una “interpretación poco acertada, sesgada o que conlleve a repercusiones filosóficas y jurídicas todavía desconocidas”, de otro, por introducir en la órbita bioética y jurídica un concepto científicamente discutible y sujeto a profunda revisión.
Y, nuevamente, es innecesario acudir a un pretendido y novedoso neuroderecho pues si de lo que se trata es de “evitar la manipulación del encéfalo por neurotecnologías desconocidas, es suficiente, y muchísimo menos problemático” acudir al “derecho al derecho a la libertad cognitiva (…) que (…) comprende la autodeterminación mental como protección de los individuos frente al uso sin consentimiento y coercitivo de neurotecnologías”.
De esta forma la libertad de pensamiento, un derecho “viejo”, (consagrado tanto en la Declaración Universal de Derechos Humanos como por la generalidad de las Constituciones vigentes y convenios internacionales) es el mecanismo adecuado de defensa frente a una amenaza “nueva”, derivada de manipulaciones neurotecnológicas, no por vías difusas e indirectas de influencia sobre el inconsciente (como sería el caso de las técnicas tradicionales de neuromarketing o de hipnosis) sino por la concreta y directa de alterar la conciencia sin el consentimiento del sujeto. La cuestión enlaza obviamente con el principio bioético de autonomía y con una manifestación práctica del mismo ya conocida (por ejemplo en el ámbito de la práctica médica y de ensayos farmacológicos) como es la exigencia del consentimiento informado que debe erigirse como principio inspirador en la regulación de las neurotecnologías a fin de salvaguardar “el control absoluto de la persona sobre sus propias decisiones” de que habla la Iniciativa de los neuroderechos al proclamar el derecho humano al libre albedrío.
Prohibir como principio.
Lejos de la casualidad, la Iniciativa de los Cinco neuroderechos formulada por la Universidad de Columbia relega el libre albedrío al segundo lugar de la declaración y, seguramente por miedo a que ese libre albedrío no sea suficiente para la auto-gestión del ser humano, sitúa en el primer lugar de la declaración una prohibición pretendidamente protectora y así, bajo la rúbrica “derecho a la identidad personal”, se proclama una prohibición expresa de que la “tecnología altere el concepto de sí- mismo”.
Por su parte, la Carta de derechos promovida por el Gobierno español acoge la definición de identidad individual como conciencia de la persona sobre sí misma y establece su preservación como una finalidad a garantizar por la Ley aunque no formula una prohibición expresa de las técnicas que puedan alterarla. Pero, tanto en la Carta como en la Iniciativa, se hace también referencia a la necesidad de regular, incluso a través de tratados y convenios internacionales el empleo de neurotecnologías de mejora de las cualidades mentales esto es, todas aquellas técnicas que “pretendan el aumento cognitivo o la estimulación o potenciación de las capacidades de las personas”, lo que equivale a someter a aprobación legal las neurotecnologías de mejora o potenciación.
Es fácil comprobar que una prohibición de raíz de las neurotecnologías que puedan alterar el “concepto de sí-mismo” es incompatible con la proclamación del “libre albedrío” como principio inspirador y está llamada a ser superada por la realidad social.
Lo primero porque la libertad de pensamiento implica la libertad de cambiar de creencia y una creencia es, ante todo, un estado mental de modo que la libertad ideológica ha de llevar implícito el derecho a acceder a cualquier estado mental, el de alterarlo a voluntad y, evidentemente, el de impedir que un tercero lo haga sin consentimiento del interesado. Y entre esas alteraciones de estado mentales pueden estar aquellas que, como un ejercicio de ese “libre albedrío”, impliquen alteración sobre la “conciencia de sí-mismo”.
Lo segundo porque la realidad social demuestra que esas neurotecnologías que alteran la “conciencia de sí-mismo” forman parte del desarrollo tecnológico y cultural y su prohibición debería ir precedida de una rigurosa justificación científica de los daños que ocasionaría. Esa justificación científica no existe a fecha de hoy y, al contrario, sí que existen algunas aplicaciones neurotecnológicas que provocan ese efecto alterador de la autoconciencia y parecen esperanzadoras cuando no directamente beneficiosas.
Un repaso a algunos ejemplos de estas técnicas puede ayudar, además, a comprender la distinción entre técnicas puramente terapéuticas (curativas, paliativas) y técnicas de mejora (que potencian cualidades por encima del promedio o crean otras inexistentes).
Puede citarse como ejemplo de neurotecnología terapéutica la estimulación cerebral profunda. Es una técnica utilizada con éxito para reducir convulsiones y temblores en enfermos de Párkinson que en algunos casos provoca profundos cambios en la personalidad del paciente, con manifestaciones de hipersexualidad, ludopatía y otros problemas de control de impulsos o apatía. Técnicas similares se utilizan o comienzan a experimentarse para otras enfermedades o trastornos como el dolor crónico o la epilepsia. En tales supuestos la alteración de la “conciencia de sí mismo” aparece como un efecto secundario de la neurotecnología pero hay otros casos (anorexia, bulimia, depresión, trastorno obsesivo compulsivo) en los que la estimulación cerebral profunda persigue de forma directa y como efecto primordial un cambio en la “auto-percepción” del sujeto. Una aplicación literal de la propuesta prohibitiva contenida en la Iniciativa de los neuroderechos cerraría el paso, injustificadamente, a todas estas técnicas puramente terapéuticas.
Tampoco parece justificada una prohibición respecto de las neurotecnologías que alteran la “conciencia de sí mismo” en el caso de las técnicas llamadas de mejora o de potenciación. Con carácter experimental ya existen interfaces cerebro-máquina que atribuyen capacidades novedosas (transformando por ejemplo las ondas electromagnéticas en ondas sonoras, permitiendo así “oír” los colores) o (mediante estimulación eléctrica o magnética) provocan experiencias espirituales. Los usuarios de estas interfaces relatan igualmente cambios profundos en su identidad personal por lo que su uso e investigación podrían quedar vetados.
Autonomía frente a cinismo paternalista.
Ya hemos visto que tanto la Iniciativa de la Universidad de Columbia como la Carta española de derechos digitales adolecen de un importante defecto de forma pues se presentan como un texto normativo cuando en realidad deberían haber adoptado la estructura de un informe, destacando los problemas éticos y jurídicos planteados por las neurotecnologías y proponiendo las soluciones a adoptar por la futura normativa.
En esta línea, en lugar de proponer la prohibición de las neurotecnologías alteradoras de la autoconciencia y de someter a autorización legal las neurotecnologías de mejora, lo más adecuado habría sido la enumeración de los principios inspiradores de la futura legislación, pudiendo servir de pauta los acogidos por la Unión Europea en sus propuestas sobre inteligencia artificial: beneficencia, no maleficencia, justicia, no discriminación, transparencia, precaución y, de forma destacada, el principio de autonomía.
Y es que la Iniciativa de la Universidad de Columbia y la Carta española de derechos digitales rayan el cinismo paternalista cuando, después de declararse tributarias del “libre albedrío” y de la “autodeterminación individual”, optan por medidas restrictivas o prohibitivas en lugar de proclamar sin ambages la primacía del principio de autonomía, una manifestación de la libertad humana concebida como la capacidad de tomar decisiones independientes. Las referencias a la dignidad humana que hacen ambas propuestas como justificante de medidas prohibitivas y restrictivas, sin un respaldo científico que identifique los eventuales riesgos (tal y como exige el principio de precaución), recuerdan a la proclamación que encabeza los Convenios internacionales que sustentan la prohibición de las drogas.
En efecto, tales normas internacionales justifican el régimen draconiano imperante en materia de estupefacientes en la preocupación de los Estados firmantes “por la salud física y moral de la humanidad”. La comparación de la regulación de ambos sectores es procedente pues drogas y neurotecnologías no farmacológicas tienen en común no solo su diversidad de usos (terapéuticos, de mejora y lúdicos) sino, sobre todo, su potencialidad de alteración de la conciencia, lo que pone de relieve que las restricciones a su libre uso son, ante todo, restricciones a la libertad de pensamiento (libertad que lleva implícita, recuérdese, la libertad de cambiar de creencias, de estados mentales en definitiva).
No es difícil por lo tanto imaginar adónde nos conduciría una prohibición legal del uso, investigación o comercio de las neurotecnologías alteradoras de la “conciencia de sí mismo”o “potenciadoras de cualidades cognitivas”: un mercado negro de interfaces cerebro-máquina, softwares cerebrales adulterados con virus, cacheos indiscriminados en busca de implantes prohibidos, cárcel, multa o pena de muerte para los infractores y guardianes de la moral ajena reclamando la presencia de perros policía en los patios de institutos y colegios a la búsqueda de chips prohibidos en las mochilas de nuestros hijos. Estamos a tiempo de impedirlo.
Javier González Granado.
Fuentes consultadas:
https://nri.ntc.columbia.edu/content/spanish-webpage
Carta derechos digitales (mptfp.gob.es)
https://revistascientificas.us.es/index.php/ies/article/view/13359/12775
https://www.ciperchile.cl/2020/12/11/neuroderechos-razones-para-no-legislar/
https://www.nature.com/articles/d41586-019-02214-2






Buena publicación. ¡Estaba revisando continuamente este blog y estoy impresionado! Información extremadamente útil específicamente la parte final, mantengo mucho esa información. Estuve buscando esta información en particular durante mucho tiempo. Gracias y buena suerte.