Por: Alejandro Urueña:
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial.

Por: María S. Taboada:
Lingüista y Mg. en Psicología Social. Prof. de Lingüística General I y Política y Planificación Lingüísticas de la Fac. de Filosofía y Letras de la UNT.  

Uno de los ámbitos que comprende la IA, es el estudio de la estructura del cerebro humano y de las actividades cognitivas. En este plano los desarrollos de las neurotecnologías y la producción de dispositivos cerebrales  (ICC, interfaces cerebro-computadoras)  que posibilitan superar disfunciones o limitaciones  auguran para las personas que las sufren un futuro promisorio. Estos mecanismos pueden analizar  la actividad cerebral desde una perspectiva multidimensional como medir ondas cerebrales, rastrear la actividad eléctrica o el flujo sanguíneo. Los datos resultantes son luego transformados por los científicos en señales que habilitan, por ejemplo, a las personas paralizadas a mover una parte de su cuerpo o a comunicarse a través de la mediación de la tecnología. Constituyen entonces un soporte para “restituir” funcionalmente partes del cerebro que están o han sido dañadas. En otras palabras, reconfiguran discapacidades en capacidades o potencialidades similares a las ausentes. (https://www.technologyreview.es/s/16749/una-ley-de-privacidad-mental-para-regular-los-dispositivos-que-pueden-leer-el-pensamiento)

No se puede dudar entonces de su enorme contribución al sector de la humanidad que sufre cercenamientos anatómicos o funcionales en uno de los órganos esenciales de la  identidad y especificidad de nuestra especie homo sapiens.

Sin embargo, el avance -como todo lo que ocurre con la IA y con cualquier tecnología producida por los humanos- tiene su contrapartida. Y no es un problema de la tecnología sino de los usos que su potencialidad habilita. Los datos neuronales pueden ser empleados también para acceder a las modalidades de pensamiento y sentimiento, a los deseos y a las preferencias de las personas. Y constituyen así un campo propicio para avasallar derechos humanos inalienables tales como la privacidad mental y lo que hoy se denomina “libertad cognitiva”. En otras palabras, pueden constituirse en un arma para amenazar nuestros derechos a un pensar, sentir, discernir, razonar, analizar con impronta propia y privacidad personal.

Los efectos colaterales no atañen exclusivamente  a los dispositivos mencionados que se implantan en el cerebro. Otras creaciones como los EEG (electrodos que se colocan externamente para monitorear la actividad cerebral) o los dispositivos de visión tridimensional, tienen igual acceso a los datos neuronales. Y pueden ser combinados con otras tecnologías como los dispositivos de seguimiento ocular para deducir características de la personalidad, inclinaciones, consumos de medicamentos o drogas, etc.  Por ello, los especialistas en el tema prefieren hablar de “biometría cognitiva” como un conjunto de datos y operaciones analíticas con las que se puede acceder a las dimensiones psíquicas de las personas y hacer uso de esa información con diferentes fines.

El problema, como ocurre con otros tantos logros de la IA, es que ésta avanza mucho más rápido que la legislación existente, lo que trae apareado vastos territorios de vulneración de las personas. Un ejemplo de la complejidad del problema es el Proyecto de Ley que, en California, modifica la Ley de Privacidad del Consumidor de 2018, que resguarda a los consumidores sobre los datos personales que registran y almacenan las empresas. Esta ley, que ya tomaba en cuenta los datos biométricos (voz, rostro, huellas dactilares, actividad cardíaca), introduce la categoría de datos neuronales como datos recogidos del cerebro o del sistema nervioso. La ley obliga a las empresas a anonimizar los datos e impide venderlos y compartirlos, al mismo tiempo que asegura a los consumidores el derecho a conocer qué información se les ha extraído y a eliminarla. Si bien se reconocen las contribuciones del proyecto a la defensa de los derechos a la libertad cognitiva, algunos críticos sugieren que el texto jurídico abarca los datos en bruto pero no se detiene en el análisis, inferencias y conclusiones que pueden obtenerse a partir de los datos y que conforman el riesgo más profundo.

Precisamente y en función de las posibles implicancias y usos del avance de la neurotecnología, se ha conformado  la Fundación Neurorights (Derechos Neuronales) que propicia lo que define como “Nuevos derechos humanos para la era de la neurotecnología” atendiendo a “promover la innovación, proteger los derechos humanos y garantizar el desarrollo ético de la neurotecnología” (https://neurorightsfoundation.org).  La Fundación se ocupa de precisar los alcances al presente de esta área: “se refiere a los dispositivos capaces de registrar o alterar la actividad del sistema nervioso, incluidos el cerebro, la médula espinal y los nervios periféricos”   y advierte que esos dispositivos “que tradicionalmente se utilizan en entornos médicos y de investigación, se comercializan cada vez más entre los consumidores.” En un extenso informe, la Fundación analiza las prácticas de 30 empresas  sobre los datos y los derechos de los usuarios en relación a los productos de neurotecnología a disposición de consumidores y toma como unidad de análisis las políticas de privacidad y los acuerdos  de uso. Advierte  al respecto los siguientes problemas que ponen en juego la dimensión ética:  los consumidores carecen de  información adecuada acerca de las prácticas de recolección de datos, su privacidad y sus derechos porque tanto las prácticas como los datos están sustentados en políticas ambiguas. Al mismo tiempo, casi todas las empresas pueden compartir datos con terceros y no está claro si pueden o no venderlos. Tampoco están generalizados los derechos de los usuarios a retirar su consentimiento para el procesamiento de esos datos y las empresas no evidencian disposiciones de seguridad adecuadas para resguardar los datos neuronales (Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies).

Uno de los desafíos urgentes,entonces,  cuando se ponen en juego la libertad cognitiva y el libre albedrío, es cómo actuar ante algo que ya sabemos al hartazgo: los desarrollos tecnológicos generan hechos consumados en relación a los derechos de las personas que la legislación enfrenta a destiempo. El hecho consumado inaugura la conciencia de necesidad de resguardo de derechos, cuando debiera ser a la inversa. Pero, ¿cómo prever  lo que en la era de la IA resulta impredecible?  

Es entonces necesario advertir las proyecciones que los avances tecnológicos en campos específicos pueden tener hacia el campo del consumo masivo y resguardar los derechos de los sujetos en la vida cotidiana antes de que el traspaso se realice arbitraria y comercialmente de uno a otro campo.

En todo caso, que la manipulación de la tecnología no avance a la caza de nuestros cerebros.