Reportaje

imagen: National Geographic
Desarrollo de las neurotecnologías.

Neuroderechos: ¿una legislación necesaria o un capricho parlamentario?

La iniciativa, que se está legislando, busca evitar futuras manipulaciones de las personas y asegurar que la tecnología esté al servicio de la humanidad. Sin embargo, algunos académicos critican que se esté regulando algo que, aseguran, no existe.

25 de noviembre de 2021

Por Tomás Shejade

El pasado 30 de septiembre, el Congreso Nacional despachó la reforma constitucional que busca proteger la integridad e indemnidad mental de las personas respecto al avance de las neurotecnologías. En particular, el proyecto introduce el siguiente párrafo en el artículo 19 N°1 de la Carta Magna:

“El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así como la información proveniente de ella”.

De igual forma, se encuentra en primer trámite constitucional en el Senado un proyecto de ley que busca regular el contenido de la reforma constitucional.

Cómo surge esta iniciativa, qué razones y fundamentos la motivan, qué críticas se han planteado desde la academia, son algunas de las interrogantes que se formulan.

Contexto

Desde el año 2013, entidades públicas de Estados Unidos, la Unión Europea y China han invertido miles de millones de dólares en el estudio del cerebro. Asimismo, compañías tecnológicas como Facebook y Microsoft han invertido valores similares o incluso mayores con el fin de desarrollar neurotecnologías.

La compañía Neuralink, por ejemplo, propiedad de Elon Musk, realizó una conferencia en agosto de 2020 donde señalaba que el uso de una interfaz de cerebro computadora inalámbrica en un cerdo permitió registrar la actividad neuronal del animal mientras corría por su establo.

Así, Musk ha planteado que el objetivo de estas tecnologías es registrar las memorias personales en medios externos al cuerpo y aumentar intelectualmente a los seres humanos en base a la implantación de inteligencia artificial en el cerebro.

En este sentido, se ha planteado que las neurotecnologías han sido y pueden seguir siendo un avance fundamental para la sociedad, debido a su capacidad para desarrollar tratamientos médicos, al mismo tiempo que pueden conllevar grandes riesgos para la integridad y la autonomía de las personas, dada la posibilidad de llegar a manipular nuestra voluntad y decisiones o propender al aumento de la inequidad que podría generar el acceso privilegiado a estas tecnologías.

A nivel internacional, existen diferentes instrumentos que guardan relación directa o indirecta con esta materia. La Declaración Universal de Derechos Humanos proclama el derecho de todos a participar y beneficiarse del progreso científico y estar protegidos del mal uso de la ciencia. 

Luego, instrumentos como el Código de Nuremberg, la Declaración de Helsinki de la Asociación Médica Mundial y las Pautas Éticas Internacionales para la Investigación Biomédica en Seres Humanos del Consejo de Organizaciones Internacionales de Ciencias Médicas desarrollan ideas centrales sobre la finalidad de la ciencia médica, el resguardo de las pruebas científicas sobre seres humanos, la protección del consentimiento, entre otras.

En cuanto al enfoque de protección ante los avances científico técnicos, la recomendación relativa a la Situación de los Investigadores Científicos de la UNESCO afirma que todos los avances en el conocimiento científico y tecnológico deberían estar destinados únicamente a asegurar el bienestar de los ciudadanos del mundo y exhorta a los Estados miembros a que desarrollen los protocolos necesarios y las políticas para vigilar y garantizar esos objetivos. 

Asimismo, la Declaración Internacional sobre los Datos Genéticos Humanos de la UNESCO, tiene por objeto velar por el respeto de la dignidad humana y la protección de los derechos humanos y las libertades fundamentales en la recolección, el tratamiento, la utilización y la conservación de los datos genéticos humanos.

Sin embargo, no fue hasta el año 2017 cuando la temática tomó especial relevancia. Un grupo de 24 personas ligadas a la neurociencia, inteligencia artificial, bioética, y representantes de los proyectos BRAIN de diferentes países, publicaron en la revista Nature el texto “Cuatro prioridades éticas para las neurotecnologías y la Inteligencia Artificial” (Four ethical priorities for neurotechnologies and AI), recomendando incorporar cláusulas que protejan los denominados neuroderechos en instrumentos internacionales.

La publicación pone énfasis en generar un marco regulatorio que consagre cinco nuevos Derechos Humanos: Derecho a la privacidad mental (datos cerebrales), Derecho a la identidad y autonomía personal, Derecho al libre albedrío y la autodeterminación, Derecho al acceso equitativo a la aumentación cognitiva y Derecho a la protección de sesgos de algoritmos o procesos automatizados de toma de decisiones.

En Chile, la iniciativa nace a partir de las presentaciones que realizó el neurobiólogo Rafael Yuste en los Congreso Futuro, quien junto a Sara Goering han liderado, a través del Morningside Group, las propuestas más consensuadas para avanzar sobre cómo se deben enfrentar los riesgos aparejados al estudio del cerebro humano.

¿Qué son y qué implican las neurotecnologías?

El Senador Guido Guirardi, junto al académico Rafael Yuste, han sido los principales impulsores de la iniciativa en nuestro país. Durante la tramitación legislativa de la reforma constitucional y legal, el Senador señaló que uno de los objetivos es promover la iniciativa a nivel latinoamericano, impulsando el proyecto a través de un órgano regional internacional.

“La reforma constitucional propone establecer el derecho fundamental de la indemnidad del cerebro humano y la autonomía de la mente, mientras que el proyecto de ley desarrollaría dicho derecho, otorgando un estatus a los datos neuronales equivalente al de los órganos, con tal de exigir un consentimiento libre e informado para el uso de ellos, de la misma manera en que se solicita para el trasplante de aquellos”, señaló en la discusión de la Comisión de Desafíos del Futuro del Senado.

En detalle, el proyecto plantea dentro de sus objetivos proteger la integridad física y psíquica de las personas, a través de la protección de la privacidad de los datos neuronales, del derecho a la autonomía o libertad de decisión individual, y del acceso sin discriminaciones arbitrarias a aquellas neurotecnologías que conlleven aumento de las capacidades psíquicas.

Fomentar la concordancia entre el desarrollo de neurotecnologías e investigación médico-clínica con los principios éticos de la investigación científica y médica y así sean favorables al bien y beneficio común; y garantizar la información a los usuarios de neurotecnologías sobre sus potenciales consecuencias negativas y efectos secundarios, y el derecho al control voluntario sobre el funcionamiento de cualquier dispositivo conectado a su cerebro.

A su vez, establece definiciones para los conceptos de neurotecnologías, neuroderechos, datos neuronales y dispone medidas para proteger la integridad y privacidad mental de intromisiones en las conexiones neuronales y los intentos de manipulación de la actividad neuronal.

Por su parte, el académico Rafael Yuste, quien participó de las sesiones, hizo hincapié en el trabajo que se ha venido desarrollando con diferentes universidades, empresas y Estados en torno a las neurotecnologías, la inteligencia artificial (IA) y la bioética, dentro de la organización The Morningside Group.

“Los neuroderechos estarían constituidos por el derecho a la privacidad mental, a la integridad psíquica, a la capacidad de decisión, a la igualdad frente a las tecnologías de aumentación y a la protección contra sesgos. La enmienda constitucional incorpora los neuroderechos en la protección de la integridad física y psíquica del individuo; en tanto, el proyecto de ley define jurídicamente las interfaces cerebro-computadoras, aplicando el modelo médico para otorgar el consentimiento en el uso de tecnologías que alteren los datos neuronales, como si fuesen un órgano del cuerpo humano, con observancia de lo prescrito en el Código Sanitario chileno”, puntualizó.

Luego, precisó que las neurotecnologías, definidas como cualquier tecnología para registrar actividad del cerebro humano, se realizan por medio de interfaces cerebro-computadora, que permiten conectar el cerebro a la red. 

Yuste aseguró que Neuralink está desarrollando tecnologías para subir y bajar información del cerebro, lo que podría significar un atentado contra la privacidad mental o implicar la sustitución de los teléfonos móviles por teléfonos cerebrales conectados por interfaz.

Durante la discusión, el Senador Guirardi puso como ejemplo el juego Pokemon GO, como “una muestra de la estrategia desarrollada por las plataformas digitales para incrementar la especificidad de su conocimiento y el mapeo de lugares que no podían rastrear por satélites, con millones de personas fotografiando recintos privados que interesaban a las compañías en busca de las famosas figuras, incluso con la participación de otras empresas, como Mcdonalds, que financiaron el juego con tal de contar con figuras atrapables en sus locales de expendio de comida rápida”.

Añadió que es posible que los algoritmos comiencen a programar a las personas, dado que la neuroprogramación es tan potente hoy en día que incluso experiencias espontáneas como el amor se han optimizado a través de operaciones algorítmicas, como la aplicación Tinder.

“El ser humano está trasladando la capacidad de tomar decisiones a las máquinas, ignorando en función de qué variables se adoptan, pues finalmente las tecnologías responden a una ideología que las antecede”, afirmó.

Por su parte, el Rector de la Universidad de Chile, Ennio Vivaldi, quien también participó de las sesiones de la Comisión puntualizó que “ya es posible mediante tecnologías aumentar la capacidad cognitiva o motora de las personas, por lo que se debe ser en extremo cuidadoso para lograr que el progreso científico sea para todas y todos, y no exacerbe diferencias o asimetrías sociales por el hecho de usar este tipo de tecnologías. Llevado al extremo, existe el riesgo de que se amenace el principio de igualdad entre los seres humanos y el acceso a las tecnologías termine estableciendo castas”.

Algunos ejemplos de Neurotecnologías

Para fundamentar la propuesta, la moción que regula legalmente el desarrollo de las neurotecnologías y protege los neuroderechos pone varios ejemplos internacionales.

En 2011, detalla, por medio de IA se logró realizar un mapeo de la información que los ojos humanos enviaban al cerebro, para así poder descifrar imágenes en las que el humano está pensando, lo que supuso el comienzo de una era en que la barrera de la integración cerebro-máquina es cada vez menos difusa.

Por otro lado, señala que a través de implantes sensoriales para monitorear las partes del cerebro involucradas en el habla, se consiguió identificar hasta con un 97% de precisión, las palabras que pronunciaron los voluntarios de la investigación. Un interesante y riesgoso avance hacia la lectura cerebral, que puede usarse para el bien de la sociedad, por ejemplo, en pacientes con disfunciones motoras, o para la obtención de datos de manera involuntaria de los pacientes.

A su vez, connota que un experimento científico desarrolló un algoritmo capaz de reconocer señales producidas por el cerebro de personas obesas, ante la pérdida de control cuando se les quita un alimento. Este estudio tenía por finalidad generar conocimiento para suprimir ese deseo, y esperando a futuro utilizarlo para controlar adicciones al alcohol, cocaína, etc. Sin embargo, puede que se use en el sentido opuesto, para generar adicciones, con consecuencias nefastas. 

Plantea también la posibilidad de un hardware que sea capaz de leer todo el cerebro humano, lo que sería una máquina con la capacidad de realizar búsquedas según nuestros pensamientos, mostrándonos imágenes según la lectura cerebral, y en base a esos pensamientos ofrecer la publicidad que mejor se ajuste a nuestros deseos, violando por completo la privacidad de nuestra mente, tal como funciona un buscador de internet.

En España, constata, la empresa Bitbrain, en cooperación con el sector público, privado y académico, se encuentra desarrollando sistemas de hardware que faciliten la recolección de datos del cuerpo humano, con el fin de impulsar la investigación del comportamiento humano, mejorar la salud de los individuos, y desarrollar softwares para interfaces cerebro-computadora.

Observa el caso de la empresa Visión Integral, la cual, junto con ofrecer un diagnóstico preciso sobre patologías, ofrece intervenciones que permiten mejoras fisiológicas en sus clientes, como superar la ansiedad, eliminar malos hábitos como morderse las uñas, mejorar la concentración, acelerar las capacidades de aprendizaje y procesamiento cognitivo. 

Estas empresas de big data, prosigue la moción, utilizan el aprendizaje automático de su software, recopilan información del usuario en sus servidores para analizar cómo se utiliza un bien o servicio específico y así poder entrenar algoritmos en datos agregados, por lo que hoy en día millones de personas se someten inconscientemente a la entrega de contenido a los algoritmos que decodifican la mente humana, en un intercambio de datos en dos direcciones, la persona recibe el contenido de su preferencia y la máquina las preferencias del usuario, lo que pondrá en riesgo la noción de persona y las bases mismas del libre albedrío.

Críticas constructivas

El Director del Departamento de Neurociencia de la Universidad de Chile e investigador del Instituto Milenio de Neurociencia Biomédica, Pedro Maldonado, felicitó la iniciativa, considerando que recoge una noción central de humanismo, en torno a que nuestro cerebro es el asiento de gran parte de lo que consignamos como nuestra propia humanidad. 

Sin embargo, en la discusión realizó varias observaciones al proyecto de ley. Respecto a la definición de datos neuronales que proponen, como aquellas informaciones obtenidas directamente o indirectamente a través de los patrones de actividad de las neuronas, recomendó incluir un concepto más general, ya que hoy existen técnicas en desarrollo que puede observar otros aspectos de la actividad cerebral, como los flujos sanguíneos, por lo que se podría pasar por encima del espíritu de la ley.

Sobre la prohibición de cualquier intromisión o forma de intervención de conexiones neuronales que establece el proyecto, puntualizó que no debiera restringirse solo a conexiones, sino que, a la comunicación neuronal, dado que es posible alguna clase de intromisión sin necesariamente intervenir las conexiones.

A su vez, manifestó que la propuesta de que todo formulario y consentimiento particular, para la intervención invasiva o no de neurotecnología interfaz, cerebro, computadora u otro dispositivo debe indicar los posibles efectos físicos, cognitivos y emocionales de su aplicación, puede ser una carga muy alta para los científicos que trabajan el tema, ya que es complejo definir detalladamente todos los eventuales efectos, lo que podría frenar el desarrollo de neurotecnologías.

Clara Szczaranski, Decana de la Facultad de Humanidades de la Universidad Mayor y miembro del Comité Editorial del Diario Constitucional, escribió recientemente una columna sobre la legislación en torno a los neuroderechos, valorando la iniciativa, pero criticando ciertos aspectos planteados.

En su opinión, “la libre autodeterminación de las personas no es un neuroderecho más, sino el más relevante y trascendente, madre de todos los demás”. También, indicó que no se trata de una amenaza futura, “sino de una realidad globalmente en curso, hace años ya, como modelo exitoso de negocios y servicios de manejo de audiencias”.

Precisó, además, que si la defensa y protección del libre albedrío y la garantía al derecho humano de la autodeterminación del pensamiento y la voluntad personal no son abordados por la Convención Constitucional, no servirá de nada.

“El fenómeno en curso es tan sutil, que los medios celebran esta medida legislativa como una anticipación de un futuro pendiente, en circunstancias de estar hace rato activo, como lo demuestran el caso Cambridge Analytica y el más reciente asalto del 6 de enero pasado al Capitolio de los EEUU”, comenta. Donde, a través de una filtración desde Facebook, se dio cuenta de que se pasaron por alto el uso de teorías de la conspiración y de mensajes extremistas en la plataforma, que estaban enviando reales alertas sobre el asalto al Capitolio en preparación.

Szczaranski estima que está crecientemente amenazado nuestro pensamiento humano y, citando a académicos del Centro Sociedad Tecnológica y Futuro Humano (STFH) de la Universidad Mayor y las Universidades de Oxford, Cambridge y Jerusalén, excede con mucho lo biológico y la democratización en el acceso a las tecnologías. 

“El riesgo que está enfrentando la Humanidad en el planeta es actual, creciente, viral, y viene desde lo social, con intervenciones en las redes sobre  las distintas culturas y audiencias grupales e impactando la libre determinación de sus individuos humanos. Frente a este riesgo no basta la bioética ni sirven los formularios sobre consentimiento informado”, plantea.

“Todos estamos al alcance de la agresión con la celularización de la conexión a la web y la instalación creciente –pues es exitosa—de modelos de negocios fundados en algoritmos y perfiles de usuario y gestión de audiencias, en el manejo de asuntos comerciales, culturales y políticos”.

Luego, para ejemplificar el poder que tienen los grandes operadores globales, como Amazon, Google, Apple, entre otros, cita a los ex operadores de Facebook, Christopher Wylie y Alex Tyler. “Navegando on line empiezas a ver un blog por aquí, un sitio de noticias por allá, que parecen creíbles aunque nunca oíste hablar de eso y ves en muchas partes una cantidad de noticias que no reflejan los medios. (…) Puedes usar (perfiles) para saber cómo segmentar la población para darles mensajes sobre temas que les importan, y usar un lenguaje e imágenes con los que es probable que se involucren y logras establecer desconfianza en las instituciones, empiezas a deformar la percepción, consigues que la gente cambie sus decisiones”.

De este modo, la Decano concluye que se deben disponer mecanismos legales de distinto nivel para implementar en modo flexible a los cambios, casi permanentes en la materia, que se adecuen oportunamente a los retos del contexto, considerando que ningún ser humano puede ser objeto de tráfico de su pensamiento ni forzada ni desviada su voluntad.

¿Un capricho parlamentario? Críticas al proyecto

Danielle Zaror, abogada e investigadora del Centro de Derecho Informático de la Universidad de Chile, y Rómulo Fuentes, Bioquímico y académico de Neurociencia de la Facultad de Medicina de la Universidad Católica, coinciden en que el proyecto está legislando situaciones que todavía no han sucedido en la vida real, por lo que su legislación sería contraproducente.

“Aquí en Chile se le subió el volumen a la parte hipotética y especulativa del paper. En base a eso, yo diría que se hace un proyecto de ley, con una base bien irreal, así como que mañana con las neurotecnologías nos van a implantar un chip, vamos a perder la voluntad, no vamos a poder hacer nada y se van a meter en nuestro cuerpo y no podremos recuperar la libertad”, plantea Zaror.

Fuentes señala que la legislación que se pretende crear respecto a las neurotecnologías se basa en lo que son más que nada experimentos, que “tienen un alcance muy limitado, tenemos una comprensión muy limitada del cerebro, entonces yo no veo que haya problemas reales en este momento, nada de lo que se menciona existe ahora fuera de los laboratorios. Lo que aparece ahí como amenaza, no existe. Ese es mi principal conflicto”.

“Al fin y al cabo quieren generar una protección del sistema neuronal, pero están desconociendo que las decisiones que tomamos y los pensamientos que tenemos están fuertemente influenciados por otras variables, lo que comemos, la crianza que recibimos, el contexto cultural en el que estamos, la forma en que nuestro cerebro se desarrolla, más que por una cuestión autónoma del cerebro”, complementa Danielle.

Rómulo Fuentes agrega que ni siquiera es seguro que el país deba prepararse para el avance de las neurotecnologías y las situaciones hipotéticas que se están planteando en el proyecto de ley, ya que no hay certezas tampoco de que esto vaya a ocurrir en algún momento.

“Es como si empezáramos a legislar sobre la colonización del planeta Marte, a celebrar los tratados limítrofes. Por otro lado, muchos de los elementos que se abordan ya están cautelados en el área de la salud, por ejemplo la protección de los datos del paciente, entonces parece poco eficiente una legislación que por un lado cubre elementos que ya están abordados en la legislación actual, y cubre otros que aún no existen”.

Indica, a su vez, que nuestro entendimiento de la función cerebral es tan precario que, por ejemplo, el Alzheimer y el Parkinson, las 2 enfermedades neurodegenerativas de mayor prevalencia en la población mayor, no tienen cura. “El Alzheimer ni siquiera cuenta con una terapia sintomática sólida, mientras que la terapia sintomática del parkinson más utilizada hoy en día tiene unos 70 años de antigüedad. ¿No podemos curar a nuestros padres y abuelos del Alzheimer y el Parkinson y nos preocupamos de que alguien «lea» nuestros pensamientos?”.

Danielle Zaror, quien además se ha especializado en legislación racional y marco lógico, afirma que lo primero que uno debe preguntarse al crear una ley es si los sucesos que se están regulando suceden en la realidad, por lo que el proyecto podría terminar siendo letra muerta.

“Lo cierto es que, si tu revisas, no hay ninguna situación, nadie ha denunciado invasión a la privacidad mental, nadie ha tenido ningún tipo de interacción con estas tecnologías que ameriten una salvaguarda de estas características. Quizás una de las cosas más relevantes tiene que ver con que las leyes se legitimen una vez que son aplicadas. Y para este caso, no va a aplicarse la ley, no habrá jueces conociendo del caso, no van a haber personas denunciando, sin embargo, ya la tienes reconocida como una garantía”.

En este sentido, ejemplifica con la Ley de Delitos Informáticos que se aprobó en 1993, resaltando que nunca se ha aplicado en tribunales. “Ese año los argumentos eran los mismos: vamos a ser pioneros, esto es inédito en América Latina, y resulta que el 93’ nadie tenía internet ni computador en su casa. Resulta que como evolucionó todo el tema de la delincuencia informática no tuvo nada que ver con lo que esa ley reconoció y esa ley se transformó en una que nunca le sirvió a nadie y hoy está prácticamente sin aplicación”.

Sobre la posibilidad de que esté en riesgo la autonomía personal o la libertad individual de las personas, Fuentes considera que es irreal.

“La tecnología actual no permite conocer el pensamiento de otra persona, o controlarla como si fuera un autómata, o introducir pensamientos que no son suyos, eso no existe. El trabajo con datos cerebrales, de hecho, está aún a nivel artesanal. Los investigadores escriben y comparten sus propios códigos para analizar los datos experimentales, que normalmente están plagados de ruidos y artefactos. No existe un plug & play cerebral para «conectar» a alguien a una máquina».

Las intervenciones de neurotecnologías hoy

Un punto importante que mencionan Danielle Zaror y Rómulo Fuentes son las normas y códigos que regulan actualmente la investigación científica y las intervenciones neuronales.

“Las intervenciones de neurotecnologías hoy día se hacen en condiciones sumamente controladas. Cuando son experimentales se hace un control cruzado en establecimientos académicos, desde donde emana la investigación y tiene un control ético en el establecimiento de salud donde se aplica. Esto es lo que ha permitido que el desarrollo de las neurotecnologías sea seguro”, observa Zaror.

“Lo que existe es terapéutico, y está controlado, no está desordenado, ni desorganizado, no se infringen normas éticas, que son súper estrictas en todos los países, no solo en Chile, tanto en investigación, como en el ámbito clínico”, destaca Fuentes.

Danielle puntualiza que para el caso de América Latina y de nuestro país, resulta redundante la legislación, porque las constituciones en general reconocen el derecho a la privacidad y tienen leyes de protección de datos personales, con estatutos bastante garantistas.

Allí plantea una diferencia con el caso de Estados Unidos, lugar donde ha tomado más influencia esta iniciativa, dado que no se reconoce expresamente el derecho a la privacidad en la Constitución, sino como un derecho jurisprudencial.

“Si tú vives en un lugar donde no tienes asegurado per se el derecho a la privacidad menos vas a tener el derecho a la protección de los datos personales que se ancla en ese derecho, por lo que tiene sentido que si yo no tengo aseguradas esas garantías me ponga a pensar en la necesidad de generar entornos de privacidad, de mi cuerpo, de mis tratamiento de datos”.

Otra problemática, aseguran, surge cuando estas iniciativas se realizan en empresas privadas, como el caso de Neuralink, las que no están sujetas a controles cruzados entre la academia y los establecimientos sanitarios, por lo que la situación es más opaca, no tienen revisiones, ni transparencia o accountability, lo que ha permitido que la ciencia avance consensuadamente.

“Cuando tienes todo este conocimiento dentro de una empresa privada, puedes salir a decir, como Elon Musk, que estás haciendo una cuestión extremadamente revolucionaria cuando en realidad no lo es. El problema es que tus pares no tienen como chequearlo porque no están sujetos a las mismas reglas, por eso es importante el factor institucional, que de hecho lo decía el paper de Nature, pero nadie le prestó atención”, rescata Zaror.

“En gente con parálisis medular, se ha leído partes motrices del cerebro y esa actividad se codifica de manera de saber hacia donde el sujeto quiere mover la mano. Entonces esa decodificación se pone en un brazo robótico y la persona puede usar ese brazo robótico y moverlo. Los diccionarios cerebrales sí existen, pero son extremadamente limitados porque la cantidad de información que tu sacas es mucha, y es una fracción ínfima de la que tu generas todo el tiempo y tiene grandes limitaciones. Eso existe, pero está en un nivel experimental, en un laboratorio, todo está controlado”. complementa Fuentes.

¿Qué elementos se pueden destacar de la iniciativa?

Para Danielle Zaror, dentro de todo, lo que finalmente quedó en la reforma constitucional es lo de menos. “Tuvo mejoras la redacción, porque lo que se consagró ahí es algo que tiene que ver con el acceso equitativo a los progresos de la ciencia y eso está reconocido en la declaración universal de ddhh, que se haya reconocido eso no está mal”, opina.

Rómulo considera que un punto valioso de la legislación es lo que introduce respecto a regular los sesgos de los algoritmos. “Este problema es real. Los algoritmos realizan clasificaciones, y eventualmente pueden realizar clasificaciones que consideraríamos discriminatorias”.

Zaror sostiene que hay que hacer una diferenciación entre ambas cosas. La primera tiene relación con las intervenciones neuronales y las neurotecnologías, y otra diferente son los algoritmos y el uso que se le pueda dar a las redes sociales y las plataformas globales. “En ese caso, no te han metido nada en la cabeza, es un modelo predictivo, que es una suma de información retrospectiva respecto a tus hábitos. En el fondo hay un sistema de IA, que sobre la base de información tuya te va recomendando en el teclado predictivo, o en tu menú de netflix, o lista de reproducción de Spotify, pero eso no tiene que ver con la neurotecnología”.

Fuentes sostiene que las redes sociales efectivamente pueden ser peligrosas y pueden caer en la categoría de la manipulación. “Los algoritmos son muy avanzados y disponen de mucha información, dependiendo de lo que buscas o consumes en la internet, conoce tus gustos musicales, hasta puede predecir tus estados de ánimo. De acuerdo a eso crea una clasificación que usa para darte contenido. Ahí yo siento que estamos al límite de lo ético, pero donde la cosa se pone realmente oscura es cuando se trata de política”, argumenta.

En este caso, agrega, se pueden usar las redes para identificar los perfiles de la población, y comenzar a manipularlos a través de diferentes estrategias que apunten a sus preferencias y que pueden ser susceptibles de modificarse. 

“El escándalo de la empresa de análisis de datos Cambridge Analytica, por ejemplo, donde los datos personales de millones de usuarios de Facebook fueron usados para realizar avisaje político dirigido. Los datos y los algoritmos permiten identificar a los grupos que podían cambiar su preferencia, sesgando el contenido que reciben y en consecuencia interfiriendo con la libre elección”.

El problema, puntualiza, no es el algoritmo como tal, sino el uso que se le dé. Por ejemplo, destaca el caso de los algoritmos de Facebook, donde hubo denuncias porque los directores y ejecutivos sabían que estaban causando daños psiquiátricos en niñas y jóvenes, pero no se tomaron acciones para remediarlo.

¿Cómo sigue la tramitación?

A pesar de las discrepancias que han presentado diferentes académicos y expertos sobre la idoneidad de legislar sobre esta materia, el proyecto se encuentra en primer trámite constitucional en la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación del Senado. La reforma constitucional fue aprobada casi de manera unánime, solo con 3 abstenciones. 

Dentro de poco, la Sala deberá pronunciarse sobre la idea de legislar el proyecto, teniendo en consideración las opiniones de quienes creen que se debe avanzar en la vanguardia de la protección de los denominados neuroderechos, así como también las de quienes han señalado que se están intentando abordar situaciones que no existen tal y como se plantea, perdiendo tiempo para discutir otras urgencias.

 

Agregue su comentario

Agregue su Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *