Derechos Humanos, Inteligencia Artificial y sus límites desde el DIPr. y el orden público. Una mirada sobre la neurotecnología y las neurociencias

0
Autor Uzal, María Elsa
Cita LA LEY 17/02/2025, 1 Cita: TR LALEY AR/DOC/268/2025
Sumario

I. El efecto disruptivo de las nuevas tecnologías. De la segunda revolución industrial al metaverso en pocas líneas. — II. La irrupción de la inteligencia artificial (IA). — III. Manifestaciones de la inteligencia artificial. — IV. ¿Qué entendemos por neurotecnología y neurociencia? — V. La esencia del ser humano en el centro del debate: los “nuevos derechos humanos”. “Los neuroderechos o derechos cerebrales”. — VI. La protección de los neuroderechos, como “nuevos derechos humanos”. — VII. Declaración de Principios Interamericanos en materia de Neurociencias, Neurotecnologías y Derechos Humanos (CJI/RES. 281 (CII-O/23). — VIII. Los neuroderechos como nuevo umbral de los derechos humanos. Las nuevas tecnologías disruptivas de la inteligencia artificial asociadas a las neurociencias y la neurotecnología: un desafío para el DIPr. — IX. A modo de conclusión.

  1. El efecto disruptivo de las nuevas tecnologías. De la segunda revolución industrial al metaverso en pocas líneas (1)
  2. Las tecnologías emergentes y disruptivas de las últimas décadas marcaron el paso del mundo analógico al mundo digital, el reemplazo del trabajo humano por el de las máquinas y la transferencia del razonamiento y decisiones humanas al razonamiento y decisiones de la inteligencia artificial, facilitan el “hacer del hombre”, tornándolo más rápido, seguro y eficiente y crean nuevos bienes, servicios, espacios, mercados y negocios, pero también lo aíslan y lo hacen vulnerable

De la Primera Revolución Industrial con sus avances tecnológicos (1768: Watt, la máquina a vapor, los trenes, la máquina de hilar, las fábricas urbanas, las bombas eléctricas), se pasa a la tecnología analógica de la Segunda Revolución Industrial, que desarrolla fuentes de energía como el gas o la electricidad, nuevos materiales como el acero y el petróleo (el motor a explosión), nuevos sistemas de transporte (avión, automóvil y nuevas máquinas a vapor) y de comunicación (teléfono y radio), la industrialización masiva, la internacionalización del comercio. Promediando el siglo XX, se llega a la Tercera Revolución Industrial científico-tecnológica: donde aparecen la energía nuclear, los satélites, la televisión a color, las energías renovables —hidráulica, solar, eólica—, el almacenamiento de energía, la interconexión de las redes eléctricas inteligentes, los vehículos híbridos y los grandes progresos tecnológicos: es la etapa del paso de lo analógico a lo digital y es cuando aparecen las primeras computadoras, Internet (2) y la World Wide Web (o la Web).

Hay tres etapas en la Web:

La Web 1.0 – el Internet de la información – abarca: la digitalización de textos, sonidos e imágenes (CD, DVD, Mp3); la creación de las computadoras, desde el Harvard Mark I hasta llegar al Sistema operativo Windows; la creación del Internet y luego de la Web (1989), que permite navegar por Internet haciendo dialogar a las computadoras y a los exploradores desde Yahoo, hasta llegar a Google; la aparición de los videojuegos y del comercio electrónico (Amazon, eBay).

La Web 2.0 —las plataformas “centralizadas”— abarca: redes para la interacción, para compartir contenidos (Napster, Wikipedia, Youtube); redes para la interacción social (Linkedin, MySpace, Facebook, Twitter); el e-commerce y las plataformas de información, como wikipedia.

La Web 3.0 -las plataformas “descentralizadas”- incluye: Las Apps (de música —Spotify— y sociales —WhatsApp, Instagram, Tik-Tok—), la computación en la nube (i.Cloud) y las nuevas plataformas de juegos (Fortnite) y el blockchain.

Luego, en las primeras décadas de este siglo, en el Foro Económico Mundial de Davos en 2016, se comienza a hablar de la Cuarta Revolución Industrial 4.0 (Klaus Schwab), como una nueva etapa marcada por avances tecnológicos emergentes en diversas áreas.

Aparecen: la robótica, con los chatbots, los cleverbots y los robots (3) que, incluso, interactúan con los humanos y ya se habla de la personalidad electrónica (4); la nanotecnología; la computación en la nube; biotecnología; la impresión 3D; los vehículos autónomos; las “fábricas inteligentes”, la “Industria 4.0”, calificada como “segunda era de la máquina”, marcada por la automatización y el intercambio de datos; los big data; el internet de las cosas (IoT) (5); el Internet of Robotic Things (IORT) (6) ; las cadenas de bloques (7): las blockchain: públicas, privadas e híbridas o federadas; los smart contracts: programas informáticos que facilitan, aseguran, hacen cumplir y ejecutan acuerdos registrados entre dos o más partes (personas físicas o jurídicas),

 

que responden a algoritmos que operan con la característica principal de no poder ser controlados por ninguna de las partes y de ser autoejecutables, es decir, que su ejecución se encuentra automatizada (8); las plataformas digitales centralizadas, capaces de extraer y controlar una inmensa cantidad de datos, que se basan en el procesamiento masivo de información (big data, data mining), usan la penetración de Internet en los más diversos dispositivos (Internet de las cosas) a partir de la interacción en redes sociales y sirven a nuevos “modelo de negocios” y a los fines de operaciones de intermediación; las plataformas digitales descentralizadas, que son autónomas por el uso de la tecnología blockchain, en virtud de la cual las reglas establecidas en el origen o constitución de la organización del programa, —por ej., durante el período en el cual se programan los smart contracts— son inmutables e impuestas para todos los usuarios que se adhieren (9); las criptomonedas (10); los tokens y la tokenización de activos (11); los tokens no fungibles (NFT); la realidad aumentada (RA), la realidad virtual (RV).

Todo ello se enmarca en los diversos sistemas de inteligencia artificial (IA): la “IA” débil o con sistemas enfocados en objetivos concretos, vg. sistemas de asistencia a la cirugía, máquinas de juegos: el “machine learning” (“ML”) —algoritmos que analizan datos históricos para detectar automáticamente patrones, realizar predicciones de las que “aprenden” y que se van corrigiendo a sí mismos, volviéndose cada vez más precisos (chat GPT)—: la “IA” fuerte y, finalmente, el metaverso (12).

  1. El metaverso merece un párrafo

El concepto nace en 1992, de la novela de ciencia ficción Snow Crash de Neal Stephenson, donde se define al metaverso, no como una evolución de la realidad virtual, sino como algo más allá de ella misma, un mundo ficticio, virtual y colectivo. A fines del 2021, Mark Zuckerberg, anunció el cambio de nombre de su empresa Facebook a Meta Platforms Inc. o ‘Meta’, dando inicio al metaverso, como plataforma de realidad virtual, con interacción social (sociedad red), proporcionando un nuevo nivel de experiencia virtual, inmersiva y tridimensional, en la que se puede entrar para reunirse, jugar, trabajar, con dispositivos de realidad virtual, gafas de realidad aumentada, visores de Oculus, aplicaciones en smartphones y otros dispositivos.

De otro lado, el metaverso se basa, principalmente, no solo en una red de comunicación entre individuos, sino, en una serie de nuevas tecnologías basadas en diferentes metodologías de explotación e implantación de datos, pivotando de forma satelital alrededor del IOT e IORT.

Todo el metaverso se tiene que analizar jurídicamente de forma que nos permita comprender mejor el alcance de la explotación de datos, que se puede generar, de forma externa mediante el Internet of Things (IOT) y el Internet of Robotic Things (IORT). El IOT y el IORT y el uso de sistemas de redes sociales automatizados y semiautomatizados lleva a una Sociedad Red, que es una sociedad, cuya estructura social se basa en datos obtenidos a través de sistemas de redes de información y dentro de ella hay redes sociales automatizadas.

Se trata de herramientas que permiten interconectar multitud de servicios físicos y virtuales con usuarios profesionales y particulares que usan dichos servicios para diversos objetivos vinculados entre sí, en combinación a la interactuación de usuarios en red, entre estos y entre redes en sí.

Surge así la idea de una sociedad con estructura social completa, que se canaliza exclusivamente a través de sistemas tecnológicos basados en redes de información global que recrean todos los aspectos básicos necesarios para cubrir las necesidades vitales de un ser humano con el fin de crear un ambiente donde la interactuación entre usuarios permita el intercambio de experiencias sociales emulando la realidad social natural (13).

Lo que persiguen los promotores y desarrolladores del metaverso es que, gradualmente, suponga un cambio en la forma de vivir, tanto individualmente como en sociedad, generando dos vidas por individuo, una en la realidad natural y otra en el metaverso (14). Se trata de una realidad alternativa a la realidad natural, que pretende ofrecer a un usuario la posibilidad de sustituir bajo demanda o por diferentes circunstancias la realidad natural por otra distinta. Hoy por hoy aparecen en el horizonte pequeños metaversos (juegos, visitas guiadas a museos, etc.), pero hay quienes ya piensan en un metaverso único y global.

Es aceptado que la protección jurídica tiene que existir en el metaverso, como en cualquier ámbito social, pues no parece ser la pretensión que el metaverso suponga un cambio de paradigma. Se ha dicho que el principal problema jurídico del metaverso es lograr que la regulación del derecho, tal como lo conocemos en los diferentes campos legales de la realidad física, tenga una aplicación jurídica extensiva equivalente dentro del metaverso y que, bajo su alcance, cualquier ciudadano se encuentre protegido. La extensión tiene que ser transversal y transreal, es decir, con repercusiones jurídicas directas entre ambas realidades, una de ellas, controlada por el Estado y otra hoy, a priori controlada por ámbitos privados, pero con repercusiones profundas entre ellas (15).

Finalmente, algunos hablan ya de una Quinta Revolución Industrial que trae consigo una fusión entre el humano y la máquina para desarrollar un nuevo tipo de persona con mayores capacidades y habilidades: los

 

“transhumanos” que a través de IA adquirirían incluso, sentimientos y hasta cierta conciencia propia.

Estos planteos constituyen indudables y cada vez más inmediatos desafíos para el derecho.

  1. La irrupción de la inteligencia artificial (IA)
  2. El detonante de todos estos efectos disruptivos ha sido sin duda la aparición de la inteligencia artificial, en adelante, IA (16).

En 2019 la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST) de la UNESCO definió la inteligencia artificial como un campo que implica máquinas capaces de imitar determinadas funcionalidades de la inteligencia humana, incluidas características como la percepción, el aprendizaje, el razonamiento, la resolución de problemas, la interacción lingüística e incluso la producción de trabajos creativos.

Una idea fundamental que atraviesa la pretensión de saber de qué hablamos cuando nos referimos a la IA es entender que se trata, en esencia, de un manejo adecuado de la información y se ha dicho, que ello obliga a detenerse en otros dos conceptos básicos: datos y conocimiento y a conceptualizar que se disciernen tres niveles diferentes de evolución y que las capacidades de las diferentes herramientas de la IA dependen del manejo adecuado de esos conceptos, a lo que se une el concepto de algoritmo, que se encuentra en la base de todo proceso computacional (17).

Cabe detenerse en los hitos de esos tres niveles de evolución:

  1. El dato: término que en general, refiere a un “valor crudo”, informal, asignado a una entidad, en relación a una propiedad, que puede ser cualitativa o cuantitativa; así, del conjunto de datos (dataset), surgen propiedades, según las relaciones entre ellos, las que se someten a restricciones de integridad (ciertas dependencias funcionales para definir atributos), para lograr una consistencia, que permita hablar de conjuntos “sanos”, otra propiedad importante es la completitud del dataset, que busca la existencia de todos los datos posibles; con conjuntos de datos se construyen los modelos de dominio del entorno de aplicación de una herramienta de IA (18).
  2. La información: cuando los datos se transforman mediante la aplicación de un proceso de análisis o se los interpreta en un contexto específico, se transforman, dejan de ser “crudos” para convertirse en información, que permite analizarlos y atribuirles un significado, que depende de la consistencia y la completitud del dataset
  3. El conocimiento: cuando se tiene experiencia en el manejo de datos e información, se dice que se alcanza cierto nivel de comprensión de uno o más conceptos relacionados al modelo de dominio y, en esos casos, estamos en presencia de conocimiento.

En todos los niveles, pero especialmente en el último, surge la demanda de recursos: de tiempo de cómputo y de espacio de almacenamiento para realizar el procesamiento necesario para llegar a los resultados buscados, así surge el concepto de algoritmo.

  1. El algoritmo, es un mecanismo de procesamiento, conjunto de reglas computacionales que definen una secuencia de operaciones, que no solo cumplen el rol de transformar los datos/información /conocimiento disponibles, en resultados nuevos, sino que también “solucionan problemas”, a través del manejo de datos bajo algún tipo de suposición, he aquí el papel de las bases de datos y de la construcción de bases de datos con alguna concepción de orden, de preferencia, de prioridad, con niveles de criticidad en la seguridad, o sujetas a incertidumbre, etc. (19).

La construcción de bases de datos es central en la implementación eficiente de herramientas inteligentes: un buen ejemplo de todo lo sintetizado precedentemente son los Modelos de lenguaje Extenso (LLM -Large language model) (20).

La IA busca reproducir en máquinas, el cerebro humano y si bien aún no lo ha logrado dada su extraordinaria complejidad, los sistemas de algoritmos comienzan a realizar buen número de actividades en las que igualan y superan la capacidad de procesamiento de información de una persona humana. Existen redes neuronales artificiales que copiando ciertos rasgos de los procesos neuronales del cerebro humano tienen una gran capacidad de respuesta a problemas y desarrollan experiencias de aprendizaje profundo (Deep learning), por ej.: Deep blue de IBM, Alpha Go y Alpha Go Zero de Apple. GPT-4 y GPT-O.1 de OI. Sin embargo, se ha dicho que una computadora digital, aunque pueda resolver un problema no tiene conciencia, actúa como si entendiera “simplemente porque sigue un algoritmo que le permite interpretar símbolos formales” (John Searle), pero se trata de un camino artificial, que no implica que el sistema pueda “comprender” en un sentido humano y biológico todo lo que está en juego (21).

 

El punto de conexión entre la inteligencia humana y la artificial está dado, porque, en ambas, se da un fenómeno asociado al reconocimiento de patrones de información y con la programación adecuada, un sistema puede adquirir capacidad para actuar por sí mismo ante situaciones nuevas y ser capaz de continuar incorporando nuevas experiencias e incluso, a través de la nanotecnología y nuevos desarrollos de algoritmos, acciones, decisiones y emociones, que registran del contexto y del entorno, convirtiéndose en un sistema inteligente verdaderamente autónomo (agente inteligente). Sin embargo, los organismos biológicos poseen ciertos atributos únicos que, en la actualidad, no pueden aún ser exactamente replicados en las máquinas (inteligencia general, adolecen de sentido común), aunque las máquinas poseen otros atributos que los humanos no podrían alcanzar (capacidad de almacenamiento de datos, velocidad de procesamiento, etc.) (22).

Asimismo Naciones Unidas define a la inteligencia artificial como la capacidad de una computadora o un sistema robótico habilitado por computadora para procesar información y producir resultados de manera similar al proceso de pensamiento de los seres humanos en el aprendizaje, la toma de decisiones y la resolución de problemas. Los sistemas de IA están diseñados para operar con diferentes niveles de autonomía.

  • Manifestaciones de la inteligencia artificial
    • La inteligencia artificial simbólica o del conocimiento

Inteligencia artificial simbólica es el nombre colectivo que se utiliza para todos los métodos de investigación de la inteligencia artificial que se basan en representaciones de lenguaje de alto nivel simbólico (23) —adecuado a la capacidad cognitiva humana—, de los problemas, la lógica matemática y la búsqueda. IA simbólica fue el paradigma dominante de la investigación en IA desde mediados de los cincuenta hasta finales de los años ochenta. Después, se introdujeron a la IA, enfoques sub-simbólicos, más recientes, basados en redes neuronales, estadística, optimización numérica y otras técnicas. La IA simbólica se sigue aplicando en algunos dominios más pequeños (como la representación del conocimiento), pero la mayoría de las aplicaciones de IA en el siglo XXI no emplean símbolos legibles como sus objetos primarios.

John Haugeland dio el nombre GOFAI (por sus siglas en inglés, Good Old-Fashioned Artificial Intelligence) a la IA simbólica y exploró las implicaciones filosóficas de la investigación de la inteligencia artificial. En robótica, el término análogo es GOFAIR (por sus siglas en inglés, “Good Old-Fashioned Robotics”).

Este enfoque se basa en la suposición de que muchos aspectos de la inteligencia se pueden lograr mediate la manipulación de símbolos (24), un supuesto definido como la “hipótesis de sistemas de símbolos físicos” por Allen Newell y Herbert A. Simon a mediados de los años ’60:

La IA del conocimiento es un área de la inteligencia artificial procura la representación del conocimiento y el razonamiento, su objetivo fundamental es representar el conocimiento de una manera que facilite la inferencia (sacar conclusiones) a partir de dicho conocimiento. Analiza cómo pensar formalmente —cómo usar un sistema de símbolos para representar un dominio del discurso junto con funciones que permitan inferir (realizar un razonamiento formal) sobre los objetos—.

La forma más exitosa de la IA simbólica son los sistemas expertos, los cuales utilizan una red de reglas de producción. Las normas de producción conectan símbolos en una relación similar a una instrucción “Si-Entonces” (If-Then). El sistema experto procesa las reglas para hacer deducciones y determinar qué información adicional se necesita, por ejemplo, qué preguntas hacer, usando simbología legible para el ser humano.

  • La IA débil

El concepto de IA débil o restringida abarca el aprendizaje automatizado de máquina o machine learning, las redes neuronales, las técnicas más sofisticadas de deep learning, que requieren grandes cantidades de datos.

II.2.a. La IA basada en datos o machine learning o aprendizaje automático (25).

La IA simbólica estaba destinada a producir inteligencia similar a la humana en una máquina, mientras que la mayor parte de la investigación moderna se dirige a subproblemas específicos: a una IA basada en datos, conocida como IA subsimbólica, aprendizaje automatizado, aprendizaje de máquina o machine learning (ML).

El aprendizaje automático se enfoca en el desarrollo de programas informáticos que pueden acceder a los datos y los utilizan para aprender por sí mismos. Se trata de una aplicación de la inteligencia artificial que proporciona a los sistemas la capacidad de aprender y mejorar automáticamente de la experiencia, sin requerir programación.

El ML, pues, es una rama de la IA que permite que las máquinas aprendan sin ser programadas a partir del procesamiento de datos, con los que pueden identificar patrones para hacer predicciones. La estadística es la base del ML, pues es indispensable para comprender los datos utilizados en el entrenamiento de una máquina,

 

así como en la interpretación (26).

Naciones Unidas define el ML como una rama de la inteligencia artificial (IA) centrada en la creación de aplicaciones que aprenden de los datos y mejoran su precisión con el tiempo sin estar programadas para hacerlo. Los documentos de la OCDE lo definen como un subconjunto de inteligencia artificial en el que las máquinas aprovechan los enfoques estadísticos para aprender de los datos históricos y hacer predicciones en situaciones nuevas (27).

III.2.b. El deep learning o aprendizaje profundo (28)

Más avanzado, el deep learning es un subconjunto del machine learning que utiliza redes neuronales multicapa, llamadas redes neuronales profundas, para simular el complejo poder de toma de decisiones del cerebro humano, refieren a modelos de aprendizaje inspirados en las neuronas biológicas, no obstante, las redes neuronales artificiales no necesariamente aprenden igual que los humanos. Dichas redes organizan la computación a través de grandes colecciones de unidades computacionales simples. Algunas formas de deep learning impulsan la mayoría de las aplicaciones de inteligencia artificial (IA) en nuestra vida actual.

La principal diferencia entre el deep learning y el machine learning es la estructura de la arquitectura de red neuronal subyacente. Los modelos tradicionales de machine learning “no profundos” utilizan redes neuronales simples con una o dos capas computacionales. Los modelos de deep learning utilizan tres o más capas, pero normalmente cientos o miles de capas, para entrenar los modelos. El término aprendizaje “profundo” es una frase que se refiere a redes neuronales particularmente grandes; se refiere al número de capas en la red, aunque no hay un umbral definido en cuanto a cuándo una red neuronal se vuelve “profunda”. Hasta hace poco, la falta de poder de cómputo y datos de entrenamiento significaba que solo se podían explorar redes pequeñas. Varias décadas de investigación sobre mejoras de algoritmos, combinadas con unidades de procesamiento gráfico desarrolladas originalmente para videojuegos, finalmente, permitieron entrenar grandes redes utilizando cantidades masivas de datos. Esto ha llevado a sistemas que funcionan mucho mejor que los enfoques anteriores en tareas como subtítulos de imágenes, reconocimiento facial, reconocimiento de voz y traducción automática de lenguaje natural.

Mientras que los modelos de aprendizaje supervisado requieren datos de entrada estructurados y etiquetados para obtener resultados precisos, los modelos de deep learning pueden utilizar el aprendizaje no supervisado. Con el aprendizaje no supervisado, los modelos de deep learning pueden extraer las características, los rasgos y las relaciones que necesitan para obtener resultados precisos a partir de datos brutos y no estructurados. Además, estos modelos pueden incluso evaluar y refinar sus resultados para aumentar la precisión (29).

Un posible punto débil es que los modelos de deep learning, que suelen ser llamados “cajas negras” (30), que dificultan la comprensión de su funcionamiento interno y plantea problemas de interpretabilidad Se trata de algoritmos de aprendizaje automático o redes neuronales profundas, entre otros, que no revelan cómo procesan la información o toman decisiones. Es decir, modelos cuyo funcionamiento interno es desconocido o no transparente para los observadores externos. Frente a las cajas negras, los observadores externos sólo pueden ingresar datos de entrada y recibir resultados de salida, sin tener una comprensión clara de los pasos intermedios o los factores que influyen en las decisiones tomadas. Aunque las cajas negras pueden ser altamente efectivas para resolver problemas complejos y lograr resultados precisos, plantean desafíos en términos de explicabilidad y ética. Esto, por otro lado, se observa que aparecería equilibrado con los beneficios generales de la alta precisión y escalabilidad.

El deep learning permitió ir más allá del análisis de datos numéricos, añadiendo el análisis de imágenes, voz y otros tipos de datos complejos.

Entre las posibles aplicaciones, se encuentran:

Las redes neuronales convolucionales (CNN o ConvNets) se utilizan principalmente en aplicaciones de visión artificial y clasificación de imágenes. Pueden detectar características y patrones dentro de imágenes y videos, lo que permite tareas como la detección de objetos, el reconocimiento de imágenes, el reconocimiento de patrones y el reconocimiento facial.

Las redes neuronales recurrentes (RNN) se utilizan normalmente en aplicaciones de lenguaje natural y reconocimiento de voz, ya que utilizan datos secuenciales o de series temporales. Las RNN se pueden identificar por sus bucles de comentarios. Estos algoritmos de aprendizaje se utilizan principalmente cuando se utilizan datos de series temporales para hacer predicciones sobre resultados futuros. Los casos de uso incluyen predicciones bursátiles o de ventas, o problemas ordinales o temporales, como traducción del idioma, procesamiento del lenguaje natural (PLN), reconocimiento de voz y leyendas de imágenes. Estas funciones a menudo se incorporan en aplicaciones populares como Siri, búsqueda por voz y Google Translate.

 

Fueron los primeros modelos de deep learning que se utilizaron ampliamente para generar imágenes y voz realistas, los que potenciaron el modelado generativo profundo al facilitar el escalado de los modelos, que es la piedra angular de lo que consideramos la IA generativa.

III.2.c. La IA generativa

La IA generativa (también llamada IA gen) es una categoría de IA que crea de forma autónoma texto, imágenes, vídeo, datos u otro contenido en respuesta a la solicitud o solicitudes de un usuario.

La IA generativa se basa en modelos de deep learning que pueden aprender de patrones en el contenido existente y generar contenido nuevo y similar basado en ese entrenamiento. Tiene aplicaciones en muchos campos, incluidos el servicio al cliente, el marketing, el desarrollo de software y la investigación, y ofrece un enorme potencial para optimizar los flujos de trabajo empresariales a través de la creación y el aumento de contenido rápido y automatizado.

La IA generativa destaca en el manejo de diversas fuentes de datos, como correos electrónicos, imágenes, vídeos, archivos de audio y contenidos de redes sociales. Estos datos no estructurados forman la columna vertebral para la creación de modelos y el entrenamiento continuo de la IA generativa, para que pueda seguir siendo eficaz a lo largo del tiempo. El uso de estos datos no estructurados puede mejorar el servicio al cliente a través de bots, chatbots, y facilitar un enrutamiento de correo electrónico más efectivo. En la práctica, esto podría significar guiar a los usuarios a los recursos adecuados, ya sea conectándolos con el agente adecuado o dirigiéndolos a guías de usuario y preguntas frecuentes, los trasnformers (transformadores preentrenados generativos —GPT—), el ChatGPT, Bard, Claude2, etc. procesan secuencias de elementos como las palabras de una frase con elementos anteriores y detectan sutilmente el modo en que los elementos de una serie se influencian y dependen entre sí (31).

Sin embargo, se ha dicho que GPT carece de “comprensión del mundo”, por lo que realmente “no se puede confiar en lo que dice”, ya que modelos como los de GPT solo analizan la relación entre palabras (sintaxis), sin un análisis del significado de las palabras (semántica). Frente a todo ello, una de las medidas que se proponen es hacer obligatorias las auditorías algorítmicas y las evaluaciones de impacto sobre este tipo de chats, lo que permitiría el conocimiento de los usuarios y la aplicación de las medidas regulatorias correspondientes. También se sostiene la necesidad de un uso responsable de la inteligencia artificial generativa, especialmente de los agentes conversacionales, en particular en la utilización de los prompts, comandos o preguntas con las que se instruye a la IA, para influir en la generación de un texto, con el objetivo de instruir a la herramienta sobre qué es lo que esperamos del contenido que se está requiriendo.

A pesar de sus limitaciones y riesgos tan discutidos, muchas empresas están avanzando, explorando con cautela, cómo sus organizaciones pueden aprovechar la IA generativa para mejorar sus flujos de trabajo internos y mejorar sus productos y servicios. Esta es la nueva frontera: cómo hacer que el lugar de trabajo sea más eficiente sin crear problemas legales o éticos.

Los opositores a la aproximación simbólica incluyen a expertos en robótica como Rodney Brooks, quien tiene como objetivo producir robots autónomos sin representación simbólica (o con solo una mínima representación) y los investigadores de inteligencia computacional, que aplican como técnicas las redes neuronales y procuran la optimización para resolver problemas en el aprendizaje automático (32) y la ingeniería de control (33).

La investigación sobre la inteligencia general está en estudio del subcampo llamado Inteligencia Artificial General.

  • La Inteligencia Artificial fuerte, dura o herculeana. Inteligencia Artificial General

Representa la fase final de la transición de la IA débil, se relaciona con alcanzar la imitación de algunos rasgos propios de la especie humana: la capacidad de sentir, el sentido común, el reconocer el entorno y la llamada autoconsciencia.

La inteligencia artificial “fuerte” o inteligencia artificial “generalizada”, es un área de investigación y desarrollo en constante evolución (OCDE) (34). Se refiere a sistemas de inteligencia artificial que intentando reproducir el comportamiento y la inteligencia humana tendrían la capacidad de aprender, generalizar, inducir y abstraer el conocimiento a través de diferentes funciones cognitivas. Tendrían una fuerte memoria asociativa y serían capaces de juzgar y tomar decisiones. Podrían resolver problemas multifacéticos, aprender a través de la lectura o la experiencia, crear conceptos, percibir el mundo, inventar y ser creativo, reaccionar ante lo inesperado en entornos complejos y anticiparse.

Se trataría de un conocimiento profundo de su propio diseño, con desarrollos específicos de programación para iniciar un círculo de automejora y autoconsciencia, que para algunos llevaría a una “explosión de la

 

inteligencia”, capaz de planificar el futuro, con objetivos, planes y desarrollos de estrategias.

Existe como concepto teórico, su advenimiento es incierto, pero probable y puede cambiar el mundo que conocemos.

  • Inteligencia artificial seminal

Hay aún otra clasificación más sofisticada de la IA, que en una etapa posterior se daría cuando una IA sea capaz de mejorarse a sí misma y llegar a crear otra IA aún más inteligente y así sucesivamente, una suerte se superinteligencia artificial (Eliezer Yudkowsky, Nick Bostrom) (35).

  • Múltiples aplicaciones de la inteligencia artificial

Con la perspectiva descripta hallamos que hoy en día la inteligencia artificial se utiliza en las más diversas manifestaciones de la vida: en todo el entramado de las redes sociales y plataformas digitales; Facebook, Instagram, X, Face App, Linkedin, Google, Tik-Tok, en el tratamiento automatizado de datos personales, en las formas de contratación privada, en el seguro, en la generación de activos digitales, en la contratación de obra pública, en la prestación de servicios públicos y mecanismos de recaudación fiscal, en la ciberdelincuencia (36), en defensa y seguridad, en aplicación y recreación de la energía nuclear, en el transporte, en transportes automatizados, en vehículos y armas autónomos, en la producción de alimentos, cultivos, suelos y animales, en el gaming (el mundo de los juegos), en el mercado del trabajo (las fábricas inteligentes, con el consiguiente desplazamiento de trabajadores y la reconversión del trabajo), en la educación, en los sistemas judiciales, en la medicina y en la salud, en la neurotecnología y la neurociencia.

En estas últimas aplicaciones de la IA propongo detener la mirada, pues las neurotecnologías y las neurociencias, asociadas a técnicas de IA generativa, y mucho más de IA fuerte o seminal como las hemos descripto, pone en juego la posibilidad de graves riesgos a los derechos humanos de los sujetos involucrados y han sido, en particular, tema de fuerte preocupación en diversos foros internacionales, entre ellos, en el ámbito interamericano.

  1. ¿Qué entendemos por neurotecnología y neurociencia?

Se entiende por neurotecnología a cualquier mecanismo que haga posible la observación o modificación de la actividad cerebral. Permite entender el cerebro, visualizar sus procesos e, incluso, controlar, reparar o mejorar sus funciones.

Esto comprende aquellos métodos o dispositivos tecnológicos, eléctricos, ópticos, acústicos, magnéticos, químicos que permiten la conexión directa o indirecta de un ordenador o computadora con el sistema nervioso de una persona y permiten medir la actividad del cerebro o cambiar la actividad del cerebro, es sabido que el cerebro es el órgano, que genera todas las habilidades mentales y cognitivas de los seres humanos, conscientes y subconscientes, esto es, la mente humana.

Estos neurodispositivos pueden ser mecanismos invasivos, como es el caso de la implantación de dispositivos o microchips en el cerebro (o cualquier parte del cuerpo) y, también, métodos no invasivos como es el caso de los electroencefalogramas (EEG); la imagen por resonancia magnética funcional (fMRI), por la que una red neuronal artificial es capaz de inferir a partir de la actividad neuronal humana lo que la mente del sujeto está percibiendo o la magnetoencefalografía (MEG) que permite a través de una red neuronal artificial a través de la decodificación del lenguaje desde el sonido, reconocer las palabras habladas viendo los datos tomados del cerebro. Esta definición de neurotecnologías abarca el uso de mecanismos de estimulación cerebral profunda, eléctrica y magnética, así como el uso de las interfaces cerebro-computadora o interfaces neuronales (Brain machine o Computer interfaces —BMI o BCI—). Estas últimas implican la comunicación directa y la transmisión de información entre un dispositivo tecnológico y el sistema nervioso de una persona. La red neuronal artificial lee el contenido informativo del sistema nervioso central y se entrena a la red neuronal artificial de una manera que le permita entender lo que está sucediendo en el cerebro.

La neurociencia, por otro lado, es una reciente disciplina que permite ampliar el conocimiento que actualmente se tiene sobre el cerebro humano. El uso de neurotecnologías en el ámbito clínico, plantea la conexión del sistema nervioso de una persona con dispositivos electrónicos que permiten restaurar, total o parcialmente, el funcionamiento de una determinada facultad neurológica.

También desde 1950 ronda la idea de implantar microelectrodos o chips en el cerebro, con fines médicos para capturar o enviar señales eléctricas a las neuronas biológicas y facilitar la comunicación entre el sistema nervioso y computadoras normales [ensayos de Neuralink (37)] o insertando electrodos a través del sistema vascular en la corteza motora cerebral (Synchron: técnica stentrode) (38). Algunos de los inversores más ricos del mundo están apostando por la interacción entre la neurociencia y la IA.

 

El desarrollo de neurotecnologías está impulsando significativamente la investigación en el ámbito de la salud, planteando escenarios favorables a personas que padecen enfermedades neurológicas que hasta hace poco se creían incurables, desde personas con discapacidad motora hasta personas con enfermedades neurodegenerativas, como el Parkinson o el Alzheimer (39) o con parálisis completa por ELA, permitiéndoles comunicarse a través de una computadora, usando señales intra-corticales mediante entrenamiento de neurorretroalimentación auditiva. En definitiva, en un futuro no muy lejanos, se podrían revolucionar los tratamientos de muchas enfermedades: lesiones cerebrales y parálisis, epilepsia y esquizofrenia y transformar y mejorar sustancialmente las perspectivas de la vida humana en muchos aspectos hoy insolubles.

Es evidente, luego de esta breve reseña, que los avances tecnológicos indican que vamos hacia la posibilidad, no muy remota, de descifrar los procesos mentales de las personas y manipular directamente los mecanismos cerebrales que subyacen a sus intenciones, emociones y decisiones; a la perspectiva de que los individuos puedan comunicarse con otros simplemente pensando; y a que sistemas computacionales vinculados directamente a los cerebros de las personas ayuden a sus interacciones con el mundo de tal manera que sus capacidades mentales y físicas se vean enormemente mejoradas. Estos avances, como mencionamos, podrían revolucionar el tratamiento de muchas enfermedades y transformar la experiencia humana para mejor.

Es claro, sin embargo, que al comprender las señales eléctricas del sistema nervioso para descubrir qué está sucediendo dentro de la mente, una red neuronal artificial adecuadamente entrenada podría predecir lo que la mente pretende, a partir de un conjunto de datos cerebrales de la misma persona, con los problemas de privacidad que esto supone y si con esto pudiese lograrse que una persona obre como otra lo pretende, se llegaría a conducir a los seres humanos, de modo que pondría en jaque la libertad personal, la libertad cognitiva y el libre albedrío.

En consecuencia, la tecnología también podría alterar profundamente algunas características humanas fundamentales: la vida mental privada, la capacidad de acción individual y la comprensión de los individuos como entidades limitadas por sus cuerpos y podría exacerbar las desigualdades sociales y ofrecer a las corporaciones, piratas informáticos, gobiernos o cualquier persona, nuevas formas de explotar y manipular a otras personas, todo lo cual puede volverse contra el hombre, contra sus derechos personalísimos e incluso, contra el orden social que conocemos, ante la sola idea de un poder concentrado en las pocas manos de los todopoderosos dueños de la IA y estas nuevas tecnologías.

Este cuadro detona alertas ante los graves problemas éticos que toda esta nueva realidad supone y trae consigo, debido a que el cerebro humano coordina todos los procesos vitales de un sujeto, incluyendo su comportamiento, la toma de decisiones e inclusive genera la esencia misma de su personalidad (40). Así, pues, más allá de los avances y beneficios para el bienestar de los seres humanos, la vinculación del cerebro humano con dispositivos electrónicos y mecanismos de inteligencia artificial plantea importantes desafíos para las garantías de los derechos humanos, pues puede llegarse, por estas vías, hasta a desnaturalizar la esencia misma del ser humano.

De ahí que desde fines del siglo XX se haya comenzado a hablar de la necesidad, como nueva categoría jurídica de los derechos humanos, de los “neuroderechos” a raíz de daños a la salud y de que comenzaron graves preocupaciones éticas y críticas ante el avance vertiginoso de los progresos de la IA y el surgimiento y desarrollo estas nuevas prácticas que aparecen en el horizonte como una posible amenaza al futuro de la humanidad y sus derechos fundamentales.

Es que las neurotecnologías deben contribuir a garantizar el derecho a una vida digna y a mejorarla sustancialmente, sin embargo, no puede ignorarse que el uso indebido de neurotecnologías podría, en ciertos casos, llevar a que la persona se comporte de una manera no alineada con su personalidad. Así es, que debe adoptarse como principio y premisa fundamental, la preservación de la identidad individual frente a cualquier intervención neuro-tecnológica, pues cualquier modificación a la actividad cerebral puede acarrear importantes riesgos, asociados a la afectación de la identidad personal, la autonomía y el libre desarrollo de la personalidad. Los cambios en la arquitectura neuronal pueden afectar la capacidad de agencia o la capacidad de autonomía (el libre albedrío).

De ahí los nuevos derechos humanos.

  1. La esencia del ser humano en el centro del debate: los “nuevos derechos humanos”. “Los neuroderechos o derechos cerebrales”

En el campo que nos convoca, especialmente relevante es la obra del Grupo de Morningside que han liderado en la Universidad de Columbia, el Profesor Rafael Yuste, Sara Goering y sus colegas, desde mayo de 2017, integrado por neurobiólogos, neurocientíficos, neurotecnólogos, médicos, especialistas en ética e ingenieros de inteligencia artificial. Incluye representantes de Google y Kernel (una start-up de neurotecnología

 

de Los Ángeles, California); de proyectos internacionales relacionados con el cerebro y de instituciones académicas y de investigación de Estados Unidos, Canadá, Europa, Israel, China, Japón y Australia.

Este grupo, ha señalado con fuerza como eje de sus propuestas, que la actividad mental define lo que es el ser humano, pues la actividad neuronal genera la totalidad de las actividades mentales y cognitivas de los hombres y, por ello, debe ser protegido por las normas de derechos humanos relacionados con la integridad del hombre, frente a todo lo que pueda afectar la esencia de su personalidad e identidad, que son el reducto de su privacidad. Surgen así, importantes desafíos ético-jurídicos para las garantías de los Derechos Humanos ya consagrados.

Es a partir de ahí, que el Grupo de Morningside planteó en el 2017 que la neurotecnología debía ser atendida como un problema de derechos humanos y propusieron la idea nuevos derechos humanos, a los que denominaron como neuroderechos o derechos cerebrales, punta de lanza del nuevo enfoque que hoy nos convoca.

El profesor Yuste (41) y su equipo han planteado, inicialmente, cuatro áreas de preocupaciones, luego ampliadas a cinco, relacionadas, dentro del contexto de la neurotecnología, que también se aplican a la IA y que exigen una acción inmediata. Sostienen que la inteligencia artificial y las interfaces cerebro-computadora deben respetar y preservar la privacidad mental; la identidad personal o psíquica; la autonomía o “agencia” (libre albedrío); la igualdad de las personas para el acceso equitativo a las tecnologías de aumentación sensorial y cognitiva y, por último, el derecho a la protección contra los sesgos de los algoritmos que se utilizan en la neurotecnología.

  • Privacidad y consentimiento

Todos lo sabemos, hoy ya se puede obtener un nivel extraordinario de información personal a partir de los rastros de datos de las personas (42).

Los seres humanos, sin embargo, deben tener protegida su privacidad mental, esto implica que el contenido de la mente no sea descifrado o alterado sin su consentimiento, por ende, deben tener la capacidad —y el derecho— de mantener privados sus datos neuronales.

Se han propuesto las siguientes medidas para lograrlo (43):

  1. Respecto de los datos neuronales, debería establecerse que la opción de no compartir todos los datos neuronales, debería ser la opción predeterminada y estar debidamente protegida.

Es que las, personas renuncian fácilmente a sus derechos de privacidad a favor de proveedores comerciales de servicios, tanto en la navegación por Internet, como en las redes sociales o el entretenimiento, sin entender del todo a qué están renunciando.

Una opción predeterminada de no compartir significaría que los datos neuronales se tratarían de la misma manera que los órganos o los tejidos en la mayoría de los países. Las personas tendrían que optar, explícitamente, por compartir sus datos neuronales desde cualquier dispositivo.

  1. Restringir el procesamiento centralizado de datos neuronales. Ello serviría para que se utilicen técnicas computacionales diseñadas específicamente para proteger los datos de las personas, como la privacidad diferencial o el “aprendizaje federado” (44), para proteger la privacidad de los usuarios. También, las técnicas basadas en la cadena de bloques, por ejemplo, permiten rastrear y auditar los datos y los “contratos inteligentes” pueden dar un control transparente sobre cómo se utilizan los datos, sin necesidad de una autoridad Por último, los formatos de datos abiertos y el código fuente abierto (45). permitirían una mayor transparencia sobre lo que se mantiene privado y lo que se transmite
    • La identidad personal o psíquica. La autonomía o “agencia” (libre albedrío)

Se involucran aquí, dos cuestiones íntimamente relacionadas, de ahí que las abordemos en conjunto: se trata, por un lado, del derecho a preservar la identidad personal, el yo, la identidad psíquica de la persona, para no se pueda ingerir desde afuera, con neurotecnología y, por el otro, de resguardar la autonomía, libertad de “agencia” o libre albedrío, que presupone que el ser humano pueda tomar decisiones sin interferencia externa, por neurotecnología.

Yuste señala (46) que las neurotecnologías podrían claramente perturbar el sentido de identidad y de agencia de las personas y sacudir supuestos fundamentales sobre la naturaleza del yo y la responsabilidad personal (legal o moral); observó que algunas personas que recibieron estimulación cerebral profunda a través de electrodos implantados en el cerebro informaron haber sentido una sensación alterada de autonomía o agencia e identidad. Las personas podrían acabar comportándose de maneras que les resulte difícil asumir como propias si el aprendizaje automático y los dispositivos que interactúan con el cerebro permiten una traducción más rápida

 

entre una intención y una acción, que la que el hombre puede captar. Así si las personas pueden controlar dispositivos a través de sus pensamientos a grandes distancias, o si varios cerebros están conectados para trabajar en colaboración, nuestra comprensión de quiénes somos y dónde actuamos se verá alterada.

Señala también, que a medida que se desarrollan las neurotecnologías, las corporaciones, los gobiernos y otros interesados comienzan a esforzarse por dotar a las personas de nuevas capacidades y frente a ello, la identidad individual (nuestra integridad física y mental) y la agencia (nuestra capacidad de elegir nuestras acciones) deben protegerse como derechos humanos básicos

  • La igualdad de las personas para el acceso equitativo a las tecnologías de aumentación sensorial y cognitiva

Se trata del derecho equitativo al acceso a las técnicas de aumentación sensorial y cognitiva.

Existen sistemas de IA centrados en el ser humano (inteligencia aumentada): Concebidos para amplificar y aumentar las capacidades humanas y el control de los humanos sobre las máquinas y no, en principio, para reemplazarlos. Son sistemas que apuntan a priorizar los intereses y los derechos de las personas por sobre la automatización. También representan una manera de adoptar IA, en donde una o más tecnologías no reemplazan a las personas, sino que éstas trabajan con las máquinas, de modo colaborativo comúnmente conocido como modalidad humano-máquina.

Desde otro ángulo, las personas con frecuencia sufren prejuicios si su cuerpo o cerebro funcionan de manera diferente a la mayoría y suele aparecer, la presión para adoptar neurotecnologías que mejoren la capacidad de resistencia o las capacidades sensoriales o mentales de las personas, de un modo que, probablemente cambie las conductas sociales adversas, ello puede plantear cuestiones de acceso equitativo y generar nuevas formas de discriminación.

Las líneas divisorias para trazar en esta materia son difíciles, dada la dificultad de predecir qué tecnologías tendrán efectos negativos en la vida humana (47). Pero la sugerencia es que se formula, es que se establezcan directrices tanto a nivel internacional como nacional, para fijar límites a las neurotecnologías de mejora que se pueden implementar y para definir los contextos en los que se pueden utilizar como, en general, está sucediendo con la edición genética en humanos. Se ha observado que la prohibición total de ciertas tecnologías podría empujarlas a la clandestinidad.

  • El derecho a la protección contra los sesgos de los algoritmos que se utilizan en la neurotecnología Cuando las decisiones científicas o tecnológicas se basan en un conjunto estrecho de conceptos y normas

sistémicas,  estructurales  o  sociales,  pueden  producirse,  de  modo  deliberado  —consciente—  o

inconscientemente, defectos o desvíos en el método usado para recopilar o interpretar la información o en el diseño de un estudio de investigación científica o ensayo clínico, esto genera los denominados sesgos. Los sesgos pueden conducir a conclusiones incorrectas acerca de los resultados de un estudio o un ensayo (48) y la tecnología resultante puede privilegiar a ciertos grupos y perjudicar a otros, de ahí, el derecho a la protección contra los sesgos de los algoritmos que se utilizan en la neurotecnología.

También en 2017, Marcello Ienca y Roberto Andorno, en el mismo camino que el Grupo Morningside, propiciaron cuatro nuevos derechos relacionados con la neurotecnología: i) el derecho a la integridad cognitiva,

  1. ii) el derecho a la privacidad mental, iii) el derecho a la integridad mental y iv) el derecho a la continuidad psicológica y otros autores han hablado derechamente, de libertad cognitiva (Farahany) (49).

Ienca y Andorno señalaron que la propuesta de una formulación de derechos humanos neuro-específicos, en respuesta a los avances emergentes en la neurotecnología es consistente y una continuación lógica de la propuesta de desarrollar derechos humanos genéticos específicos en respuesta a los avances en genética y genómica, tal como lo estableció la Declaración Universal sobre el Genoma Humano y los Derechos Humanos y la Declaración Internacional sobre Datos Genéticos Humanos y que se requiere un amplio debate futuro para probar la solidez normativa de esta expansión del marco de derechos humanos a la dimensión neuro-tecnológica. También señalan que, paralelamente, futuras investigaciones probablemente muestren que es necesario investigar las implicancias de tales derechos humanos en otros niveles legales, como el derecho internacional humanitario, el derecho penal, el derecho de daños, el derecho de propiedad y el derecho del consumidor y que, sin duda, resultará necesario para ello, la participación activa e interdisciplinaria de expertos legales, neurocientíficos, desarrolladores de tecnología, neuro-éticos y organismos reguladores (50).

  1. La protección de los neuroderechos, como “nuevos derechos humanos”

Las preocupaciones registradas en sectores responsables en el ámbito de la ética y el conocimiento que hemos referido han tenido una influencia directa y han preparado el camino para la elaboración de una cantidad de instrumentos, muchos de ellos, parte de un soft law no vinculante, que abonan la definición cada vez más

 

clara de un fondo común de principios que son compartidos en esta materia que, sin dudas, es esencial como ninguna para el porvenir de la humanidad.

Diversos instrumentos internacionales reconocen la relación entre la ciencia y los derechos humanos: el Pacto Internacional de Derechos Económicos, Sociales y Culturales, así como la Declaración sobre la Ciencia y el Uso del Saber Científico y el Programa en Pro de la Ciencia de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) subrayan la importancia de que la investigación científica respete los derechos humanos y la dignidad de las personas; la Declaración Universal sobre Bioética y Derechos Humanos de la UNESCO (2005), profundiza sobre las cuestiones éticas relacionadas con la medicina, las ciencias de la vida y las tecnologías conexas aplicadas a los seres humanos, teniendo en cuenta sus dimensiones sociales, éticas, jurídicas y ambientales. también establece principios generales, como el respeto a la vulnerabilidad humana, la integridad personal, la privacidad y confidencialidad de la información relacionada con las personas.

La UNESCO también celebró el 13 de julio de 2023, en su sede de París, una Conferencia Internacional sobre la Ética de la Neurotecnología y abordó como tema “Hacia un marco ético para la protección y el fomento de los derechos humanos y las libertades”, donde concluyó en que es crucial involucrar a todas las partes interesadas relevantes, con el fin preparar el terreno para la configuración de una gobernanza ética de la neurotecnología.

En el seno de la OEA, el Comité Jurídico Interamericano aprobó el 9 de marzo de 2023, en Río de Janeiro, la Declaración de Principios Interamericanos en materia de Neurociencias, Neurotecnologías y Derechos Humanos (CJI/RES. 281 (CII-O/23), documento que recoge las preocupaciones ya esbozadas aquí sobre los neuroderechos, a través de una formulación de principios de soft law, a la que los países americanos deben prestar fundamental atención y sobre los que volveremos infra.

La Organización de las Naciones Unidas, en su Cómite de Derechos Humanos, adoptó en 2023, unánimemente, la decisión de estudiar los problemas de derechos humanos en neurotecnología. Este organismo de la ONU destacó la urgente necesidad de crear un marco ético común, a escala internacional, sobre este campo que se integra al desarrollo de tecnologías para entender el cerebro. Anteriormente, ya estableció marcos éticos globales sobre el genoma humano, los datos genéticos humanos y la inteligencia artificial.

La OCDE aprobó, el 11-12-2019, una Recomendación sobre Innovación Responsable en Neurotecnología.

Varios países se han involucrado ya en la protección de estos neuroderechos, cabe citar, especialmente, el caso de Chile que adoptó en la ley 21.383 el 14 de octubre de 2021, por decisión en forma unánime en su Congreso, una reforma al art. 19 de su Constitución, hoy vigente, que protege la actividad cerebral y la información procedente de ella, reconociéndolas como un derecho básico de su ciudadanía y posee una Ley de Neuro-protección que resguarda estos derechos dentro de la legislación y del Código Sanitario (51).

En Argentina, tenemos la Disposición 2/2023 de la Jefatura de Gabinete de Ministros. Subsecretaría de Tecnologías de la Información (DI-2023-2-APN-SSTI#JGM) que contiene en su Anexo I, “Recomendaciones para una inteligencia artificial fiable”.

En España, en la Carta de Derechos Digitales del 14 de julio de 2021, que es un instrumento normativo no vinculante, en el Cap. XXVI, se consagran pautas sobre neuroderechos y el 23-24 de octubre de 2023, se emitió la “Declaración de León sobre la neurotecnología europea: Un enfoque centrado en la persona y basado en los derechos humanos”, donde analiza la neurotecnología haciendo referencia a los dispositivos y procedimientos utilizados para acceder, controlar, investigar, evaluar, manipular y/o emular la estructura y función de los sistemas neuronales de animales o seres humanos.

En los EE.UU., en California se aprobó por unanimidad la Ley de Neuroderechos, SB 1223, que protege los datos neuronales de los individuos contra el uso indebido y define los datos neuronales, como información personal confidencial y les aplica las mismas protecciones legales sobre su uso que sobre otra información personal confidencial. También el tema ha sido abordado en el Reino Unido y en la Declaración del Comité de Bioética del Consejo de Europa del 21/11/2019, con un Plan Estratégico de Acción sobre Derechos Humanos y Tecnologías en Biomedicina (20 20-2025).

  • Declaración de Principios Interamericanos en materia de Neurociencias, Neurotecnologías y Derechos Humanos (CJI/RES. 281 (CII-O/23)

Cabe recordar aquí que Robert Alexy, en su “Teoría de los derechos fundamentales”, reclamaba los principios en el derecho para que, por medio de ellos, se puedan resolver las indeterminaciones de las normas, las reglas, las antinomias, los silencios normativos y superar aspectos disvaliosos graves contenidos en las normas legales (52).

 

En el 102º período ordinario de sesiones, del 6 – 10 de marzo 2023, en Río de Janeiro, Brasil, la OEA aprobó la “Declaración de Principios interamericanos en materia de neurociencias, neurotecnologías y derechos humanos, con anotaciones”, “como una directriz importante para que las personas puedan aprovechar con plenitud las ventajas y beneficios de los avances científicos y sus aplicaciones en el campo de la neurociencia y desarrollo de las neurotecnologías en la seguridad de que no habrá menoscabo de sus derechos humanos”.

Se establecieron allí de estándares internacionales para orientar y armonizar las regulaciones nacionales necesarias en esta materia.

El Comité Jurídico Interamericano ya había aprobado la “Declaración sobre Neurociencia, Neurotecnologías y Derechos Humanos: Nuevos Desafíos Jurídicos para las Américas” CJI/DEC. 01 (XCIX-O/21), en agosto de 2021, abriendo un proceso de reflexión y consulta con diversos actores, que ha recibido la contribución sustantiva y recomendaciones especializadas de un Comité de Expertos interdisciplinario, compuesto por académicos, científicos y juristas, especialistas de diversas materias.

Se han destacado como fuentes de estos Principios: el reporte del Comité Internacional de Bioética de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) sobre “Cuestiones Éticas de la neurotecnología”, publicado en diciembre de 2021; la “Recomendación sobre Innovación Responsable en Neurotecnología” adoptada en diciembre 2019 por la Organización para Cooperación Económica y el Desarrollo (OECD); el Reporte del Consejo de Europa sobre “Desafíos Comunes a los Derechos Humanos planteados por Diferentes Aplicaciones de las neurotecnologías en el Campo Biomédico”, adoptado en octubre de 2021; así como la Declaración que —en junio de 2022— aprobó el Parlamento Latinoamericano y del Caribe (Parlatino) (53), recomendando la necesidad de legislar esta materia. El Comité Jurídico Interamericano de la Organización de los Estados Americanos adoptó este documento como una directriz importante, sin carácter vinculante, para las situaciones que se puedan plantear con los avances en neurociencia y el desarrollo de neurotecnologías sobre los derechos humanos.

Se tomaron en cuenta las normas vigentes de carácter internacional sobre derechos humanos y se las aplicó, adaptándolas al ámbito de las neurotecnologías.

He aquí los diez [10] principios de la OEA:

  • Principio 1: Identidad, autonomía y privacidad de la actividad neuronal

El desarrollo y uso de neurotecnologías buscará contribuir al derecho de toda persona a gozar de una vida digna, junto a los beneficios del progreso científico y tecnológico, preservando los derechos relativos a la identidad, autonomía y el libre desarrollo de la personalidad.

La actividad neuronal genera la totalidad de las actividades mentales y cognitivas de los seres humanos y, por ello, forma parte de la esencia del ser mismo de la persona, su identidad y privacidad, por lo tanto, está protegida por las normas de derechos humanos.

Es fundamental preservar y garantizar el control de cada persona sobre su propia identidad individual, así como asegurar la autodeterminación y la libertad de pensamiento de las personas.

  • Principio 2: Protección de los Derechos Humanos desde el diseño de las neurotecnologías

Los Estados promoverán un enfoque basado en Derechos Humanos, buscando garantizar la protección integral y el respeto a los derechos humanos a partir del diseño de las neurotecnologías, tanto en sus modos de investigación, como en su implementación, comercialización, evaluación y uso.

  • Principio 3: Los datos neuronales como datos personales sensibles

Los datos neuronales constituyen datos personales altamente sensibles. Las personas responsables del tratamiento y uso de los datos neuronales adoptarán medidas de privacidad y de seguridad reforzadas, asegurando límites en la aplicación de las técnicas de descodificación que permitan identificar a una persona o hacerla identificable, especialmente con aquellas bases de datos o conjuntos de información que sean compartidos con terceras partes. Los Estados fomentarán medidas para garantizar el dominio, la seguridad, confidencialidad e integridad de los datos neuronales.

  • Principio 4: Consentimiento expreso e informado respecto de los datos neuronales

El consentimiento de la persona titular de los datos neuronales es un requisito imprescindible para el acceso a la recopilación de la información cerebral. Es fundamental garantizar el consentimiento libre, informado, expreso, específico, inequívoco y libre de vicios, respecto al acceso o tratamiento de la actividad neuronal. El consentimiento otorgado puede ser revocable en todo momento. Se requiere especial protección para el caso de niñas, niños y adolescentes, así como de personas con discapacidad, personas mayores y personas privadas de la libertad.

 

  • Principio 5: Igualdad, No Discriminación y Acceso equitativo a las neurotecnologías

Se promueve el desarrollo y uso de las neurotecnologías, accesibles a todas las personas de acuerdo con las características del grupo generacional conforme al principio de igualdad y no discriminación. Los Estados deberían garantizar el acceso equitativo a las neurotecnologías, respetando sus costumbres y tradiciones, además de desarrollar políticas públicas de innovación responsable, procurando avanzar hacia el cierre de las brechas de desigualdad y discriminación, especialmente respecto a los grupos más vulnerables.

  • Principio 6: Aplicación terapéutica exclusiva respecto al aumento de las capacidades cognitivas

La finalidad principal de estos desarrollos científicos y tecnológicos de asistencia médica es conservar o mejorar la autonomía de las personas y de este modo promover su bienestar integral, contribuyendo a que las personas puedan llevar una vida digna, sana, productiva y autónoma.

Los Estados procurarán regular, con especial cautela, el uso de las neurotecnologías para aumentar las habilidades cognitivas de las personas, establecer límites claros y ejercer un control reforzado. Deberán tener especial cuidado y precaución respecto de aquellos supuestos que, más allá de su aplicación terapéutica o del ámbito de salud, pretendan el estudio y uso de neurotecnologías para el aumento o la mejora de las capacidades cognitivas para otros fines.

  • Principio 7: Integridad neurocognitiva

Es indispensable garantizar la protección de la integridad neurocognitiva de todas las personas y prevenir su uso para fines ilegítimos o maliciosos que resulten en intervenciones neurotecnológicas destinadas al daño o afectación de la actividad cerebral o que impacten en el ejercicio de los derechos humanos.

El acceso a la actividad cerebral nunca podrá alterar la libertad de pensamiento y conciencia de la persona, haciendo que sea dependiente de un tercero, afectando sus ideas, seguridad e independencia. Toda persona tiene derecho a no sufrir violaciones, alteraciones, manipulaciones y/o modificaciones de su integridad e intimidad neurocognitiva que pongan en riesgo o afecten la integridad personal, no siendo admisible la imposición de cláusulas de exclusión o limitación de responsabilidad.

Se garantiza la protección a la integridad neurocognitiva en los tratamientos neurotecnológicos, estando prohibidos mecanismos compulsivos o forzosos de aplicación, así como su uso como método de tortura o tratamiento cruel, inhumano o degradante.

  • Principio 8: Gobernanza transparente de las neurotecnologías

Los Estados procurarán asegurar que todos los actores —tanto estatales como no estatales— que estén vinculados con el desarrollo, uso y/o comercialización de neurotecnologías garanticen la transparencia de los avances neurotecnológicos. Esto comprende la manera en que se estudian, se desarrollan, aplican y funcionan las neurotecnologías, como su compatibilidad con los derechos humanos y la rendición de cuentas sobre el tratamiento de datos neuronales en su posesión.

  • Principio 9: Supervisión y fiscalización de las neurotecnologías

Los Estados están llamados a ejercer una función contralora de supervisión y fiscalización, estableciendo una autoridad nacional competente, técnicamente especializada, funcionalmente autónoma e independiente, para garantizar que el uso y la aplicación de las neurotecnologías se desarrolle conforme a los estándares internacionales en materia de derechos humanos a efectos de evitar y prevenir los riesgos e impactos negativos en los derechos de las personas, teniendo especial cuidado en la protección de derechos en niñas, niños y adolescentes y personas con discapacidad y personas privadas de libertad.

  • Principio 10: Acceso a la tutela efectiva y acceso a remedios asociados al desarrollo y uso de las neurotecnologías

Los Estados promoverán y garantizarán mecanismos de tutela efectiva de los derechos asociados al desarrollo y uso de las neurotecnologías. También es necesario garantizar el acceso a remedios judiciales y reparaciones integrales en el caso de vulneraciones a los derechos humanos, a efectos de promover una efectiva protección de estas garantías, de conformidad con los presentes Principios.

  • Los neuroderechos como nuevo umbral de los derechos humanos. Las nuevas tecnologías disruptivas de la inteligencia artificial asociadas a las neurociencias y la neurotecnología: un desafío para el DIPr. (54)

El derecho y, en particular el D.I.Pr, ha advertido y experimentado, cómo la desmaterialización, la deslocalización y la transnacionalización han modificado el entorno de realidad y ha ido profundizando en los problemas que esas circunstancias plantean. A ellas se agregan ahora, con toda celeridad, los nuevos desafíos que surgen de los desarrollos de la inteligencia artificial, que se han generalizado en el marco de la llamada

 

inteligencia artificial débil. Sin embargo, ya con el panorama abierto a la IA fuerte, general y seminal aparece evidente y claro que el avance incontrolado de esos desarrollos puede conducir a poner en jaque la integridad y la esencia misma del ser humano, con riesgo cierto para los derechos humanos. Ello, torna de menester que los Estados, las organizaciones internacionales especializadas y los operadores del Derecho —en tanto ciencia que regula la vida humana en sociedad—, aborden con urgencia esos desafíos, comprendiéndolos en su honda complejidad y captándolos con nuevos y necesarios instrumentos legales.

Dado que la mayoría de los Estados adolecen de falta de regulación o solo exhiben legislaciones parciales, incipientes, insuficientes o defectuosas, aparece como un ejercicio indispensable para los juristas, el ensanchamiento de las categorías de análisis para captar en toda su complejidad, en particular, las implicancias de los llamados neuroderechos a fin de encuadrarlos debidamente, reformulando y armonizando con nuevos enfoques específicos, los derechos humanos ya reconocidos. Cabrá redefinir esos derechos, integrándolos y adaptándolos a los nuevos desafíos preservando el principio de coherencia (55), o bien, crear regulaciones especiales, materiales, de fondo, que contemplen soluciones especiales, según el caso, que atiendan a las particularidades de los nuevos problemas que se presenten, siempre sustentados en la libertad, la integridad, la identidad y la autonomía de la persona humana.

Dentro de ese cometido de ensanchamiento, es prudente comenzar como lo han hecho organismos internacionales y Estados nacionales, por elaborar Principios, declaraciones y recomendaciones que sirven como enfoque marco de trabajo, para abordar, en particular, las cuestiones más sensibles que plantean las neurociencias y las neurotecnologías. Esos instrumentos fungen como una suerte de soft law, que acude en auxilio del intérprete ante las lagunas y carencias regulatorias que se evidencian al profundizar en esas nuevas áreas.

Cabe aquí, aportar algunas ideas sobre el rol de esos principios, declaraciones y recomendaciones en cuestiones de neurociencias y neurotecnologías y sus posibilidades, como soporte para la interpretación normativa dentro del DIPr. y sus posibles aplicaciones.

Veamos:

  1. Como fuente de determinación normativa

En casos en que la normativa de aplicación no resulte clara o aparezca incompleta o insuficiente, los principios, declaraciones y recomendaciones en cuestiones de neurociencias y neurotecnologías, servirán muchas veces, como fuente de determinación normativa, para precisar, determinar y concretar dentro de las cláusulas generales y de otros conceptos normativos indeterminados el posible encuadramiento de esos nuevos problemas. Cabrá utilizarlos, asimismo, para identificar las distintas cuestiones, encuadrar los casos que se presenten y, en su caso, los posibles equivalentes funcionales que permitan su calificación (definición), dentro de los institutos y las normas de conflicto, materiales y de policía existentes en el derecho y en el DIPr. aplicables y dentro de las reglas generales o principios legales en los cuales esos nuevos problemas puedan ser subsumidos, a fin de arribar a soluciones coherentes dentro del sistema jurídico del que se dispone (56).

  1. Como fuente de elaboración e integración de lagunas

Ante silencios, oscuridades u omisiones de regulación —involuntarias o deliberadas— de parte legislador, la falta de desarrollos de contenido legislativo suficiente para los neuroderechos y la ausencia de gobernanza en la protección de esos derechos en un contexto de crecimiento tecnológico incesante, en nuestro el país pero, sobre todo, en el extranjero, los principios, declaraciones y recomendaciones en el caso de las neurociencias y las neurotecnologías, bien pueden servir de directivas al operador jurídico para integrar el sistema, elaborando las normas carentes, ya sea, al inspirar la formulación de una nueva solución legislativa, al integrarlo por analogía o recurriendo a los principios, generales y particulares o, al fallar, como juez, en un caso concreto, creando una solución especial, materialmente adaptada, cual sería, la sentencia individual para el caso (57).

  1. Como límites en el funcionamiento del sistema de DIPr. mediante el ensanchamiento. de los principios del orden público interno e internacional (58)

Los nuevos neuroderechos tutelan la esencia misma del ser humano e, incluso, el mismo futuro autónomo de la humanidad, la formulación de los Principios Interamericanos en materia de Neurociencias, Neurotecnologías y Derechos Humanos, en particular, son importantes pues captan y muestran supuestos en los que la inteligencia artificial, asociada a la neurotecnología y la neurociencia, pueden comprometer esos principios. Expresan, sin duda, un fondo común de principios que son compartidos, como estándares de nivel internacional, por el conjunto de los estados americanos, que Argentina integra y, por ende, son plenamente compatibles con los primeros principios que inspiran nuestra legislación.

Es que, nuestro país ya recepta con jerarquía constitucional, en el art. 75 inc. 22 CN, el núcleo duro, en

 

bloque, de los tratados de derechos humanos cuyos principios integran el orden público, interno e internacional.

En esa línea de ideas, cabe observar que los principios interamericanos contienen enunciados de derechos humanos que son un refinamiento conceptual actualizado, adaptado, preciso y armonizado, que constituye un ensanchamiento de la periferia de los principios del orden público, tanto interno, sino internacional que ya inspiran el ordenamiento jurídico argentino. En esa línea, puede identificárselos también, como integrantes de la cláusula general de reserva nuestra legislación (art. 2600 Cód. Civ. y Com.).

En esa comprensión y con ese alcance, estos principios pueden invocarse, como límite de orden público ante cualquier aplicación de las neurotecnologías que resulte lesiva para la integridad, identidad, privacidad de datos neuronales, autonomía o dignidad de la persona humana pues, la inclusión de los neuroderechos cabe como expresión ensanchada de los principios de derechos humanos constitucionalmente protegidos.

En consecuencia, como nueva generación de derechos humanos, inherentes a la persona, estos también son derechos de alcance universal, absolutos, transnacionales, progresivos, indivisibles e interdependientes y, desde ese ángulo, se los puede considerar, operativos y directa e inmediatamente aplicables (59).

No se trata ya aquí de que los derechos humanos fijen un límite a la soberanía de los Estados, sino que se impone reconocer una categoría especial de derechos humanos, incluso, de naturaleza supralegal y trasnacionales, que formulados a través de principios, se desprenden de manera radical de la conexión entre derechos humanos, ética y moral (60) y expresan límites a fijar, que los Estados deben tutelar, ante los excesos de las nuevas tecnologías, derivadas de la inteligencia artificial, de la neurociencia y de la neurotecnología.

  1. A modo de conclusión

Así, pues, ante los nuevos desafíos que la inteligencia artificial trae consigo, es necesario desarrollar un espíritu crítico que, con un humanismo aplicado y una inteligencia responsable, preserve las verdades conocidas y avance en procura del justo medio en la relación entre la dignidad humana y las nuevas circunstancias y exigencias que plantean la ciencia y la técnica en la vida personal y en la dimensión social del ser humano, evaluando fines y medios con una ética prudente, pero rigurosa (61).

Es deber urgente y fundamental de los Estados y organizaciones internacionales proporcionar un marco regulatorio legal y ético de alto estándar, con vocación universal e internacionalmente armonizado, que reconozca, promueva y resguarde acabadamente los neuroderechos como derechos humanos, asegure una gobernanza transparente de las neurotecnologías y supervise y controle sus desarrollos, con entes de control especializados, autónomos e independientes.

Estos derechos deben ser consagrados como principios, aplicables a todos los pueblos y a todos los hombres y deben ser receptados, con normas jurídicas válidas a escala internacional y en los derechos nacionales, apuntando a una internacionalización y estandarización universal reconocidos como nuevos derechos humanos (62).

A las organizaciones internacionales y a los Estados les cabe, esencialmente, la obligación de garantizar estos derechos fundamentales de modo inmediato y eficiente, a través de sus órganos de gobierno, legisladores y jueces.

Quizás ahora sí, llegó la hora, como lo proponía Jeremy Rifkin (63), de elaborar, consensuada y colaborativamente, en protección de la raza humana y del planeta en que vivimos, una nueva propuesta de Declaración Universal de Derechos y Responsabilidades Humanas.

  • Escribana y abogada (USAL). Doctora en Derecho (UBA). Jueza de la Cámara Nacional de Apelaciones en lo Comercial. Profesora titular de Derecho Internacional Privado en la Facultad de Derecho (UBA – Univ. San Isidro “Dr. Plácido Marín” – USAL). Profesora de posgrado DIPr. en diversas universidades del país. Académica titular de la Academia Nacional de Derecho y Ciencias Sociales de Buenos Aires.
    • Véase en este punto: UZAL, María Elsa, “El derecho internacional privado hoy y sus nuevos desafíos”. LA LEY, 2023-D, 304. TR LALEY AR/DOC/1848/2023.
    • Véase en: https://es.wikipedia.org/wiki/Internet: Internet es una conexión global de múltiples redes que permite a un usuario acceder a información y datos de forma Es un conjunto descentralizado de redes de comunicaciones interconectadas, que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen constituyen una red lógica única de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California (Estados Unidos). Uno de los servicios que más éxito ha tenido en internet ha sido la World Wide Web (WWW o la Web), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Esta fue un desarrollo posterior (1990) y utiliza internet como medio de transmisión.

 

  • Se denominan robots a los programas que exploran automáticamente la red para encontrar información y a los ingenios electrónicos programables que capaces de manipular objetos y realizar diversas operaciones.
  • Véase CROVI, Daniel, “Los robots y la personalidad jurídica”, en Las nuevas tecnologías y el derecho, Academia Nacional de Derecho y Ciencias Sociales de Buenos Aires, La Ley, Buenos Aires, 2022, p. 96 y ss.
  • La IOT Internet of Things es un sistema de interacción de máquina con máquina, con sensores, capacidad de procesamiento, software y otras tecnologías que, sin necesidad de intervención humana, se conectan e intercambian datos con otros dispositivos y sistemas a través de Internet u otras redes de comunicación.
  • La Internet of Robotic Things (IORT) es una infraestructura robótica que se nutre de los sistemas de IOT y que gracias a los datos proporcionados por el IOT construye una red de computación de inteligencia artificial interconectado con o hacia una nueva red emergente de IORT que permite realizar tareas autónomas automatizadas en base a unos parámetros u órdenes recibidas a través de la red de IOT (SIMOENS – DRAGONE – SAFFIOTTI, 2018).
  • Se trata de una tecnología que se utiliza para registrar transacciones mediante un sistema de red digital, encadenado en forma criptográfica, donde cada nueva transacción, una vez validada por un sistema de nodos, agrega un nuevo bloque con características de ser inmutable e inviolable y que puede ser conocido. Es un mecanismo que permite organizar una base de datos electrónica, a través de una serie de bloques consecutivos con información, vinculados entre sí, los cuales incluyen en forma resumida a través de un “hash” criptográfico

—el resultado de una ecuación matemática que contiene en una línea un resumen del bloque anterior—, los datos contenidos en el bloque previo. Es que, al estar entrelazados los bloques entre sí, permiten a todos los nodos acceder a la información almacenada en los mismos en forma replicada. Entonces, cada nodo interconectado posee la información completa de la cadena de bloques: BIELLI, Gastón E. – ORDÓÑEZ, Carlos

– BRANCIFORTE, Fernando, “Introducción a la tecnología blockchain. Una Mirada desde el derecho”, en la obra colectiva de BIELLI, Gastón E. – ORDÓÑEZ, Carlos – BRANCIFORTE, Fernando, Colección Blockchain y Derecho, La Ley, Buenos Aires, 2022, t. I, p. 13, citando a Andreas Antonopoulus, citado por Favier Dubois y Favier Dubois Eduardo M., “Criptomonedas, patrimonio y derechos de los acreedores”, LA LEY, 2021-F, 2.

  • Véase: MIRASSOU CANSECO, Carlos – HADAD, Andrés O., “Nuevo paradigma contractual: los smart contracts”, TR LALEY AR/DOC/3578/2019, citado por Favier Dubois; FAVIER DUBOIS, Eduardo M., “Los Smart contracts; eficiencia tecnológica versus derecho de los contratos en el mundo posmoderno”, Erreius on line, agosto 2021; SANTARELLI, Fulvio, “Contratos autoejecutables: Smart contracts”, en Las nuevas tecnologías y el derecho, Academia Nacional de Derecho y Ciencias Sociales de Buenos Aires, La Ley, Buenos Aires, 2022, p. 264 y ss.
  • VAREA, Lautaro, “¿Por qué debería importarme entender qué es una DAO?” – ponencia a la XV Jornada Nacional de Derecho Contable – IADECO – Avellaneda – 2022 Libro de Ponencias, citado por Favier Dubois https://drive.google.com/file/d/1frKps48jjFSYHoH-e2690b4_9OyXD18x/view. Una DAO o una Organización Autónoma Descentralizada, es un modelo de gestión que ha estado circulando en la comunidad de criptomonedas desde que Bitcoin consiguió deshacerse de los intermediarios en las transacciones financieras. Del mismo modo, la idea principal detrás de las DAOs es establecer una empresa o una organización que pueda funcionar plenamente sin una gestión jerárquica.
  • Véase: FAVIER DUBOIS, Eduardo M., “Criptomonedas, patrimonio y derechos de los acreedores”, LA LEY, 2021-F, 2.
  • AGUINSKY, Ariel, “La tokenización de activos” – en la obra colectiva de BIELLI, Gastón E. – ORDÓÑEZ, Carlos – BRANCIFORTE, Fernando, “Colección Blockchain y Derecho”, La Ley, Buenos Aires, 2022, t. II, p. 108. En el campo de las finanzas, del comercio del arte, se entiende por token la representación digital de cualquier bien que pueda estar en el comercio. Token es “la representación digital de un activo que puede estar alojado en una plataforma electrónica o, en su defecto, en el mundo real”.
  • Para el desarrollo de todos estos conceptos en detalle, véase el completo trabajo de FAVIER DUBOIS, Eduardo M., “Tecnologías disruptivas y derecho”, Erreius on line, enero-febrero, 2023 y sus citas transcriptas supra, indicadas en las notas 82-84-86-87-88.
  • Véase: NISA ÁVILA, Javier Antonio, “El Metaverso: conceptualización jurídica, retos legales y deficiencias normativas”, Tribuna, 30/11/2021, Madrid.
  • Ibídem.
  • Ibídem.
  • En 1956 fue ideada la expresión «inteligencia artificial» por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones a diez años que no se
  • Véase: CORVALÁN, Juan (director), “Tratado de inteligencia artificial y derecho”, LA Ley, Buenos Aires, 2023, T.I., en Cap. I. Inteligencia artificial; bases conceptuales para una aproximación interdisciplinar, por Corvalán, Díaz Dávila, Simari, ps. 20 a 25.

 

  • Ibídem, I, ps. 21-3.
  • Ibídem, I, ps. 23-8.
  • Véase: en https;//www.cloudflare.com Un Gran Modelo Lingüístico o Modelo Lingüístico Grande (LLM) es un tipo de programa de inteligencia artificial (IA) que puede reconocer y generar texto, entre otras Los LLM se capacitan con enormes conjuntos de datos – de ahí el adjetivo “grande”. Los LLM se basan en el aprendizaje automático: en concreto, en un tipo de red neuronal llamado modelo transformador. En términos más sencillos, un LLM es un programa informático al que se le han dado suficientes ejemplos para que sea capaz de reconocer e interpretar el lenguaje humano u otros tipos de datos complejos. Muchos LLM se entrenan con datos recopilados de Internet (miles o millones de gigabytes de texto). Sin embargo, la calidad de las muestras influye en lo bien que los LLM aprenderán el lenguaje natural, por lo que los programadores de un LLM pueden utilizar un conjunto de datos mejor seleccionado. Los LLM utilizan un tipo de aprendizaje automático llamado aprendizaje profundo, para entender cómo funcionan los caracteres, las palabras y las frases en conjunto. El aprendizaje profundo implica el análisis probabilístico de datos no estructurados, lo que finalmente permite al modelo de aprendizaje profundo reconocer distinciones entre las piezas de contenido sin intervención humana. Los LLM se entrenan aún más mediante la sintonización: se afinan o se ajustan a la tarea concreta que el programador quiere que hagan, como interpretar preguntas y generar respuestas o traducir texto de un idioma a otro. Ejs. entre muchos otros: LLMs notables son la serie de modelos GPT de Open AI (por ejemplo, GPT-3, GPT-4 y el nuevo GPT-O.1, utilizados en ChatGPT y Microsoft Copilot), PaLM y Gemini de Google (el último de los cuales se utiliza actualmente en el chatbot del mismo nombre), o Claude de Anthropic, entre otros.
  • Ibídem, I, p. 28, notas 17 y citas de John Searle, profesor de la U. de Berkeley.
  • Ibídem, T. I, p.
  • Lenguaje de alto nivel se caracteriza por expresar los algoritmos de una manera adecuada a la capacidad cognitiva humana, en lugar de la capacidad con que las máquinas lo ejecutan.
  • La hipótesis de la mente como sistema físico de símbolos es una visión clásica de la ciencia cognitiva, que supone que: i) Los procesos cognitivos pueden analizarse como procesos formales de manipulación de símbolos a los que puede darse una semántica de significado y adaptación al entorno. ii) El sistema de símbolos es físico ya que está implementado en un medio, el cerebro; iii) Los procesos cognitivos son programables; iv) la arquitectura cognitiva tiene un conjunto de facilidades para el procesamiento de la información que potencialmente le permiten adquirir un rango ilimitado de procesos de información
  • Véase: https://centromexico.digital/diferencia-machine-learning-inteligencia-artificial/. Los tipos de ML que podemos encontrar son: Aprendizaje por refuerzo: se produce cuando una máquina aprende por medio de prueba y error hasta alcanzar la mejor manera de completar una tarea asignada. Aprendizaje supervisado: se produce cuando los algoritmos aprenden de datos previamente etiquetados y clasificados, es decir, cuenta con un conjunto muestra, con lo cual el algoritmo analiza varios elementos dados y los compara con su grupo muestra para etiquetarlos según esos criterios. Por ejemplo, puedes clasificar fotos con descripciones de los elementos que aparecen en ellas. Aprendizaje no supervisado: los algoritmos que trabajan bajo estos lineamientos son similares a los supervisados, solo que estos últimos adoptan un modelo predictivo, es decir, no tienen clasificaciones y etiquetas previas, sino que buscan ejemplos que se parezcan y puedan agrupar. El ML está presente en las recomendaciones de películas de las plataformas de streaming, en el reconocimiento de voz de los asistentes virtuales o en las respuestas automáticas del correo electrónico. Es importante considerar que el ML requiere de grandes volúmenes de datos y que éstos sean revisados y auditados para evitar sesgos.
  • El ML está presente, por ej. en las recomendaciones de películas de las plataformas de streaming, en el reconocimiento de voz de los asistentes virtuales o en las respuestas automáticas del correo electrónico. Es importante considerar que el ML requiere de grandes volúmenes de datos y que éstos sean revisados y auditados para evitar sesgos.
  • Véase: Disposición 2/2023. Jefatura de Gabinete de Ministros. Subsecretaría de Tecnologías de la Información (DI-2023-2-APN-SSTI#JGM) Anexo I “Recomendaciones para una inteligencia artificial fiable”, ps. 25-6.
  • Véase: https://www.ibm.com/es-es/topics/deep-learning; También CORVALÁN, , ob. cit., T. I. ps. 51-52; 56 y s. También: Disposición 2/2023. Jefatura de Gabinete de Ministros. Subsecretaría de Tecnologías de la Información (DI-2023-2-APN-SSTI#JGM) Anexo I “Recomendaciones para una inteligencia artificial fiable”,
  1. 26.
  • Véase: en https://www.ibm.com/es-es/topics/deep-learning Las redes neuronales, o redes neuronales artificiales, intentan imitar el cerebro humano a través de una combinación de entradas de datos, ponderaciones y sesgos, todos actuando como neuronas de silicio. Estos elementos trabajan juntos para reconocer, clasificar y describir con precisión los objetos dentro de los datos. Las redes neuronales profundas se componen de varias capas de nodos interconectados, cada una de las cuales se basa en la capa anterior para refinar y optimizar la

 

predicción o la categorización. Esta progresión de cálculos a través de la red se denomina propagación hacia adelante.

  • Véase: CORVALÁN, cit., T. I, ps. 32-33.
  • Véase: CORVALÁN, cit., T. I, p. 297.
  • Desarrollo técnicas que permitan que las computadoras aprendan. Se dice que un agente aprende cuando su desempeño mejora con la experiencia y mediante el uso de datos. En el aprendizaje de máquinas un computador observa datos, construye un modelo basado en esos datos y utiliza ese modelo a la vez como una hipótesis acerca del mundo y una pieza de software que puede resolver problemas.
  • La ingeniería de control es la disciplina de la ingeniería que aplica la teoría de control para diseñar, planificar y desarrollar dispositivos y sistemas con comportamientos deseados. La práctica requiere utilización de sensores y actuadores de entrada para hacer modificaciones en la respuesta de La ingeniería de control se enfoca principalmente en la implementación de sistemas de control a partir de modelamientos matemáticos.
  • Open AI y otras organizaciones sin fines de lucro del mundo de la innovación trabajan con el propósito de llegar una IA amigable y piden regulación del tema.
  • Véase: CORVALÁN, cit., supra, T. I., ps.34,-35 y especialmente las citas de las notas 31 a 34.
  • Véase: UZAL, María Elsa, “El derecho internacional privado hoy y sus nuevos desafíos”, LA LEY, 2023-D, 304; TR LALEY AR/DOC/1848/2023:Se señaló allí que en los entornos digitales, es obvio que también se registran conductas desviadas en sus diversos grados: desde el data-mining desviado, spam, garbage mails, zoom bombing, sexting, cybergrooming, cyberbullying, cyberstalking, ciberviolencia, fake news, discursos de odio y las diversas formas de ataques cibernéticos que obligan a la prevención y protección de derechos personalísimos, frente a la, cada vez más amplia, gama de ciberdelitos: skimming (clonación de tarjetas), estafas con tarjetas de crédito, pharming (robo de información confidencial), phishing (fraudes informáticos con el tráfico de datos), revenge porn (pornovenganza), cybergrooming (acoso con intenciones sexuales al que se ve sometido un menor de edad por parte de un adulto), sexting o sextorsión, sabotajes informáticos, extorsiones on line, lavado de activos con criptomonedas, ciberterrorismo, que comprometen los bienes jurídicos protegidos por la ley penal, obligando a pensar en una reforma integral de la ley penal que contemple debidamente la tipificación de la cibercriminalidad.
  • Neuralink, de Elon Musk, está invirtiendo en la creación de dispositivos que puedan “leer” la actividad cerebral humana y “escribir” información neuronal en el cerebro.
  • Véase: AMUNÁTEGUI PERELLÓ, Carlos, “Neurotecnologías y Una primera sentencia en Chile”, en CORVALÁN, Juan, ob. cit., supra T. II, p. 300.
  • Véase: CJI/RES. 281 (CII-O/23) Declaración de principios interamericanos en materia de neurociencias, neurotecnologías y derechos humanos. Anotaciones y comentarios al Principio 1, Comité Jurídico Interamericano, 9/03/2023.
  • Véase: AMUNÁTEGUI PERELLÓ, Carlos, 0147Neurotecnologías y neuroderechos. Una primera sentencia en Chile”, en CORVALÁN, Juan, ob. cit., supra T.II, ps. 299-301.
  • Véase: YUSTE, Rafael – GOERING, Sara, “Cuatro prioridades éticas para las neurotecnologías y la IA”, publicado en Revista Nature (9 de de noviembre de 2017) vol. 551, ps. 159-163.
  • Véase: YUSTE, Rafael – GOERING, Sara, ob. cit. supra, “las mediciones de patrones de movilidad, como las obtenidas de personas que llevan teléfonos inteligentes durante sus actividades diarias normales, se pueden utilizar para diagnosticar signos tempranos de deterioro cognitivo resultante de la enfermedad de Alzheimer. Los algoritmos que se utilizan para orientar la publicidad, calcular las primas de seguros o emparejar a posibles parejas serán considerablemente más potentes si se basan en información neuronal (por ejemplo, patrones de actividad de las neuronas asociadas a determinados estados de atención). Y los dispositivos neuronales conectados a Internet abren la posibilidad de que individuos u organizaciones (piratas informáticos, corporaciones o agencias gubernamentales) rastreen o incluso manipulen la experiencia mental de un individuo.
  • Véase: YUSTE, ibidem.
  • Véase en: YUSTE, ibidem. Supra: Cuando las empresas tecnológicas utilizan el aprendizaje automático para mejorar su software, normalmente recopilan información de los usuarios en sus servidores para analizar cómo se utiliza un servicio en particular y luego entrenan nuevos algoritmos con los datos agregados. Los investigadores de Google están experimentando con un método alternativo de entrenamiento de inteligencia artificial llamado aprendizaje federado. En este caso, el proceso de enseñanza se lleva a cabo localmente en el dispositivo de cada usuario sin que los datos estén centralizados.
  • Se denomina código abierto a un modelo de producción descentralizada que permite que cualquier persona modifique y comparta tecnología porque su diseño es accesible de manera pública. Es un programa que se distribuye libremente (incluso de manera gratuita) y que puede ser usado y modificado por los usuarios sin ninguna restricción.
  • Véase: YUSTE, Rafael – GOERING, Sara, cit. supra.

 

  • Véase: YUSTE, Rafael – GOERING, Sara, ob. cit. Supra. Allí se señala que es fácil imaginar una carrera armamentística de aumento de poder. En los últimos años, habría discutido la Actividad de Proyectos de Investigación Avanzada de Inteligencia de Estados Unidos discutir planes para proporcionar a soldados y analistas capacidades mentales mejoradas (“agentes superinteligentes”). Éstas se utilizarían en situaciones de combate y para descifrar mejor los flujos de datos.
  • Véase en: Disposición 2/2023. Jefatura de Gabinete de Ministros. Subsecretaría de Tecnologías de la Información (DI-2023-2-APN-SSTI#JGM) Anexo I “Recomendaciones para una inteligencia artificial fiable”,
  1. 29, que se ha definido a los sesgos, señalado que en documentos de la OCDE cuando se describen términos claves de base común, se definen cuatro tipos de sesgos que pueden ocurrir en los sistemas de inteligencia artificial. Sesgo de percepción: Se produce cuando los datos recopilados representan en exceso o en defecto a una determinada población y hacen que el sistema funcione mejor (o peor) para esa población en comparación con otras. Sesgo técnico: Ocurre cuando la propia tecnología introduce sesgos o imprecisiones debido, por ejemplo, a algoritmos que funcionan mejor con ciertas variables o características del sistema de IA que se introducen con diferentes variables o características. Sesgo de modelado: Se produce cuando el diseño manual de un modelo por parte de expertos no tiene en cuenta algunos aspectos del entorno, ya sea consciente o inconscientemente. Sesgo de activación: Se produce cuando las salidas del sistema de IA se utilizan en el entorno de forma sesgada.
  • Véanse: AMUNÁTEGUI PERELLÓ, Carlos, ob. cit., p. 302 y s.; IENCA, Marcello – ANDORNO, Roberto, “Towards new human rights in the age of neuroscience and neurotechnology”, Life Sciences, Society and Policy,            2017,            1,          ps.         1                            a                          24,                     en https://www.sspjournal.biomedcentral.com/articles/10.1186/s40504-017-0050-1.
  • Véase: IENCA, Marcello – ANDORNO, Roberto, ob , p. 24.
  • En Chile ha recaído una sentencia relevante en el ámbito de los neuroderechos humanos, en el caso “Girardi c. EMOTIV Inc.” resuelto ante la Corte Suprema de Chile el 9/08/2023, Guido Girardi Lavín interpuso una acción constitucional de protección contra EMOTIV Inc., una empresa extranjera (USA) que comercializa el dispositivo “Insight” en Chile El conflicto se centró en la falta de protección adecuada de la privacidad de la información cerebral de los usuarios de “Insight” Se argumentó que EMOTIV Inc. no cumplía con las disposiciones de la Constitución política de la República de Chile, ni con la Ley Nº19.628, ya que no garantizaba la privacidad de la información cerebral de sus usuarios y no permitía la cancelación de los datos cerebrales almacenados, se subrayó que “Insight” y dispositivos similares registran información altamente sensible, como gestos, movimientos, preferencias y actividad cognitiva de los usuarios. Además, se argumentó que las nuevas tecnologías pueden tener un impacto significativo en derechos fundamentales, como a dignidad, la privacidad y la protección de datos. Se buscaba que EMOTIV Inc. modifique sus políticas de privacidad, deje de vender “Insight” en Chile, elimine la información cerebral del recurrente y tome medidas para restaurar los derechos afectados por esta situación. EMOTIV Inc. sostuvo que los hechos descritos no constituían una acción u omisión ilegal o arbitraria que vulnerase algunos de los derechos fundamentales que están garantizados en la Constitución chilena. Argumentan que el producto “Insight” y su instalación incluían una detallada explicación de los términos y condiciones, solicitando el consentimiento expreso y voluntario del recurrente para el tratamiento de datos personales y cerebrales. Refutó los riesgos planteados por el recurrente, argumentando que eran valoraciones abstractas e hipotéticas que se aplican a cualquier plataforma tecnológica que procesa datos personales, incluyendo riesgos como el hackeo de datos, la vigilancia digital, la mercantilización de datos y el uso no consentido. La Corte Suprema acogió el recurso de protección presentado por Girardi Lavín. La decisión se basó en que las acciones denunciadas vulneraban las garantías constitucionales contenidas en los numerales 1 (integridad física y psíquica de las personas) y 4 (derecho a la privacidad) del art. 19 de la Constitución Política de la República de Chile. Se determinó que la comercialización del producto “Insight” no contaba con todas las autorizaciones pertinentes, por lo tanto, la Corte acogió el recurso de protección, pero únicamente con el propósito de que el Instituto de Salud Pública y la autoridad aduanera lleven a cabo una evaluación exhaustiva del dispositivo “Insight” a la luz de la normativa legal y ética nacional. Esta evaluación debía garantizar que la comercialización y el uso del dispositivo, así como el manejo de los datos obtenidos de él, se ajustasen estrictamente a la normativa aplicable en Chile. Además, se ordena que la empresa EMOTIV Inc. elimine sin demora toda la información que se hubiera almacenado en su nube o portales en relación con el uso del dispositivo “Insight” por parte del recurrente. Véase: SMART, Sebastián, “El caso Girardi c. EMOTIV Inc. ante la Corte Suprema de Chile: ¿un paso adelante en la protección de los neuroderechos humanos?”, en https://www.researchgate.net/publication/378215733.
  • Véase también como fuente: DÍAZ MARTÍNEZ, Guillermo, “Derechos humanos, Fundamentación y Razonamiento Jurídico”, Bibliotex. Córdoba, 2023, ps. 168-9 con citas de Rodolfo Vigo.
  • El Parlatino ha aprobado el 21 de octubre de 2022 una Ley modelo de ciencia, tecnología e innovación para América Latina y el Caribe y en 2024, analiza un borrador de Ley Modelo sobre Inteligencia Artificial, se

 

señaló que el tema de la Inteligencia Artificial (IA) se ha convertido en una preocupación creciente para la región, dado el escaso desarrollo y manejo de esta tecnología avanzada que, en ocasiones es utilizada para afectar la honra de las personas y de instituciones.

  • Véase: UZAL, María Elsa, “El derecho internacional privado hoy y sus nuevos desafíos”, LA LEY, 2023-D, 304; TR LALEY AR/DOC/1848/2023. Señalamos allí que “las dificultades que la globalización ha provocado en el DIPr. en diversos sectores de la disciplina y, en particular, en los contratos internacionales y referimos que las transacciones económicas resultaban cada vez más deslocalizadas, perdiendo vínculos claros con una legislación en particular. Las modernas tecnologías, creaciones y manifestaciones del espíritu y de la inteligencia humanos, vienen a proporcionar, fundamentalmente, nuevos soportes inmateriales, ahora, digitales, en redes, con extraordinaria capacidad y velocidad de A través de plataformas y de algoritmos

—abiertos o encriptados—, muchas veces, sin necesidad de intervención humana activa directa, se conectan e intercambian datos con otros dispositivos y sistemas, a través de Internet u otras redes de comunicación, desde y hacia, cualquier lugar del mundo; se elaboran productos, se prestan servicios y la riqueza, los bienes, los activos y hasta la propia realidad se vuelve, parcialmente, virtual. Todo esto representa para el DIPr., la desmaterialización y la deslocalización del entorno de realidad, con la consiguiente trasnacionalización de los ámbitos de producción de los efectos, de estos nuevos casos iusprivatistas multinacionales localizados en la nube”.

  • Véase: UZAL, María Elsa, “Derecho Internacional Privado”, La Ley, As. 2016, ps. 90-93.
  • Véase: BOGGIANO, Antonio, “Derecho Internacional Privado”, 3ª edición, T. I, ps. 448-50; UZAL, María Elsa, “Derecho Internacional Privado…”, ob. cit., ps. 90-93.
  • Véase: BOGGIANO, Antonio, “Derecho…”, ob. cit., T. I, ps. 448-50; UZAL, María Elsa, “Derecho Internacional Privado…”, ob. cit., ps. 77-79.
  • Véase: UZAL, María Elsa, “Derecho Internacional ..”, ob. cit. ps. 146 y ss.
  • Véase como fuente: GORDILLO, Agustín, “Derechos Humanos. Parte General”, Fundación de Derecho Administrativo, Bs. As., 1990, ps. 44-45 y sus citas; FAPPIANO, Oscar L., “El derecho de los derechos humanos”, Ed. Ábaco, p. 39 y ss.
  • Véase como fuente: DÍAZ MARTÍNEZ, Guillermo, “Derechos humanos, Fundamentación y Razonamiento Jurídico”, Bibliotex, Córdoba, 2023, p. 141 con cita de Fernando Ubiría.
  • LIPOVETSKY, Gilles, “El crepúsculo del deber”, Anagrama, Barcelona, 2008, ps. 213-214; DE DIENHEIM BARRIGUETE, Cuauthémoc Manuel, “Constitucionalismo universal: la internacionalización y estandarización de los derechos humanos”, Ad Hoc, Bs. As., 2009, ps. 118 y 119.
  • Véase como fuente: DE DIENHEIM BARRIGUETE, Cuauthémoc Manuel, “Constitucionalismo universal: la internacionalización y estandarización de los derechos humanos”, Ad Hoc, Bs. As., 2009.
  • Jeremy Rifkin en el documental: “The third industrial revolution: A radical new sharing economy” filmado por Vice (“Vice Documentary Films”, en 2012, disponible en You Tube), hace una pregunta provocativa al público: “¿Cuánto tardará colaborativamente una generación de jóvenes en preparar una lista de datos para una declaración de responsabilidades humanas y de protección de la raza humana, de nuestros compañeros los animales y el planeta en el que vivimos?”.