Al avance frenético que desde fines del año pasado se produjo en el campo de la inteligencia artificial (IA), en el presente le siguen los primeros intentos de regulación. El Parlamento Europeo aprobó una ley para controlar el empleo de la IA en el continente y abre el debate entre las 27 naciones que conforman la Unión Europea y que deberán decidir, de aquí en más, como aplicarla fronteras adentro. Lo que se busca a partir de la sanción de la norma es comenzar a monitorear de cerca los riesgos que, potencialmente, puedan llegar a ocasionar. Este intento de control se suma a otros antecedentes recientes de peso, como la carta firmada por más de mil empresarios, figuras públicas y científicos, que solicitaba detener los desarrollos ligados al aprendizaje automático de las máquinas durante seis meses, así como también, a la proclama lanzada desde Latinoamérica por cien especialistas que solicitaban una mayor vigilancia del sector.
Con 499 votos a favor, 28 en contra y 93 abstenciones, la Eurocámara sancionó una normativa que puede funcionar como un punto de inflexión. En concreto, dispone que cuanto mayor sea el riesgo de afectar los derechos o la salud de las personas, más obligaciones tendrán los sistemas tecnológicos. En este sentido, algunos órdenes como la educación, las migraciones, el orden público y los recursos humanos ya fueron incorporados como espacios “de alto riesgo”, con lo cual, las tecnologías que se apliquen de aquí en más en esos rubros deberán cumplir con condiciones rigurosas. Asimismo, también fueron categorizadas con este rótulo aquellas innovaciones en el área que afecten el ambiente y la seguridad.
Reconocimiento facial y Chat GPT
En este marco, una de las prohibiciones votadas por los eurolegisladores que más llamó la atención fue la vinculada al empleo de sistemas de reconocimiento facial en espacios públicos (a excepción de aquellas circunstancias vinculadas a la órbita criminal). No porque estuviera bien o mal, sino porque ya se emplean para diferentes fines en muchos países del mundo desde hace un tiempo considerable.
Así, se compartieron nuevos parámetros para evaluar de cerca la puesta en funcionamiento de la IA aplicada a la vigilancia biométrica y el reconocimiento de emociones. Las nuevas tecnologías ya han demostrado que, de ser entrenadas como lo están siendo, pueden franquear sin problemas los límites de derechos fundamentales como el resguardo de la privacidad y la protección de datos personales. En un tiempo como el presente, para colmo, la Inteligencia Artificial acentúa la paradoja: las mismas personas que se rehúsan a compartir datos personales con entes públicos o privados, en paralelo, exhiben su intimidad en las redes sociales sin ningún tapujo.
También se incluyen apartados específicos para los desarrollos de compañías que se encargan del diseño de IA generativa. El Chat GPT, con la nueva norma, deberá aclarar a los usuarios que los textos e imágenes son elaboraciones de máquinas y no de seres humanos.
Alarmas que se acumulan
Si bien la Unión Europea ya había manifestado en 2021 su intención de regular la IA, la primera norma se concreta ahora como respuesta a la explosión que tuvo la IA, a partir de noviembre de 2022, cuando se presentó al público el Chat GPT. A pesar del vértigo con el que comenzó (millones de usuarios descargaron el programa en el término de días), pronto se observaron las notables capacidades de la Inteligencia Artificial para producir imágenes y todo tipo de contenidos falsos. Así, aunque no se conoce con precisión las consecuencias que podría tener alimentar la circulación de fake news en un escenario de posverdad, indudablemente no se trata de un buen auspicio para el derecho a la información, un aspecto basal de los sistemas democráticos. En contraposición a ello, el avance de las IA puede contribuir a una práctica de desinformación tan marcada que en el futuro cercano volverá cada vez más difícil la distinción entre lo verdadero y lo falso.
Frente a las imágenes del papa trapero o de Donald Trump siendo apresado, los empresarios y científicos que previamente lideraban el desarrollo de estos sistemas de inteligencia artificial, a comienzos de abril, solicitaron frenar todos los desarrollos por un tiempo. Una moratoria que pretenden extender por seis meses y que podría brindar un poco de oxígeno para que se creen las primeras regulaciones sobre el campo. Ese texto llevó la firma de referentes como el CEO de Twitter, Tesla y Space X, Elon Musk, y el cofundador de Apple, Steve Wozniak. La misiva, también apoyada por el best seller e historiador israelí Yuval Harari, fue publicada en el sitio del Future of Life Institute. En el texto, se podía entrever: "Los sistemas de IA con inteligencia humana-competitiva pueden suponer graves riesgos para la sociedad y la humanidad”; al tiempo que instaba a "planificar y administrar con el cuidado y los recursos correspondientes".
Hacia mediados de marzo, más de cien especialistas de la región realizaron un llamamiento para “una inteligencia artificial latinoamericana al servicio de las personas”. Fue en el marco del Encuentro Latinoamericano de Inteligencia Artificial 2023, realizado en Montevideo. Se trató de la primera vez que la comunidad científica y tecnológica de esta porción del mundo reflexionó desde una perspectiva de los derechos humanos sobre un fenómeno creciente en todos los ámbitos de la sociedad. Y fue la excusa para colocar en superficie la misma premisa: la IA debe ser regulada.