El vertiginoso avance de la Inteligencia Artificial (IA) asusta incluso a sus propios creadores. A fines de marzo, Elon Musk, uno de los fundadores de OpenAI, junto a cientos de expertos del mundo, firmaron una petición para suspender por al menos seis meses las investigaciones en tecnologías más potentes que ChatGPT 4 debido a posibles “grandes riesgos para la humanidad”.
En este marco, el profesor e investigador adjunto del Conicet en el Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella Emmanuel Iarussi explicó que si bien la misiva "pone en agenda" el tema, también "exagera" ciertos peligros o miedos infundados.
En diálogo con AM750, el especialista explicó qué es un sistema de Inteligencia Artificial: "En la definición más clásica, los sistemas de Inteligencia Artificial son preparados, entrenados y construidos por humanos para imitar ciertas características del razonamiento humano. En general no lo logran en toda su amplitud".
"Lo que los distingue de otros algoritmos es que, uno como programador, no tiene que decir cuáles son las instrucciones para resolver un determinado problema, sino que lo aprenden por sí mismos. Se les escribe las reglas, un cierto conjunto de datos y estos algoritmos aprenden a extraer de ahí patrones para resolver problemas", señaló.
¿Por qué se habla ahora de Inteligencia Artificial?
La junta de firmas de algunos de los magnates y empresarios más importantes del área tuvo lugar en el sitio web del instituto Future Of Life, en la que se exige una “pausa a los experimentos gigantes de IA” hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial e instituciones capaces de hacer frente a la "dramática perturbación económica y política (especialmente para la democracia) que causará la IA".
La gran "revolución" comenzó en noviembre del año pasado, cuando se lanzó masivamente la "demo" de ChatGPT, un prototipo de chatbot de inteligencia artificial desarrollado por OpenAI que se especializa en el diálogo.
"Cada vez que interactuamos con un servicio de streaming o una red social, lo hacemos con un tipo de Inteligencia Artificial. Ahora quizás tenemos una demo, un producto que podemos utilizar masivamente que en cierto modo es mucho más humano que lo anterior", expresó Iarussi.
"Interactuar con un chatbot que nos hace dudar si es una persona o un robot fue lo que cambió respecto a las interacciones que teníamos con estos sistemas", subrayó.
Y agregó: "La carta que fue firmada por personalidades del área como Elon Musk o Bill Gates pone en agenda el tema, pero por otro lado exagera algunos de los peligros, que en todo caso podemos discutir".
Qué controles se pueden implementar en la IA y cuál es la situación en Argentina
Los expertos en tecnología bregan en la carta por un "apagado" de esta tecnología, por lo que el investigador del Conicet afirmó que esto solo se podría llevar a cabo si se "apagan" los servidores en Silicon Valley, y "no significaría que se apague la investigación en el área".
"En general queremos desarrollar las tecnologías para que nos hagan bien. En este caso no se pasó por una etapa previa de discusión en el ámbito científico y dentro de los distintos sectores de la sociedad para ver si queríamos tener esto disponible", remarcó.
Por último, Iarussi dijo que esta tecnología planteó "una serie de desafíos" a partir del comeinzo de este año, y, en cuanto a la posibilidad de regularlo en nuestro territorio, dijo que si bien no está tan al tanto "hay algún movimiento" a nivel nacional.