Aunque para algunos siga sonando a ciencia ficción o lo crean ajeno a sus vidas, lo cierto es que la inteligencia artificial ya está en el día a día de todos, en lo que hacemos, en lo que elegimos y en las decisiones que tomamos. Juan Pablo Manson investiga sobre inteligencia artificial e interfaces cerebro-computadora, es parte del equipo de desarrollo de una silla de ruedas inteligente controlada por el pensamiento humano, fue presidente del Polo Tecnológico Rosario y actualmente es docente de la Tecnicatura en Inteligencia Artificial de la Universidad Nacional de Rosario.
La inteligencia artificial es un campo de estudio y desarrollo de sistemas capaces de realizar tareas que normalmente requerirían de la inteligencia humana. En dicho campo, se desarrollan los “modelos de IA”, que pueden definirse como conjuntos compuestos por software, base de datos, lógica y redes neuronales, según expresa el investigador y aclara que básicamente toman una información de entrada y se espera que arrojen una predicción, una clasificación o se genere información a partir de lo que sabe hacer cada modelo.
El concepto, que nace en los años 50, fue pasando por distintas líneas de investigación. Tiene una rama de estudio más tradicional, la “IA simbólica” que tiene que ver con algoritmos, lógica, y técnicas de búsqueda que vienen de hace mucho tiempo y se aplican hasta el día de hoy. Otro campo, que es el que más creció en los últimos diez años, es el de redes neuronales, la “IA conexionista”, que se basa en modelos que están inspirados en la biología humana.
En la IA simbólica, los resultados son previsibles y se puede explicar por qué un sistema llega a una determinada conclusión. “Eso no pasa con las redes neuronales que tienen una cierta mística o magia porque una vez que fueron entrenadas, los resultados no son tan explicables”, dice Manson y reconoce que esa es una de las principales críticas, pero, a la vez, es la línea que está provocando más resultados disruptivos.
Redes profundas
Desde 2010 en adelante “hay un salto evolutivo que son las redes profundas gracias al hardware que permitió que se puedan utilizar esos modelos porque requiere de muchos cómputos. Las llamadas GPU (unidad de procesamiento gráfico) que son las placas de video principalmente orientadas a videojuegos, se empezaron a utilizar en ambientes científicos”, expresa.
A partir del “deep learning” aparecen los grandes modelos de Computer Vision que es lo que creció mucho en la década pasada. Eso permitió que haya sistemas con cámaras que puedan analizar y sacar conclusiones a partir de una imagen. Por ejemplo, detectar objetos, en qué posición están ubicados, su contorno, reconocer las caras o puntos clave de la misma y saber si está sonriendo, si está triste.
En 2017 aparecen los grandes modelos de lenguaje, producto de que se podían entrenar con estos servidores basados en GPU y surge un escalón llamado “transformers” que es otra arquitectura de redes neuronales. “Todas estas líneas se van apoyando sobre el trabajo anterior, como una pared a la que se le van agregando ladrillos”, explica.
Donde más crecieron estos transformers fue en el ámbito de procesamiento del lenguaje natural. “Pueden pensarse como si fuera el predictivo de un celular donde escribimos una palabra y nos sugiere la que sigue. Pero estos sistemas evolucionan tanto que, en vez de decir una palabra, ofrecen las próximas 200”. Eso permitió que se genere un diálogo natural a tal punto que es muy difícil poder darse cuenta si del otro lado hay una persona o una máquina contestando. Manson mencionó que Alan Turing fue uno de los pioneros al crear el test de Turing, una herramienta de evaluación de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este. “Eso está logrado”, sentenció.
Cabe destacar que estos sistemas fueron entrenados con muchos textos: wikipedia, blogs, foros, sitios de noticias, enciclopedias, papers, códigos fuente de computadoras. Entonces son capaces de entender el lenguaje humano y hasta encontrar determinados comportamientos o patrones de razonamiento que están implícitos en el texto y en la forma en que los humanos escriben.
¿Cuál es el resultado? Antes había que buscar al experto, ahora hay sistemas que parecen saber de todo y los tenemos al alcance de la mano. Eso es lo disruptivo.
La preocupación que se empieza a ver en estos momentos es el reemplazo del hombre por la máquina, especialmente desde diciembre pasado cuando apareció el chat GPT. Aunque no es el único modelo y hay otras alternativas, incluso de código abierto. “Es muy rápido, reciente y nos está movilizando a todos”. “Tenemos una herramienta nueva al alcance que incluso está corriendo de lugar al viejo buscador de google porque da una respuesta más precisa”, dice el investigador y considera que una vez que se incorpora, no se puede dejar de utilizar. En este sentido la ve como positiva para distintas áreas profesionales que pueden acceder a datos y estadísticas antes impensados.
Pero, por otro lado, cree que muchos trabajos pasarán primero por esta etapa de “potenciación” y luego a una de desplazamiento o reubicación porque estos sistemas siguen avanzando. ¿Qué va pasar cuando se le pida al sistema que desarrolle un software de tales características, donde se cargue información en un formulario, lo guarde en una base de datos y luego de los resultados? ¿Qué pasará con los desarrolladores de software? “Se van a reubicar, seguramente encontrarán otros nichos. No soy tan drástico, no creo en el corrimiento de la noche a la mañana”, dice.
Sin embargo, reconoció que hay algunos trabajos más propensos a ser reemplazados. Por ejemplo, los traductores, los asesores de viajes, los telemarketers, todos los digitalizados o que requieran puramente del lenguaje. “Si se logra armar un chat que dé esas repuestas es probable que una compañía, por una cuestión de costos, decida automatizar esas labores”, afirma. Por el contrario, los que trabajan de forma manual, relacionado al pensamiento crítico, orientado a la ciencia, a la investigación o por ejemplo con pacientes de la tercera edad, por ahora no se verán afectados.
En cuanto a las consecuencias negativas que ya se avizoran es esa capacidad de generar que abarca textos, imágenes y videos cada vez más realistas. Se le puede pedir que cree una imagen, una foto realista y que una celebridad como el Papa Francisco aparezca con determinada vestimenta. “Es muy difícil para el ojo humano y para los sistemas que intentan detectar estas situaciones, diferenciar lo creado artificialmente de lo natural”, remarca.
El investigador afirma que eso representa un peligro porque cualquiera podría generar un contenido falso a través de un video, foto, noticia, blog y además ser viralizado rápidamente. “El problema es que va tan rápido que no da tiempo a establecer las reglas del juego. Ahí es donde se deberían abrir las discusiones y ver en cada ámbito cuál es el tratamiento que se le va a dar, en el gobierno, en las empresas, en la vida personal”, propone.
La Universidad Nacional de Rosario a través de la Facultad de Ciencias Exactas, Ingeniería y Agrimensura y el Polo Tecnológico Rosario, el año pasado sumó una nueva carrera de pregrado: la primera Tecnicatura Universitaria en Inteligencia Artificial que se dicta en una universidad pública del país. La intención es dar un panorama general de la inteligencia artificial “con el desafío de estar surfeando la ola, que está cambiando de tamaño y hace que los contenidos tengan que modificarse de un año a otro y quizás de un mes a otro”, dice el docente sobre este desafío. “La idea es que los alumnos puedan lograr una aplicación concreta de la tecnología en los ambientes laborales”, afirma. Las cuestiones éticas también son parte del contenido: cómo tratar datos, las consecuencias, el impacto de lo que pueden provocar en lo que estén desarrollando. “Apuntamos a que los estudiantes conozcan y entiendan lo que se puede hacer con las computadoras y el impacto de su aplicación porque todo esto está cargado de mucha ciencia ficción”, concluye.
Más información sobre la carrera: https://web.fceia.unr.edu.ar/es/