La inteligencia artificial ya aparece como una herramienta más de la vida cotidiana. Desde su irrupción popular, tan solo dos años atrás con el famoso ChatGPT, este desarrollo creció a un ritmo exponencial y está presente en el celular, en el trabajo, en las aulas y hasta en las galerías de arte. Pero la IA no es una herramienta más. Así lo explica en su último libro, Nexus, el historiador israelí Yuval Noah Harari, donde afirma que si bien no todos pueden ser expertos en inteligencia artificial, sí todos deben tener presente que esta “es la primera tecnología de la historia que puede tomar decisiones y generar nuevas ideas por sí misma”.
Harari dice que hasta ahora toda decisión sobre el uso de una herramienta terminaba en el humano. “Los cuchillos y las bombas no deciden por sí mismos a quién matar”, aclara. Pero la IA sí puede avanzar en este tipo de decisiones. Y no hace falta irse a un escenario bélico para verlo: puede decidir, por ejemplo, cuáles son los datos más importantes de un documento a la hora de resumirlo o qué palabras usar para completar un formulario.
Parados en este escenario se abre una cascada de preguntas acerca del futuro. Consultados por Página|12, un grupo de especialistas en IA respondió a una de ellas: ¿puede la inteligencia artificial cambiar la forma en que piensan, aprenden y generan nuevo conocimiento los humanos?
Que lo responda la IA
Carolina Tramallino es profesora adjunta de Lingüística General en la Facultad de Humanidades y Artes de la Universidad Nacional de Rosario e investigadora del Conicet en IRICE. Sus publicaciones se centran en el área de la lingüística computacional y de la inteligencia artificial. Desde allí hizo una serie de artículos donde indaga sobre cómo los estudiantes universitarios usan la IA en sus trayectorias académicas. En una publicación que hizo en la revista TE&ET reveló que un 90% de los estudiantes entrevistados aseguró haber usado el ChatGPT en ambientes educativos para resolver dudas relacionadas con los temas de estudio, estructurar textos, generar ideas, redactar mails o realizar correcciones de redacción.
Fernando Juca Maldonado, docente del área de tecnología de la Universidad Metropolitana, sede Machala, de Ecuador, publicó una investigación similar donde reveló que de un total de 247 alumnos encuestados, solo un 12% no estaba familiarizado con la IA. Los propios estudiantes reconocieron que usan esta herramienta para responder cuestionarios (18%), generar ideas (14%), analizar información (14%), resumir contenidos (10%) y generar contenido (8%) entre otras funciones.
Que la IA está instalada como una herramienta más en aquellos espacios clave de la enseñanza y generación de conocimiento es una realidad. Ahora cabe preguntarse qué consecuencias tendrá a largo plazo.
La IA y las tareas cognitivas
“La tecnología, por lo menos desde la revolución industrial, siempre reemplazó trabajo humano. Durante mucho tiempo lo que reemplazaba la tecnología, incluida la máquina de vapor, era el trabajo físico, la energía humana”, explicó Mariano Zukerfeld, doctor en Ciencias Sociales, investigador del Conicet y parte del Equipo de Estudios sobre Tecnología, Capitalismo y Sociedad.
El escenario cambió con la irrupción del capitalismo digital, que tuvo una primera etapa que fue desde mediados de 1970 hasta 2010 y una segunda etapa desde entonces caracterizada por las plataformas y la IA. “En la primera fase se empezaron a reemplazar tareas cognitivas rutinarias, por ejemplo, lo que hace un procesador de texto o una planilla de cálculo. Lo mismo respecto de aquellas tareas manuales rutinarias: la robótica empezó a reemplazar tareas físicas”.
“Lo novedoso desde 2005 es que se empezaron a reemplazar tareas cognitivas no rutinarias. Estas son, por ejemplo, las tareas creativas, que se consideraban reservadas para los humanos porque tenían un carácter de innovación, algo que era de creación. Esas tareas empezaron a ser realizadas de manera silenciosa, opinable, pero ya ahora de forma muy visible y asumida por algoritmos”, explicó.
Un ejemplo claro de esto está asociado con una noticia de los últimos días: el robot Ai-Da, un humanoide dotado de inteligencia artificial, caracterizado con un cuerpo humano y brazos mecánicos, realizó una obra que será subastada el próximo 31 de octubre con un precio base de 130.000 dólares.
La coevolución del pensamiento
Por su lado, Ricardo Andrade, licenciado en Letras, filósofo de la tecnología y becario del Conicet, explicó a este diario que efectivamente la irrupción de la IA implica un “gran reto a nivel educativo y en relación con problemas filosóficos y sociológicos”. Sin embargo, consideró que este reemplazo no tiene por qué ser necesariamente algo negativo.
“No hablaría directamente de una pérdida de creatividad. Habrá más bien un cambio en términos de coevolución. ¿Por qué? Porque a medida que la inteligencia artificial se perfeccione, puede proporcionarnos herramientas para explorar con mayor detalle conocimientos y procesar información que, sin su ayuda, sería muy difícil avanzar”, sostuvo.
Y añadió: “Sería importante apropiarse de esta conquista tecnológica para pensar en cómo ese procesamiento de información puede ofrecer herramientas para entender y abordar la realidad a través del conocimiento. En este sentido, la tecnología y la inteligencia artificial modificarán nuestros comportamientos y la forma en que generamos conocimientos, ya que tendremos que pensar en función de lo que estas herramientas desarrollen. Así, surge la tensión coevolutiva”.
Red flags, dudas y desafíos
Tramallino consideró, tras estudiar el tema en ámbitos universitarios, que “hay que alfabetizar para brindar herramientas que se relacionen con la selección de la información, con poder discernir la calidad de los datos y que se ejerciten las habilidades de inteligencia lingüística” frente al avance de las herramientas generativas. “El problema es que podemos perder todas las reflexiones meta-lingüísticas que implican activar saberes. Como, por ejemplo, pensar en qué sinónimo puedo elegir para una palabra, realizar todas las asociaciones de sentido y pensar cómo puedo expresar con otras palabras una misma idea”, dijo.
“La lectura implica una interacción con el texto. Cuando leo, elaboro un significado que es resultado de una confluencia entre el sujeto, el texto y los factores contextuales. En este caso, no hay sujeto. No hay un enunciador en las respuestas de la IA, no hay un sujeto que se apropie del lenguaje. Carecemos de todo ese contexto de producción”, afirmó sobre el uso de estas herramientas en los ámbitos educativos y alertó sobre la falsa sensación de objetividad que pueden brindar estos programas.
Sobre este punto de la objetividad, aclaró: "Lo peligroso es que se crea el efecto ilusorio de una objetividad. Es un texto que no está atravesado por la lectura propia. Podemos caer en el peligro de creer que la ciencia es simple y objetiva en este afán de querer crear una respuesta. Lo preocupante es que impide tener noción de los diferentes puntos de vista cuando lo más importante es poder generar un pensamiento crítico. Se pierde la capacidad crítica del estudiante que empieza con la gestión de la información, seguida de la comprensión lectora".
Por su lado, Juca Maldonado añadió: “Algunos trataban de aprovecharse del hecho de que generaba todo y no había que hacer esfuerzo, otros para que los ayude a generar ideas. Dentro del ámbito académico sigue siendo un desafío tanto para estudiantes como para docentes cómo implementarla de manera ética sin que te suplante. Porque ese es el riesgo”.
Maldonado tomó la idea de Harari y puso la mirada hacia adelante: “La IA es el primer invento autónomo del humano. Ahí está el rol de tratar de aprovechar el uso de la tecnología y que sea una herramienta más para el proceso de aprendizaje. No es usarla para que haga algo por mí. El tema va más allá, porque es un agente autónomo que puede convertirse en un asistente para hacer el día a día mejor”. O peor, se podría pensar. Y de qué depende es aún una pregunta abierta.