El Chat GPT se presentó en noviembre de 2022 y en apenas un año y medio ya hace historia. De hecho, la ingeniera Consuelo López explica que, probablemente, se trate de la tecnología con “penetración más rápida que ha visto la humanidad hasta el momento”. Los números le dan la razón: más de 100 millones de personas ya realizan pruebas en las distintas opciones disponibles. Hace apenas unos días, Open IA, la compañía responsable de la creación del bot conversacional, lanzó una nueva versión que está dotada de habilidades sorprendentes. Fue bautizada Chat GPT 4-o --esa “o” se relaciona con el prefijo “omni”, es decir, “todo”--, se puede usar en procesadores de escritorio y es gratuita, aspecto muy positivo que las diferencia de otras de pago. La expectativa es muy grande porque en unas semanas estaría disponible este novedoso instrumento de IA que combina texto, audio e imagen a una velocidad inusitada. De hecho, aunque aún no salió al mercado, ya hay una demo que entusiasma.
Si bien al comienzo el chat era comparado con Google, en verdad, se trata de un instrumento más emparentado a asistentes como Alexa o Siri, aunque con una potencia mucho mayor. Para empezar, oye, habla y traduce en tiempo real. Ya no será necesario aprender algún idioma si se dispone de esta herramienta que habilita relaciones humano-máquina de una manera mucho más natural y fluida. Según informaron desde la compañía, su velocidad de respuesta tiene un promedio de 320 milisegundos, un lapso que se acerca con bastante precisión al tiempo de demora en un diálogo llevado adelante entre personas. Para este objetivo, pone en juego una misma red neuronal que tiene la capacidad de reportar emociones de los hablantes humanos, interpretar tonos y captar ruidos de ambiente.
Al respecto, sobre esta necesidad de cambiar el enfoque del chatbot y comenzar a perfilarlo como un asistente personalizado, Emmanuel Iarussi, investigador del Conicet en el Laboratorio de IA de la Universidad Torcuato Di Tella, señala: “Lo más interesante de esta nueva versión viene de la mano de las interacciones ‘multimodales’, es decir, la capacidad para interactuar no solo mediante texto, sino también con audio y video. OpenAI empezó a pensar su producto como un asistente, no solo como un chatbot. Quizás tenga algo que ver con el acuerdo en el que vienen trabajando con Apple para que OpenAI sea quien desarrolle las próximas versiones de Siri”.
Robots humanos
A pesar de que no hay acceso a una versión final, ya se multiplicaron los videos en redes sociales que muestran, a partir de una demo muy avanzada, aquellas actividades que podría habilitar la versión 4-o. Se puede ver a padres haciendo la tarea junto a sus hijos siendo guiados por el chat en los nuevos aprendizajes; así como también a científicos que adjuntan archivos de miles de páginas y reciben resúmenes de apenas 2 mil palabras en pocos segundos, ya que puede recibir documentos adjuntados o capturas y discutir al respecto. En medio minuto puede entregar decenas de gráficos que sintetizan la información de un trabajo realizado durante años; y es capaz de aconsejar sobre lo bien o mal que el usuario está vestido para una entrevista laboral. Asimismo, cuenta historias con más o menos emoción según se le solicite con un registro por demás convincente.
“Me impresionó mucho el video en el que se ve a Greg Brockman, presidente de OpenAI, interactuando simultáneamente con dos de estos asistentes, que a su vez pueden hablar entre sí y hasta cantar a dúo”, ejemplifica Iarussi. Y continúa entusiasmado: “Lo novedoso en este caso es el hecho de que ahora las computadoras puedan usar el lenguaje natural para hablarse entre sí. Jugando un poco a la ciencia ficción, podríamos imaginar escenarios en el que diferentes agentes o IAs (por las siglas en inglés de Application Programming Interface) se ponen de acuerdo mediante el lenguaje para resolver un problema específico. Creo que es muy interesante desde el punto de vista de la interoperabilidad y la colaboración entre varios sistemas expertos”.
A pesar de todas las incertidumbres en torno a los avances, de algo se puede estar seguros: las inteligencias artificiales cada vez parecen menos artificiales. Hasta el momento, la chance de expresar emociones era algo que se reservaba para los seres humanos, pero ya no más. El CEO de Open AI, Sam Altman, aseguró en sus redes: “Nuestro nuevo modelo GPT-4o es el mejor que hemos hecho. Es inteligente, es rápido, es multimodal nativo".
Para poder acceder, los usuarios deberán crearse un perfil en la web oficial de Open AI y luego de registrarse ya estarán en condiciones de emplear la herramienta. Lo más significativo de todos estos avances reside en que las versiones que se conocen, por intermedio del aprendizaje automático, se van alimentando de los múltiples estímulos de los usuarios y se perfeccionan. De hecho, quienes prueban las últimas versiones describen que, a diferencia de las previas, el chat se lleva mejor con otros idiomas diferentes al inglés. Eso representa un paso hacia adelante en la medida en que los ejemplares anteriores no funcionaban de manera adecuada para otros lenguajes.
Privacidad, desinformación y otros grises
Las mismas potencialidades que encandilan del Chat GPT podrían volverse una debilidad. Conscientes de ello, y tras los aprendizajes con versiones anteriores, las pruebas para esta nueva tecnología fueron chequeadas por 70 especialistas en psicología del lenguaje y prácticas de desinformación.
Un punto oscuro que se relaciona no solo con el famoso chat bot sino con toda la IA se vincula con la protección de la privacidad. ¿De qué manera se guardan los datos que los usuarios brindan cada vez que interactúan con un robot? ¿Cuán seguros se puede estar de que no son almacenados en ninguna parte? En concreto, y a pesar de lo distópico del enunciado, ¿qué pasa si algún mal día las máquinas se vuelven en contra de sus creadores? Un interrogante para el que no hay respuesta y que, además, no solo deberá ser respondido por la compañía Open AI, sino también por otros tanques de la industria como Google y Meta que, en paralelo, se suman a la carrera al desarrollar sus modelos lingüísticos inteligentes.