China anunció este martes que llevará a cabo una "evaluación de seguridad" de las herramientas de inteligencia artificial (IA), en medio del intento de los gigantes chinos por diseñar instrumentos similares a la plataforma ChatGPT. De esta manera, los asiáticos se suman a países como Estados Unidos e Italia, entre otros, que buscan legislar sobre estos prototipos para que no se vulneren los datos personales.
ChatGPT - el sistema que puede generar contenidos escritos de forma altamente coherente y muy parecidos a los creados por los humanos- se planteó como una revolución tecnológica, pero algunos alertan de los importantes riesgos que pueden traer consigo este tipo de herramientas, sobre todo en las cuestiones éticas y morales que conlleva su desarrollo y posterior utilización.
El sistema comete muchos errores en problemas matemáticos sencillos, pero también tiene una gran habilidad para fabricar información falsa. Y lo más sorprendente de todo es que sus respuestas son perfectamente plausibles. Un investigador le preguntó cuáles eran los beneficios de comer vidrio y ChatGPT se inventó una historia sobre por qué puede ser bueno para la salud.
En redes sociales resulta fácil encontrar casos en los que la IA de ChatGPT, según avanza la conversación, enlaza errores que, en ciertos casos, terminan incluso en consejos perjudiciales, por lo que se pone en juego además la manipulación.
La regulación a la revolución
Varios países europeos avanzaron en estrategias para mitigar los peligros de esta tecnología apoyada inicialmente por Elon Musk. Italia tomó la delantera y fue el primer país que decidió bloquear el uso de ChatGPT, por considerar que el sistema incumplía las reglas de protección de datos y no contaba con un proceso de filtros para menores. Esta semana, EE UU y China, anunciaron que comenzaran a "controlar" los programas basados en inteligencia artificial.
En este sentido, la Administración de Joe Biden dispuso de 60 días para reunir ideas sobre cómo legislar contra los efectos no deseados de estos programas, que suponen un riesgo en campos tan dispares como la privacidad, la desinformación o el mercado laboral.
En la misma línea, la Administración del Ciberespacio China anunció la implementación de un proceso de "seguridad" para regular los servicios de inteligencia artificial generativa y aseguró que quiere que las empresas presenten evaluaciones periódicas a las autoridades antes de lanzar sus productos al público.
En España, la Estrategia Nacional de Inteligencia Artificial presentó como principal objetivo proporcionar un marco de referencia para el desarrollo de una IA inclusiva, sostenible y centrada en la ciudadanía. Uno de sus puntos es el establecimiento de marcos regulatorios que delimiten y guíen el diseño de la IA, de forma que las aplicaciones resultantes respeten los derechos de la ciudadanía.
En Bruselas se dispuso que los contenidos generados por inteligencia artificial lleven una advertencia específica, y Francia, Irlanda y Alemania reconocieron contactos para analizar si seguirían estos pasos. Todos por el mismo motivo, proteger los datos.