El presidente Joe Biden asistió el jueves a una reunión en la Casa Blanca con los directores ejecutivos de las principales empresas de Inteligencia Artificial, incluidas Google (GOOGL.O) de Alphabet Inc y Microsoft (MSFT.O), para analizar los riesgos y las salvaguardas a medida que esta tecnología capta la atención de gobiernos y legisladores a nivel mundial.
La IA generativa provocó una carrera entre las empresas para lanzar productos similares que creen que cambiarán la naturaleza del trabajo. En este contexto, la gestión de Biden intenta poner freno a las desmedidas intenciones de alguna de las empresas tecnológicas que, ante el aumento de la demanda, cruzan límites morales, por el rédito económico.
"Las empresas líderes en inteligencia artificial (IA) tienen el deber moral de proteger a la sociedad de los peligros potenciales de esta tecnología", dijo este jueves la vicepresidenta Kamala Harris a los directivos de Google, Microsoft, OpenAi y Anthropic.
"El sector privado tiene el deber ético, moral y legal de asegurarse de la seguridad de sus productos", indicó Harris en un comunicado tras haberse reunido con Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) y varios miembros del gobierno.
La vicepresidenta señaló que la IA tiene el "potencial de mejorar la vida cotidiana y abordar algunos de los mayores desafíos de la sociedad", pero también podría "aumentar drásticamente las amenazas a la seguridad, reducir los derechos humanos y la privacidad y socavar la confianza pública en la democracia".
"Este gobierno apoya la implementación de nuevas regulaciones y de una legislación que las contemple", resumió la vicepresidenta.
La experiencia de ChaGPT
La Inteligencia Artificial está presente hace años en la vida cotidiana, desde las redes sociales hasta los electrodomésticos de alta gama y los programas de reclutamiento de personal. Sin embargo, el deslumbrante éxito desde fines del año pasado de ChatGPT, la interfaz de IA generativa de OpenAI, una empresa financiada por Microsoft, fue el punto de partida para una carrera hacia sistemas cada vez más intuitivos y eficientes, que son capaces de generar textos, imágenes y códigos de programación cada vez más complejos.
"Es bueno tratar de anticiparnos en el tema de la regulación. No va a ser fácil, pero creo que podemos llegar", expresó Harris a los periodistas antes de ingresar a la Casa Blanca.
Su lanzamiento despertó entusiasmo e inquietudes a una nueva escala. Especialmente cuando Sam Altman, el director de OpenAI, anticipó la próxima generación de la llamada IA "general", donde los programas serán "más inteligentes que los humanos en general".
Cuáles son los riesgos de la Inteligencia Artificial
Los riesgos de la IA van desde la discriminación hasta la automatización de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformación a gran escala, entre otros.
A fines de 2022, la Casa Blanca publicó un "Plan para una Declaración de Derechos de la IA", un breve documento que enumera principios generales como la protección contra sistemas peligrosos o falibles.
A principios de este año, el Instituto Nacional de Estándares y Tecnología (NIST), un centro afiliado al gobierno, diseñó un "marco para la gestión de riesgos" relacionado con la IA.
El presidente Biden dijo el mes pasado que estas empresas "claramente (...) deben asegurarse de que sus productos sean seguros antes de ponerlos a disposición del público en general". Sin embargo, "estas directrices y declaraciones no obligan a las empresas afectadas a hacer nada", subrayó David Harris, quien fue director de investigación en IA en Meta.
"Los propios patrones reclaman más regulaciones", remarcó, aunque Facebook, a pesar de haber "llamado públicamente" a mejorar las leyes que rigen la confidencialidad de los datos personales, "paga al mismo tiempo a lobbis que combaten estos proyectos de ley", denunció Harris.
La Casa Blanca anunció este jueves nuevas inversiones en la investigación sobre IA y nuevos métodos de evaluación de los sistemas actuales.