Un funcionario de Australia amenazó con demandar a OpenAI, responsable de ChatGPTpor producir y difundir información falsa que lo vincula con un escándalo de corrupción y sobornos. Se trata de Brian Hood, alcalde de Hepburn Shire, quien intimó a la empresa a corregir la información o caso contrario iniciará una demanda por difamación. Sería la primera en la historia contra el sistema de inteligencia artificial.

La carta fue enviada el 21 de marzo y la empresa tendrá hasta el 18 de abril para corregirse o responder. Por ahora no hubo ningún intento de acercamiento hacia el alcalde, precisó la agencia Reuters.

“Es increíblemente dañino”, declaró Hood al The Sydney Morning Herald, alegando que los resultados falsos de ChatGPT dañan su reputación como alcalde. La demanda tendría un caracter histórico, ya que nunca antes se inició una acción legal contra el chatbot por difamación.

Qué dice la respuesta de ChatGPT sobre el alcalde australiano

Antes de ser alcalde de la localidad australiana al noroeste de Melbourne, Hood denunció una serie de sobornos a funcionarios extranjeros por parte de agentes de un negocio de impresión de billetes llamado Securency, que por entonces era propiedad del Banco de la Reserva de Australia.

Sin embargo, ante la pregunta qué rol tuvo en aquella saga, ChatGPT da otra versión y afirma que el alcalde "estuvo involucrado en el pago de sobornos a funcionarios en Indonesia y Malasia", y fue sentenciado a prisión. “Era tan incorrecto, tan salvajemente incorrecto, que simplemente me asombró. Y luego me enojé mucho por eso”, dijo Hood al medio local. 

Si bien una versión más actual de ChatGPT lanzada el mes pasado señala correctamente que Hood fue un denunciante -y cita la sentencia judicial elogiando sus acciones-, uno de los abogados del alcalde consideró que no impedirían el proceso, dado que “todavía exista una versión que repite las declaraciones difamatorias incluso hoy”.

En caso de iniciarse un juicio, el funcionario deberá demostrar que los robots inteligentes de empresas como OpenAI pueden producir respuestas incorrectas y comprobar que son responsables de sus falsedades. Asimismo, los abogados deberían probar que la imagen de Hood fue dañada a partir de una gran cantidad de visualizaciones de los resultados de ChatGPT.

Seguí leyendo: