Los errores de ChatGPT está generando dudas respecto de la fiabilidad de la Inteligencia Artificial. En concreto, la versión de Bing está mostrando fallas similares a las "alucinaciones" (así las definieron sus creadores) del software original.
Por ejemplo, el programa responde con datos muy detallados pero falsos a preguntas disparatadas como cuál es el récord de cruza el Canal de la Mancha a pie. Así, los ingenieros de Open AI anunciaron que trabajan en mejorar el software para reducir e, incluso, eliminar esos errores.
Explicaron que hasta "los modelos más avanzados son propensos" a esas "alucinaciones"; esto es, a "inventar hechos en momentos de incertidumbre". Remarcaron que "son particularmente problemáticas en dominios que requieren un razonamiento de varios pasos, ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande”, agregaron.
También puntualizaron que es fundamental solucionar esto si el objetivo es poder tener una inteligencia artificial general (AGI). En ese sentido, los ingenieros trabajan para que los modelos se recompensen a sí mismos por generar datos correctos al moverse hacia una respuesta, en vez de recompensarse solamente en el punto de conclusión.
El modelo funciona en base a más de un conjunto de datos integrado por más de 800 mil etiquetas generadas por seres humanos. En las primeras pruebas fue posible ver resultados superiores a los que se consiguieron con modelos basados en la supervisión de resultados finales.
Sin embargo, aun falta para tener mejoras, con lo que será usual que ChatGPT genere datos incorrectos. Para ello, a la hora de bajar el margen de error, se necesita que las consultas sean claras y concisas. De esta manera, se evita que el sistema caiga en fallas. Si se pregunta sobre un músico del Romanticismo, por ejemplo, hay que sumar la mayor cantidad posible de datos de la época para que el chatbot entienda la orientación de la consulta.