Un chatbot que no ‘alucine’ es simplemente imposible, según investigadores de OpenAI

Un chatbot que no ‘alucine’ es simplemente imposible, según investigadores de OpenAI

Imagina que consultas a tu asistente de inteligencia artificial sobre un tema importante y te da información que parece convincente pero resulta ser completamente falsa. Esto es lo que los expertos llaman ‘alucinaciones’ de los chatbots, y según una investigación reciente de OpenAI liderada por Sam Altman, este problema no tiene solución con la tecnología actual. La revelación llega en un momento crucial, cuando cada vez más personas confían en estas herramientas para obtener información precisa en su vida diaria, desde consejos médicos hasta ayuda con tareas académicas.

Los investigadores de OpenAI han llegado a una conclusión contundente: las alucinaciones son una limitación estructural inherente a los grandes modelos de lenguaje (LLM) que no puede superarse simplemente aumentando la cantidad de datos o la capacidad computacional. Estas alucinaciones se originan como errores en la clasificación binaria, donde el modelo, al no poder responder ciertas preguntas, simplemente adivina. Un ejemplo revelador mencionado en el estudio muestra cómo un chatbot insistía en ofrecer títulos incorrectos sobre la tesis doctoral de uno de los investigadores, demostrando cómo estas ‘invenciones’ pueden afectar incluso información personal verificable.

La solución propuesta por los investigadores implica un cambio radical en el enfoque: penalizar más las respuestas incorrectas dadas con confianza que las no respuestas. Esto significaría entrenar a los chatbots para que admitan cuando no saben algo, en lugar de inventar respuestas plausibles. Sin embargo, esta solución presenta un dilema importante para la experiencia del usuario. Como señala Wei Xing, profesor de la Universidad de Sheffield, imagina recibir constantemente respuestas ambiguas o admisiones de ignorancia del chatbot que consultas precisamente para obtener respuestas claras. ¿Seguirías usando una herramienta que te dice ‘no lo sé’ en una de cada cuatro consultas?

El desafío económico también es significativo. Desarrollar modelos capaces de evaluar múltiples respuestas posibles y estimar grados de certeza sería extremadamente costoso computacionalmente. Mientras que esto podría ser viable en sectores críticos como medicina o finanzas, no resulta práctico para los millones de usuarios que hacen preguntas cotidianas. Esta tensión entre precisión y usabilidad representa uno de los mayores retos que enfrentan los desarrolladores de estas herramientas, que hasta ahora cuestan más de lo que aportan en muchos casos de uso.

En definitiva, la investigación de OpenAI nos enfrenta a una realidad incómoda pero necesaria: debemos aprender a convivir con las limitaciones de la inteligencia artificial actual. La solución no está en eliminar completamente las alucinaciones, sino en desarrollar una relación más consciente y crítica con estas herramientas. Como usuarios, necesitamos entender que los chatbots no son fuentes infalibles de información, sino asistentes que pueden equivocarse. El verdadero avance podría estar no en perfeccionar la tecnología, sino en mejorar nuestra capacidad para utilizarla de manera responsable y complementaria a nuestro propio criterio.