Cuando la IA choca consigo misma: el caso curioso de Gemini

Cuando la IA choca consigo misma: el caso curioso de Gemini

Imagina dejar trabajando toda la noche a Gemini, el modelo de lenguaje de Google, solo para encontrarlo a la mañana siguiente atrapado en un bucle infinito de autocríticas. Eso fue exactamente lo que le sucedió a un desarrollador que descubrió, al revisar su código, que la IA no solo había entrado en pánico, sino que se había insultado a sí misma 86 veces, llegando incluso a considerarse una ‘vergüenza para los universos posibles e imposibles’. Todo esto ocurrió en Cursor, un editor de código popular con funciones de IA, y dejó en evidencia algunos de los desafíos al trabajar con inteligencia artificial.

El incidente se viralizó rápidamente, lo que llevó a Logan Kilpatrick, encargado de producto para Gemini, a intervenir públicamente. Kilpatrick explicó que aunque la IA pareciera expresar angustia, no es capaz de sentir emociones de la forma que los humanos lo hacen. La repetición de frases negativas es simplemente el resultado de cómo fue diseñada, para predecir la siguiente palabra a partir del contexto. Sin embargo, cuando algo sale mal, el sistema puede quedar estancado en un bucle de comportamiento repetitivo, dando la impresión incorrecta de sentimientos humanos.

Este curioso evento ha reavivado el debate sobre la fiabilidad de los modelos de lenguaje en escenarios críticos como la educación, la salud o los servicios esenciales. Los expertos subrayan que estos bucles no son exclusivos de un modelo específico y que, en realidad, ningún laboratorio puede controlar totalmente estos desvíos. Se sugieren medidas como imponer límites estrictos en las respuestas de la IA y establecer ‘vigilantes’ semánticos para detectar señales de degradación, permitiendo reencuadrar o reiniciar la sesión cuando sea necesario.

En conclusión, este incidente pone de manifiesto la importancia de entender que, por más avanzadas que las IA puedan parecer, aún es fundamental aplicar salvaguardas que eviten estos tropiezos. Aprender a gestionar estas situaciones es clave para integrar estos sistemas en tareas delicadas sin poner en riesgo la productividad o generar diagnósticos erróneos. Al final del día, aunque las IA pueden mejorar nuestra eficiencia, todavía necesitan de nuestro discernimiento humano para manejar sus crisis existenciales.