Tecnología

¡Increíble! OpenAI Descubre la Razón Detrás de los 'Delirios' de las IAs: No Saben Decir 'No Lo Sé'

2025-09-08

Autor: María

Las IAs y sus sorprendentes 'alucinaciones'.

La inteligencia artificial está sorprendiendo al mundo, pero ¿sabías que a menudo da respuestas erróneas? Estas respuestas, aunque pueden parecer coherentes y seguras, frecuentemente son completamente inventadas. Imagina que una IA te recomienda usar pegamento en la pizza para que el queso se adhiera mejor... ¡un consejo nada recomendable!

El misterio de las alucinaciones.

Las alucinaciones de estas IAs no son simples errores; OpenAI ha profundizado en este fenómeno y ahora publica un informe revelador. Según sus hallazgos, estas alucinaciones son provocadas por "presiones estadísticas" durante el entrenamiento y la evaluación de las IAs.

La 'Adivinanza' como Problema.

En el proceso de entrenamiento, los sistemas de IA son incentivados a 'adivinar' respuestas en lugar de reconocer su propia incertidumbre. Esto es similar a un estudiante en un examen difícil que opta por elegir cualquier respuesta en espera de tener suerte.

Las complejidades del aprendizaje.

Durante la fase de pre-entrenamiento, estos modelos analizan patrones lingüísticos a partir de vastos corpus de texto. Sin embargo, los métodos estadísticos que utilizan pueden llevar a errores. Generar un texto coherente es infinitamente más complicado que responder con un simple "sí" o "no".

Nuevas soluciones en el horizonte.

Para abordar este problema, OpenAI propone una clasificación binaria denominada "¿Es Válida?" (Is-It-Valid). Este sistema ayuda a los modelos a discernir entre respuestas correctas y erróneas, fomentando un poco más de 'humildad'.

La evolución de GPT-5.

La última versión, GPT-5, ha mostrado una notable reducción en la tasa de alucinaciones. Este modelo se abstiene de responder un 52% de las veces, en comparación con solo un 1% de o4-mini. Aunque o4-mini tiene un leve ventaja en respuestas correctas, sus errores son significativamente más altos.

¿Premios por Acertar?

Los estudios actuales se enfocan en la tasa de aciertos, lo cual puede ser engañoso. Aunque las IAs continúan mejorando en precisión, las tasas de alucinaciones son preocupantes y muchas veces deberían resolverse con un simple "no lo sé".

La respuesta está en la penalización.

Similar a un examen de opción múltiple, donde una respuesta incorrecta resta puntos, OpenAI sugiere implementar penalizaciones por error para las IAs. Esto podría hacer que, en lugar de arriesgarse a adivinar, opten por abstenerse cuando no están seguras de la respuesta.