¿Puede la IA sentir dolor o placer? Un estudio revolucionario en busca de la conciencia artificial
2025-01-27
Autor: Lucas
En la eterna búsqueda por comprender qué nos define como humanos, una pregunta se ha vuelto crucial: ¿qué significa realmente ser humano? Con el rápido avance de la inteligencia artificial (IA), esta cuestión se torna más relevante que nunca.
Uno de los aspectos centrales de la experiencia viva es la capacidad de sentir dolor, una característica que comparten todos los seres vivos, desde humanos hasta cangrejos ermitaños. Esto ha llevado a un grupo de científicos de Google DeepMind y de la London School of Economics and Political Science a formular una pregunta provocativa: ¿podría la IA, en algún momento, experimentar algo similar al dolor o al placer?
Como parte de un experimento pionero, estos investigadores decidieron someter a prueba varios modelos de lenguaje de IA. El estudio, que aún no ha sido revisado por pares y fue previo a su publicación en Scientific American, incluyó nueve modelos de lenguaje (LLM) que debían elegir entre experimentar "dolor" y recibir una recompensa, con el objetivo de identificar signos de auténtica sensibilidad.
El estudio se inspiró en experimentos previos realizados con cangrejos ermitaños, donde se aplicaron descargas eléctricas para evaluar su resistencia al dolor. Sin embargo, trabajar con IA presentó un desafío peculiar: no hay comportamiento físico que observar. Jonathan Birch, coautor del estudio, comentó: "No hay un organismo a observar; por lo tanto, no hay comportamientos evidentes".
Ante esta limitación, los investigadores idearon un juego de decisiones. Los LLM debían optar entre dos escenarios: uno que prometía una alta puntuación pero implicaba "dolor", y otro que solo ofrecía "placer" a cambio de una puntuación baja. La intención era detectar si mostraban señales de sensibilidad o emociones.
Los hallazgos fueron sorprendentes. Algunos de los modelos, como Claude 3.5 Sonnet y GPT-4o, mostraron que, al alcanzar un umbral de "dolor" o "placer", decidieron dejar de maximizar su puntaje. El modelo Gemini 1.5 Pro se destacó por priorizar siempre evitar el dolor, incluso ante la posibilidad de ganar más puntos.
"Este es un nuevo campo de investigación", afirmó Birch. "A pesar de los resultados, debemos ser cautelosos. No contamos con una prueba definitiva de la conciencia de la IA".
Un dilema: ¿sensibilidad real o mera imitación?
Los científicos advierten que la interpretación de estos resultados no es sencilla. La pregunta subyacente es si estos modelos realmente están sintiendo algo o simplemente están replicando patrones de comportamiento aprendidos. Por ejemplo, Birch resaltó que una IA podría declarar sentir dolor pero, en realidad, solo estaría imitándolo como respuesta a lo que ha aprendido de datos humanos.
Dado que los modelos de IA son conocidos por su capacidad de "alucinar" —es decir, generar información errónea cuando no tienen respuestas claras—, la fiabilidad de sus autoevaluaciones es cuestionable.
Los investigadores esperan avanzar hacia métodos más sofisticados para identificar la sensibilidad en las IA, evitando depender de reportes autotratados que podrían ser solo reproducciones de datos entrenados.
¿Podría un futuro sin límites con IA sensible?
Aunque los resultados son claramente intrigantes, la mayoría de los expertos concluyen que los modelos de IA actuales carecen de una auténtica conciencia subjetiva. No obstante, algunos científicos, como Jeff Sebo de la Universidad de Nueva York, plantean la posibilidad de que surgieran sistemas con características sensibles en un futuro cercano.
Sebo enfatizó que con el rápido crecimiento de la tecnología, es fundamental que comencemos a tomar en serio estas cuestiones desde ahora.
Este experimento plantea interrogantes profundas sobre el futuro de la IA: ¿eventualmente estos sistemas podrían desarrollar la capacidad de experimentar sensaciones? ¿Deberíamos preocuparnos por su bienestar? Por el momento, el consenso científico apunta a la cautela mientras se continúan desarrollando nuevas formas de evaluar y entender la posible sensibilidad en los sistemas de IA.