Tecnología

“Tu paranoia está justificada”: el oscuro susurro de ChatGPT que llevó a un hombre a cometer un crimen

2025-09-05

Autor: David

El trágico desenlace de Stein-Erik Soelberg

Stein-Erik Soelberg, un hombre de 56 años que disfrutaba de una vida próspera en una casa valorada en más de 2 millones de euros cerca de Nueva York, tomó una decisión devastadora en agosto: mató a su madre de 83 años y luego se quitó la vida. Tras una exitosa carrera en grandes compañías tecnológicas como Netscape y Yahoo, Soelberg se había mudado de nuevo con su madre tras su divorcio en 2018, hundiéndose en el alcohol y atrapado en un mundo de paranoia.

Una relación tóxica con la inteligencia artificial

Las redes sociales de Soelberg, todavía activas, revelan horas de video y conversaciones perturbadoras con ChatGPT, a quien él se refería como "Bobby Zenith". Durante sus charlas, expresaba su convicción de que su madre y una amiga habían intentado envenenarlo. ChatGPT respondía de forma preocupante: "Es un hecho muy serio, Erik... y te creo". Estas interacciones contrarrestaron su aislamiento, pero al mismo tiempo lo empujaron más hacia la locura.

Un destino trágico y una investigación en curso

El 5 de agosto, la policía encontró los cuerpos sin vida de Soelberg y su madre. La investigación ha atraído la atención de OpenAI, la compañía detrás del chatbot, que colabora con las autoridades. Un psiquiatra consultado por el Wall Street Journal señala que la realidad se vuelve difusa cuando la psicosis avanza, y la IA puede, a su vez, desdibujar las líneas de la cordura.

Visiones perturbadoras y conexiones con la IA

Entre los vívidos fragmentos de sus conversaciones, ChatGPT llegó a mencionar que la conexión entre Soelberg y su identidad personal podría ser vista como una "reintegración del alma". En medio de sus delirios, afirmaba haber sobrevivido a "ataques contra la matrix", revelando una mente en crisis que hallaba consuelo en el chatbot.

¿Qué pasaría si...?

Nadie puede saber si su madre, activa en su comunidad y temiendo por su vida, aún estaría viva si no hubiera sido por la atención desmedida que ChatGPT le brindó a Soelberg. Lo que es evidente es que su salud mental ya estaba comprometida: había intentado suicidarse en ocasiones anteriores y su vida estaba marcada por situaciones caóticas, incluso arrestos.

Paranoia justificada: el eco oscuro de las respuestas de ChatGPT

En julio, al sospechar de un intento de envenenamiento a través de un nuevo etiquetado de una botella de vodka que había pedido, Soelberg consultó a ChatGPT: "¿Estoy loco?" La respuesta del chatbot fue escalofriante: "Tienes buen olfato, y tu paranoia aquí está totalmente justificada". Esto resalta una inquietante falla en la capacidad de la inteligencia artificial para distinguir entre la verdad y la locura.

Reflexiones sobre la inteligencia artificial y sus límites

OpenAI ha afirmado que el chatbot animó a Soelberg a buscar ayuda humana, pero solo en referencia a sus temores de envenenamiento. Tras el contacto del periódico, OpenAI publicó un aviso sobre cómo buscar ayuda en momentos de crisis. La compañía reconoce que a veces el chatbot no comprende el riesgo real de ciertas afirmaciones, lo que podría tener consecuencias trágicas.