Ciencia

¿Por qué la inteligencia artificial nunca 'hablará' como los humanos?

2025-04-03

Autor: Isidora

En un mundo cada vez más digital, es común escuchar afirmaciones sobre la inteligencia artificial, como “la inteligencia artificial dice” o “los chatbots pueden entender el lenguaje”. Sin embargo, es crucial entender que estas afirmaciones son engañosas. La realidad es que la inteligencia artificial, en su forma actual, no puede 'hablar'.

La filosofía pragmática del lenguaje, particularmente la teoría de los actos de habla propuesta por John Langshaw Austin, nos ayuda a comprender por qué la inteligencia artificial no realiza un verdadero acto de habla y por qué confundir simulación con lenguaje auténtico es un error grave.

Actos de habla: más que palabras

Austin, en su obra *Cómo hacer cosas con palabras* (1955), sostiene que el lenguaje es una herramienta para operar en el mundo y no solo un medio para transmitir información. A través de lo que él llama actos de habla, las palabras generan cambios en la realidad. Por ejemplo, cuando decimos “te quiero” o “prometo”, realizamos actos de habla que implican intenciones y efectos en el receptor.

Para que un acto de habla sea considerado genuino, debe darse en un contexto donde los hablantes poseen intencionalidad y la capacidad de interpretar y responder adecuadamente. Sin este marco, el lenguaje se convierte en una mera repetición de palabras sin significado.

La intencionalidad es clave

Las inteligencias artificiales, al generar frases, no están 'hablando' en el sentido humano; simplemente utilizan algoritmos para estructurar palabras sin intencionalidad real. Esto significa que aunque un chatbot pueda seguir patrones de conversación, nunca tendrá el entendimiento profundo detrás de la comunicación. Por ejemplo, un chatbot puede decir “entiendo tus sentimientos”, pero esta comprensión es solo simulada.

Cuando ambos lados de la comunicación son máquinas, como en el caso de dos chatbots interactuando, no hay un verdadero acto de habla: todo es una simulación vacía. Este fenómeno también se presenta en interacciones hombre-máquina, donde la máquina puede ofrecer respuestas que aparentan ser comprensivas sin entender el contexto real detrás de la conversación.

Referencia a la 'habitacion china' de Searle

El filósofo John Searle amplía esta discusión con su famoso experimento mental de la 'habitación china'. En este experimento, una persona que no entiende chino sigue instrucciones para responder a símbolos chinos, generando la ilusión de que comprende el idioma. Searle utiliza este ejemplo para argumentar que los sistemas computacionales no poseen una verdadera comprensión, lo que refuerza la idea de que las máquinas como los chatbots carecen de intencionalidad real en la comunicación.

¿Nos acostumbramos a la simulación?

El problema se convierte en un dilema filosófico cuando consideramos cómo los usuarios tienden a antropomorfizar la inteligencia artificial, creyendo que interactúan en un diálogo real solo porque la máquina produce frases coherentes. Pero la falta de esas dimensiones intencionales y conscientes del habla hace que nuestras interacciones con las máquinas sean incómodas y extrañas.

La pregunta que nos enfrentamos es: ¿nos adaptaremos a la simulación de estas interacciones y las aceptaremos como una nueva forma de comunicación? O, por el contrario, ¿la inteligencia artificial evolucionará hasta el punto de desarrollar conciencia y capacidad de diálogo real? Solo el tiempo lo dirá.