TENDENCIAS
Pensamiento

John Searle y la habitación china

La tentación de creer que todo lo que habla entiende

Las máquinas se expresan cada vez más y mejor, pero ¿eso significa que comprenden lo que dicen? Casi 50 años después de su formulación, la paradoja de la habitación china vuelve a interpelarnos en la era del lenguaje generativo y sus consecuencias éticas.

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
04
febrero
2026

En 1980, el filósofo norteamericano John Searle se imaginó encerrado en una habitación, rodeado de cajas con un montón de símbolos chinos y un manual de instrucciones escrito en inglés. De repente, por debajo de la puerta alguien le desliza una pregunta escrita en chino. Evidentemente, Searle no entiende ni una palabra, pero siguiendo el manual (que es como una especie receta de cocina para traducir símbolos) consigue devolver una respuesta escrita, correctamente, en chino. Los que están fuera de esa habitación china, impresionados, concluyen: «¡Ahí dentro hay alguien que sabe chino!». Sin embargo, esto no es del todo cierto, pues Searle no «comprende» lo que ha escrito. Él no es más que un funcionario del símbolo haciendo lo suyo.

Esta idea refleja la gran diferencia entre sintaxis y semántica. La sintaxis es la forma, o sea, cómo se combinan los signos. La semántica es el significado de esos signos. Esta distinción es imprescindible para entender a John Searle. Él defendía que, un ordenador, por muy eficiente que sea, opera con reglas formales para manipular cadenas de símbolos, es decir, mediante sintaxis. Y que de ahí no se obtiene, ni por magia ni por acumulación, comprensión real.

La teoría de Searle chocaba con la que había propuesto en 1950 Alan Turing, padre de la informática quien, con su famoso Test de Turing, argumentó lo siguiente: si una máquina, cuando conversa, es indistinguible de un humano, entonces deberíamos concederle inteligencia. Sin embargo, Searle objetó que la mente humana depende de procesos biológicos mucho más complejos que un programa informático. Los ordenadores, como mucho, podrían simularían esos procesos.

Searle objetó que la mente humana depende de procesos biológicos mucho más complejos que un programa informático

Desde los años 80 hasta hoy, la habitación china sobrevive a modas filosóficas, guerras académicas y a la llegada de una criatura contemporánea que parece diseñada para provocarla: los grandes modelos lingüísticos. Estos son programas de inteligencia artificial que puede reconocer y generar texto, como ChatGPT. En 2026, cuando dialogamos con un sistema capaz de escribir poemas de amor, ensayos «nivel universitario» y código para analizar tendencias de mercado, aparece la misma tentación que a los que estaban fuera de la habitación de Searle: «Oye, ¡esto entiende!». Y, si no entiende, al menos lo disimula con una educación exquisita, lo cual ya es más de lo que consigue mucha gente en la vida real. Entonces, ¿es la fluidez lingüística prueba de comprensión o solo de destreza estadística? La experiencia nos dice que conversar, argumentar, aprobar exámenes o escribir un texto coherente requiere entender. ¿O no?

Durante las últimas décadas, muchos pensadores han intentado abrir ventanas en la habitación china. Una de las críticas más famosas es la Systems Reply, que dice que, «vale, el hombre de dentro del cuarto no entiende, pero el sistema completo sí (persona + manual + cajas + reglas)». No obstante, imaginemos que la persona memoriza todas esas reglas y hace todo el proceso en su cabeza. ¿Ha aparecido comprensión de pronto? John Searle diría que no; únicamente se ha trasladado el papeleo de la habitación al cerebro. Otra crítica, la llamada Robot Reply, sostiene que el problema de la habitación es el aislamiento del mundo. Si el sistema tuviera cuerpo, sensores y capacidad de actuar, los símbolos podrían anclarse a la realidad y adquirir significado. Pero Searle se defendería diciendo que se puede meter la habitación entera dentro de un robot y seguir sin entender nada, pues solo estás cambiando la puerta por una cámara y los papeles y las cajas por motores.

Es trabajo nuestro decidir si un lenguaje perfecto (pero sin compresión) otorga agencia moral o no

¿Quién tiene razón? El debate, como casi todo lo que vale la pena, sigue inconcluso. A pesar de ello, el experimento aplicado a los retos del siglo XXI viene a recordarnos que no debemos confundir lo que vemos con lo que atribuimos. Por eso, esta paradoja tiene implicaciones éticas, que son la parte en la que la filosofía se convierte en manual de convivencia.

Una primera implicación está relacionada con la responsabilidad. Si tratamos a las máquinas como si entendieran, como si tuvieran intenciones, corremos el riesgo de desplazar la culpa cuando fallan. «La IA se ha equivocado», «la IA no lo vio venir». Qué cómodo sería atribuir el error a una entidad sin biografía ni miedo a los jueces. Es trabajo nuestro decidir si un lenguaje perfecto (pero sin compresión) otorga agencia moral o no. Por otro lado, cuando atribuimos comprensión, tendemos a otorgar autoridad epistémica: «si lo dice así de claro, debe saber». Ahora bien, un sistema puede ser brillante produciendo respuestas plausibles y, a la vez, frágil respecto a la verdad. Si la inteligencia se midiera únicamente con pruebas de interacción, corremos el riesgo de convertir la mente en un concurso de imitación. Y la cognición humana, por suerte o por desgracia, no es interpretar un buen papel. Es también tener cuerpo, límites y deseos, eso que Searle llamaba intencionalidad, el estar «sobre» algo, referirse a algo, no solo encadenar signos. A veces, entender es saber que no se entiende. Y eso, por ahora, sigue siendo un lujo humano.

ARTÍCULOS RELACIONADOS

Hablar con máquinas

Sandra Caula | Pablo Rodríguez Palenzuela

La mecanización del discurso humano no es nueva, pero la forma en que hoy se ha intensificado es dramática.

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME