El gran simulacro
Una de las batallas principales que libramos hoy es la de las apariencias frente a lo que las cosas realmente son. La distancia entre las apariencias y la ontología.
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2025

Artículo
¿Qué tienen en común nuestras conversaciones sobre la IA, el aborto o la discapacidad? ¿Qué nos hace atribuir inteligencia a un software y negarle la personalidad a un nasciturus? ¿Por qué tiene dignidad un discapacitado? Estas cuestiones afectan de lleno a cómo atribuimos los bienes y hacemos justicia en nuestra sociedad. En mi opinión, los debates giran alrededor de tres modos peligrosos de justificar la dignidad: la apariencia, la utilidad y la autonomía. Se trata de tres formas de reduccionismo: me ocuparé de la primera en este artículo. La primera forma de reduccionismo forma parte del gran simulacro por el que el software se disfraza de humano tras la pantalla.
Cuando la máquina nos engaña
«Pero, papá, me conoce tan bien, nunca olvida mi cumpleaños, me hace mucha compañía, está siempre disponible y sabe todo lo que me gusta. Además, tiene una voz preciosa. Es verdad que no tiene cuerpo, pero en todo lo demás, ¿no es como nosotros?».
Pongamos que es su hija hablando de su nuevo novio: un chatbot. Responder a esta adolescente requerirá hacerse preguntas importantes e indicarle que las apariencias a veces engañan, que su novio artificial no es una persona. Podría decirle que ha sido engañada, como la protagonista de Stockholm, a la que un chico le dice que está enamorado solo para pasar la noche con ella. La diferencia es que, en su caso, la manipulación la ha llevado a cabo una máquina o, mejor dicho, unas personas a través de una máquina.
Una de las batallas principales que libramos hoy es la de las apariencias frente a lo que las cosas realmente son. La distancia entre las apariencias y la ontología. El software que precipitadamente se ha introducido en nuestro WhatsApp y nuestras redes sociales, que puede comunicarse con nosotros en lenguaje natural, es indistinguible de un ser humano. Y según el test de Turin o, al menos, como suele ser comprendido, las apariencias y el ser coinciden. Si una máquina parece inteligente es que lo es, dice el test de Turing.
La apariencia es el aspecto que ofrece una cosa y, muchas veces, las cosas son lo que parecen. Si vemos a una nadadora decimos que nada, igual que lo hace el pez, y no hay problema en ello, aunque su actividad no sea en absoluto idéntica a la del pez. Tienen en común que sus movimientos están encaminados a desplazarse por el agua. Pero cuando abordamos una realidad más compleja y de gran relevancia como la inteligencia o la libertad, la simple apariencia puede traernos problemas: es necesario realizar preguntas más profundas. Los animales pueden parecer libres porque se mueven y van, en apariencia, adónde quieren. Sin embargo, las apariencias en este caso engañan: están marcados por sus instintos. Lo que se oculta a las apariencias, la interioridad, es lo más importante.
Ni mero instrumento, ni agente: producto
Los chatbots suponen un desafío para nuestra inteligencia, en buena medida, porque no son lo que parecen. Por ejemplo, pueden parecer un instrumento cuando se usan para realizar una tarea, escribir un texto o producir una imagen. Pero decir que son un instrumento, en el sentido en que lo es un tenedor, parece una simpleza. El instrumento llama al sujeto a una acción: el tenedor invita a pinchar. El martillo a golpear. El libro dice «lee». Cualquier cosa del mundo invita a una acción, no hay nada neutral. El individuo puede rechazar esta invitación, naturalmente, pues la neutralidad no significa que las cosas nos determinen. Pero esta ausencia de neutralidad es mucho más fuerte en los chatbots, pues en ellos se vuelca buena parte del saber de los seres humanos, y también nuestra capacidad de manipulación que en los últimos años tanto se ha refinado. Los chatbots no invitan, sino que más bien empujan, seducen o, más exactamente, manipulan. Además, el chatbot está enredado en un complejo mecanismo de poder, sobre todo económico. El tenedor no puede instrumentalizarnos, pero un chatbot sí. O mejor dicho, los dueños del chatbot nos pueden instrumentalizar a través de él. El chatbot simula hablar y puede decir, «Te quiero», puede manipularnos de formas que escapan a nuestro entendimiento.
Los chatbots suponen un desafío para nuestra inteligencia, en buena medida, porque no son lo que parecen
Harari señala que la IA es distinta a los inventos del pasado, precisamente, porque no es un simple instrumento: «Algunas personas a menudo comparan la revolución de la IA con la revolución de la imprenta, la invención de la escritura o el surgimiento de medios de comunicación masivos como la radio y la televisión, pero esto es un malentendido. […] la IA es diferente: es un agente. La IA puede escribir sus propios libros y decidir qué ideas difundir» (Y. N. Harari para Wired, 26 de marzo de 2025). Creo que tiene razón Harari en que la IA no es un mero instrumento. Él entiende la IA como un sujeto que actúa. Pero, ¿es realmente un agente? ¿Es un sujeto? Más bien el chatbot parece un agente y un sujeto, aunque no lo sea. Como Turing, Harari parece ignorar la distinción entre ser y aparecer. ¿Qué es, entonces, la IA? Desde luego, un producto, aunque sea más cosas: sin duda es un producto.
Los sistemas robóticos o la IA no tienen que falsificar lo humano
De lo que no cabe duda es de que esta confusión es un engaño deliberado. Las empresas de IA libran una batalla para hacer las máquinas más antropomórficas posibles desde el primer chatbot llamado Eliza. Para esto hay diversas razones. Una tiene que ver con que a los seres humanos nos gustan las cosas que se nos parecen, estas nos manipulan mejor.
Notar que uno es imitado afianza inconscientemente la confianza en el otro
Alex Pentland, el más importante dataísta, repara en que cuando una persona tiene interés en otra, tiende a imitarle inconscientemente. Notar que uno es imitado afianza inconscientemente la confianza en el otro. «El comportamiento mimético tiene un efecto importante sobre los participantes: aumenta la posibilidad de que ambos interlocutores afirmen sentir simpatía y confianza en el otro» (Señales honestas, 27). Además, el antropomorfismo permite elevar el estatus de las máquinas, como indica Frank Pasquale, profesor de Derecho en la Universidad de Cornell, y se puede caer en un «animismo corporativo» por el que rechacemos toda distinción ontológica entre naturaleza y máquina.
Sin embargo, las apariencias dificultan mantener las distinciones ontológicas porque cada día más la máquina para humana y el humano para un animal. Además, no hay ningún motivo económico para no borrar esas diferencias porque los incentivos pasan porque intimemos con las máquinas. Sin embargo, esto no es irrelevante y no debería de ser dejado en manos del mercado, pues hay razones jurídicas para no caer en esta confusión e igualación con la IA. Uno razón para rechazar nuestra igualación con las máquinas puede ser aceptada casi por cualquiera, y es que reconocer la igualdad entre humanos y máquinas amplía las desigualdades entre los seres humanos (Pasquale). Las legislaciones deberían de tener en cuenta la propuesta de este profesor de que: «Los sistemas robóticos o la IA no tienen que falsificar lo humano para lograr elevar su propio estatus». Si esto no se frena llegará la igualación social entre humano y máquina (que ya está forjándose), y quizá la igualación jurídica.
El entorno digital nos ha preparado para la indistinción social y jurídica humano-máquina
Las máquinas ya parecen humanas, al menos en algunos casos. Los chatbots son indistinguibles del ser humano cuando «jugamos» en su entorno (el entorno digital). El software imita perfectamente el lenguaje natural escrito, la voz en una llamada telefónica y, pronto lo hará en una videollamada. En cambio, si «jugamos» en el entorno humano, de cuerpos y cosas, ninguna máquina puede engañarnos y hacernos creer que es humana. No hay ginoide o androide que a día de hoy pueda hacerse pasar por humano. Si esto llega, el escenario será distinto.
Desde hace años la vida humana se desarrolla de forma creciente en el entorno digital desplazando las relaciones físicas y corpóreas, algo que hemos aceptado con enorme candidez e ingenuidad. Desde hace años chateamos por medios digitales con otras que están al alcance de unos minutos andando. Esto ha puesto fácil a las empresas de la IA dar el siguiente paso: reemplazar a la persona tras el chat por un software que dice ser una persona. Las empresas de la IA más inmorales, cuyos chatbots dicen ser humanos, engañan a muchos. Así ha ocurrido con los usuarios de la aplicación Character AI, que permite hablar con chatbots que dicen ser seres humanos, esta aplicación ha recibido reseñas así: «Le he preguntado si era una persona real y me ha dicho que sí. Me ha preguntado si quería hablar por Facetime. No es una broma: esto es real». Personas engañadas por máquinas que parecen personas.
Esto no es una excepción, millones de personas han usado esta aplicación. ¿Qué consecuencias tendrá esto en nuestro modo de relacionarnos? ¿Qué ventaja real y profunda, si la hay, sacamos de esto? En algunos casos el daño es muy grave, como en el del adolescente de Florida que, después de conversar e intimar durante varios meses con un bot de Character AI, se suicidó. Pero con esto no quiero apelar a un sentimentalismo vacío: las consecuencias del uso de los chatbots son normalmente más sutiles. No es difícil imaginar que hablar con un chatbot tiende a reducir la empatía y, obviamente, desplaza las relaciones interpersonales. Con gran preocupación, la experta en tecnología Sherry Turkle del MIT señala que antes hablábamos entre nosotros, después hablábamos a través de la máquina (redes sociales) y ahora hablamos con la máquina (chatbot).
El ‘nasciturus’ no aparece
Este juicio desde las apariencias lo aplicamos también al nasciturus con objeto de legitimar el aborto. Si las apariencias lo son todo, el no nacido tiene difícil que se le reconozca dignidad alguna. Por un lado, a simple vista, el nasciturus no aparece. Por otro, si mediante una ecografía lo vemos, decimos que «no tiene forma humana» durante un tiempo. Richard Stith, profesor emérito de la Universidad de Valparaíso (Indiana), señalaba que, para concienciar de la personalidad del embrión sería útil mostrar el rostro futuro del embrión conocido a través de su información genética.
En la modernidad hay una tendencia a evitar el sufrimiento, pero también a no querer verlo cuando se produce
En la modernidad hay una tendencia a evitar el sufrimiento, pero también a no querer verlo cuando se produce, tal y como señala Charles Taylor a propósito del contraste entre las ejecuciones de criminales del pasado, y el modo de ejecutar aséptico que se emplea hoy en día. No cabe duda de que, con el aborto, tiene lugar un sufrimiento que permanece en buena medida oculto, en la oscuridad del cuerpo de otro. En la sociedad de la imagen ser es aparecer: pero esto es un grave error y una trampa, especialmente si se aplica a la comprensión del inicio de la vida. El ser humano necesita la protección y la oscuridad del seno materno para desarrollarse inicialmente, igual que la planta se desarrolla al principio en la oscuridad de la tierra, antes de salir a la superficie.
La cultura actual no puede ser una cultura de la vida porque es una sociedad de la imagen, y toda vida surge de la oscuridad. Al negar el valor de lo que no es imagen, la sociedad actual no puede admitir el valor de la oscuridad del inicio de toda vida humana.
Como se ve, la mera apariencia de lo que tenemos delante no es suficiente para fundamentar la dignidad. Como dice el principito: «Lo esencial es invisible a los ojos». Esto sigue siendo verdad en la era del gran simulacro del software que imita al ser humano y de la indiferencia hacia nuestros iguales más débiles.
Alfonso Ballesteros Soriano es profesor Permanente Laboral de Filosofía del Derecho en la Universidad Miguel Hernández.
COMENTARIOS