En 2025, la desinformación sigue siendo un gran reto social con graves consecuencias para la salud, el bienestar y los derechos democráticos de las personas. Desde la interferencia electoral en Estados Unidos hasta el negacionismo científico durante la pandemia, o la búsqueda de culpables tras la Dana en España, las campañas de desinformación son utilizadas continuamente para sesgar la opinión pública, polarizar al electorado y destruir cualquier noción de realidad compartida.
No todo el mundo se ve afectado por igual. Por ejemplo, según estudios llevados a cabo en Estados Unidos, los votantes de extrema derecha son los más susceptibles a la desinformación: están varias veces más expuestos a ella y son más propensos a compartirla en sus redes sociales que los votantes de centro o de izquierdas.
Ante este panorama, urge entender por qué compartimos desinformación. Solo así podemos encontrar soluciones a un fenómeno que sigue en alza.
Incapaces de analizar la veracidad de la información
En el ámbito psicológico, se han propuesto varias teorías para tratar de entender nuestra susceptibilidad a la desinformación. Por un lado, el modelo cognitivo defiende que las personas nos creemos la desinformación porque no tenemos la capacidad o la motivación suficientes para analizar si una información es cierta. Esta perspectiva implica que concienciar a la población sobre la importancia de contrastar o evaluar la veracidad de la información puede ser suficiente para mitigar sus efectos.
Por otro lado, el modelo socio-cognitivo propone que las personas tendemos a creernos a pies juntillas cualquier información que reafirma nuestras posiciones ideológicas, sobre todo cuando beneficia a los grupos con los que nos sentimos identificados. De ser así, cultivar el espíritu crítico puede no ser suficiente para aplacar los efectos de la desinformación.
Un experimento con mensajes políticos
Para examinar estas dos propuestas teóricas, mi equipo de investigación y yo decidimos estudiar las bases psicológicas y neurobiológicas de nuestra susceptibilidad a la desinformación. Lo hicimos enfocándonos en la población que actualmente parece más susceptible a ella: los votantes de extrema derecha en España y Estados Unidos. Para ello, diseñamos una colección de publicaciones para la red social X (antes Twitter) falsas, donde diferentes líderes políticos lanzaban críticas al gobierno en base a varios temas de actualidad como la inmigración, los derechos de las mujeres y la unidad nacional. Las publicaciones incluían datos falsos sobre todos estos temas.
Por ejemplo, en una de las publicaciones un líder de extrema derecha afirmaba: «Sólo este año, más de 100.000 inmigrantes han asaltado nuestras costas por culpa del gobierno».
Nuestra intención era ver si el hecho de mencionar valores identitarios para el grupo –como las actitudes relacionadas con la inmigración– hacía que los votantes tuvieran mayor disposición a compartir las publicaciones, además de comprobar qué mecanismos cerebrales subyacían a la decisión de compartir la publicación con otras personas a través de sus redes sociales.
Para ello, realizamos un experimento online con 400 votantes de extrema derecha y 400 votantes de centro-derecha (que usamos como grupo control) en España, y 800 votantes republicanos en Estados Unidos, de los cuales más de 100 se sentían plenamente identificados con Donald Trump.
Este primer estudio comparativo entre España y Estados Unidos nos permitió comprobar que la mención de valores identitarios en las publicaciones de Twitter que habíamos diseñado aumentaba la disposición a compartir la desinformación en todas las muestras, independientemente de si se usaba un lenguaje más o menos incendiario.
Por otro lado, los republicanos que se identificaban plenamente con Trump, así como los votantes de extrema derecha en España, eran más propensos a compartir las publicaciones que el resto de los individuos.
Las personas más analíticas, ¿son más resistentes a la desinformación?
Otro resultado interesante fue ver cómo aquellas personas con mayor capacidad analítica eran más resistentes a la desinformación. Pero ojo: solo si esta no mencionaba valores identitarios. En definitiva, vimos que las menciones a valores de grupo, como por ejemplo los relacionados con la inmigración, motivaban a los votantes más extremos a compartir la desinformación, incluso si tenían una alta capacidad de análisis.
Las personas con mayor capacidad analítica son más resistentes a la desinformación
Tras estos resultados, quisimos indagar sobre los procesos cerebrales que acompañan a la toma de decisiones sobre si compartir o no desinformación. Para ello, reclutamos una muestra de 36 votantes de extrema derecha para un estudio de neuroimagen funcional.
Esta técnica permite obtener imágenes de la actividad cerebral mientras los participantes llevan a cabo una tarea como resolver un problema. La señal de actividad cerebral que obtenemos refleja el nivel de oxigenación de la sangre, lo que nos permite evaluar qué regiones cerebrales están metabólicamente más activas.
Una vez reclutados, los participantes rellenaban un cuestionario y completaban una tarea dentro de un escáner de resonancia magnética mientras obteníamos imágenes de su cerebro. La tarea era muy parecida a la que usamos en el experimento online: tenían de decidir hasta qué punto compartirían en sus redes sociales una serie de publicaciones de Twitter que contenían desinformación sobre temas clave para el grupo, como la inmigración y cuestiones de género.
El análisis de las imágenes cerebrales reveló una gran actividad neuronal en circuitos relacionados con la cognición social, es decir, con la capacidad para desenvolvernos en el entorno social. Parte de esta actividad se encontraba en circuitos asociados con nuestra capacidad para atribuir estados mentales a otras personas, como intenciones o deseos, una habilidad que se conoce como teoría de la mente. Otra parte se encontraba en regiones del cerebro que nos permiten adaptarnos a las normas.
Lo más interesante de todo es que la actividad en estas regiones cerebrales se disparaba cuando en las publicaciones se mencionaban valores identitarios para el grupo, pero no cuando solamente aparecían críticas al gobierno por otros temas menos relevantes, como el estado de las carreteras, por ejemplo.
Los valores identitarios nos obligan a posicionarnos
Nuestros resultados, y los de otros estudios similares llevados a cabo en Estados Unidos, sugieren que nuestro comportamiento online responde a una necesidad de vincularnos con nuestra audiencia. Además, nuestras investigaciones sugieren que invertimos muchos más recursos cognitivos en tomar decisiones que involucran valores identitarios.
Quizás porque, al mencionar estos valores, se crea una situación crítica que nos obliga a posicionarnos a favor o en contra. En esta coyuntura es importante saber predecir cuál es la respuesta apropiada para la audiencia a la que nos dirigimos.
Todo apunta a que las personas tenemos motivaciones partidistas para compartir desinformación
Compartir una publicación con un posicionamiento claro sobre la inmigración muestra a los demás que estamos totalmente alineados con el grupo. Por lo tanto, cumple una función social: es una manera de reafirmarse como miembro de un grupo.
Es más, cualquier miembro de un grupo con unos valores identitarios claros, no solo con ideología de extrema derecha, podría sentirse igualmente empujado a invertir recursos en estimar cuál es la respuesta apropiada delante de su grupo. Todo apunta a que las personas tenemos motivaciones partidistas para compartir desinformación. Y eso es algo que deberían tener en cuenta las intervenciones diseñadas para parar la difusión de desinformación.
Cultivar el espíritu crítico y contrastar información puede servir para combatir la desinformación en general, como se enfatiza desde instituciones como la comisión europea. Pero para aquellos con posiciones ideológicas extremas, es necesario buscar soluciones que tengan en cuenta los vínculos con su grupo y abordar su desconfianza en la sociedad.
Clara Pretus es neurocientífica y profesora de métodos en ciencias del comportamiento, Universitat Autònoma de Barcelona. Este artículo fue publicado originalmente en The Conversation. Lea el original.
COMENTARIOS