El algoritmo extremista
Estudios han demostrado que las redes sociales premian la polarización pues esta «engancha» a los internautas para que pasen más tiempo en las plataformas. ¿Está el algoritmo de YouTube empujando a sus usuarios a la radicalización?
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2024
Artículo
¿Está el algoritmo de YouTube empujando a quienes ven recurrentemente sus vídeos a la radicalización? Esa es una de las preguntas que se hacen los analistas, especialmente tras el éxito de algunas cuentas que publican contenido de extrema derecha. Lo cierto es que la cuestión está lejos de ser algo nuevo. Antes del inicio de la pandemia de covid-19, un estudio presentado en la conferencia tecnológica FAT en Barcelona ya concluía que «los usuarios migran constantemente de contenido más moderado a más extremo» en YouTube.
«Hemos encontrado fuertes evidencias de radicalización entre los usuarios», señalaban entonces los investigadores de la Escuela Politécnica de Lausana, la Universidad de Minas Gerais y la Universidad de Harvard. La tendencia se había acelerado desde 2016 y, detrás de esta radicalización, estaba el algoritmo que gestiona qué se ve en la red social. «El sistema de recomendación de contenidos permite a los canales de extrema derecha ser descubiertos, incluso en un escenario sin personalización», indicaban. YouTube rechazó de plano las conclusiones del informe, pero lo cierto es que no ha sido el único que ha ido en esa dirección.
De hecho, un estudio del Institute for Strategic Dialogue asegura que el algoritmo de YouTube premia el contenido conservador y cristiano. Estos eran los vídeos que tenían más probabilidades de ser recomendados, incluso a usuarios que nunca habían interactuado con contenidos de esa naturaleza o que no tenían interés por ellos. Y otro análisis de UC Davis confirmaba a finales de 2023 que las recomendaciones podían llevar a que se entrara en un bucle de consumo de contenidos de extrema derecha.
El algoritmo es el responsable del 70% de las vistas de la plataforma
La cuestión no es baladí, pues el algoritmo es el responsable del 70% de las vistas que se producen en la plataforma de vídeos. Por ello, los responsables del estudio del Institute for Strategic Dialogue consideran que las redes sociales tienen mucho que ver con la polarización de la sociedad actual. En la misma línea va la profesora de Sociología del Hunter College Jessie Daniels, que estudia cómo internet ha marcado la agenda política desde los años 90 y sus conexiones con el crecimiento de la alt-right estadounidense. Daniels cree que los datos confirman que a la plataforma le interesan mucho más sus beneficios y mantener el engagement que ser equilibrada en sesgos políticos o evitar las cámaras de eco.
Para ser viral, la verdad importa poco. «Nos dimos cuenta de que, si queríamos tener futuro en YouTube, había que impulsarse por la confrontación», le dijo a The New York Times el productor arrepentido de una de las cuentas de extrema derecha británicas Caolan Robertson. «Cada vez que hacíamos ese tipo de cosas, se viralizaba mucho más que cualquier otra», apunta. Cambiar la luz del vídeo para hacerlo más dramático o manipular la percepción con cómo se cortan y montan los vídeos está a años luz de la ética periodística, pero logra impactar y enganchar a la audiencia. Y no menos importante: alimenta la cámara de eco.
Los vídeos ya han jugado un papel importante en el éxito de movimientos extremistas, como ocurrió con el caso de QAnon, como cuenta en La vida secreta de los extremistas la investigadora Julia Ebner. «En un momento dado, los vídeos de QAnon eran los primeros en aparecer al buscar “Tom Hanks” en YouTube», escribe. Cuando se empezaba a buscar «la verdad de» en esta red, las sugerencias ya abrían, escribe Ebner, «un universo virtual de mentiras».
Lo que ocurre con el algoritmo de YouTube no es único. Las investigaciones han evidenciado también los sesgos y los bucles en los que entran los feeds de las demás redes sociales. Por supuesto, desde las propias redes se defienden ante las acusaciones e insisten en que tienen en marcha mecanismos con los que intentan limitar el alcance de la desinformación o los bulos. Sin embargo, desde el plano académico estas afirmaciones son recibidas con escepticismo. El hecho de que los algoritmos sean información protegida (no sabemos cómo funcionan porque, dado que son parte del secreto comercial de esas empresas, no se divulga cómo operan) complica el proceso de análisis.
A eso se añade que los mecanismos de control puestos en marcha se quedan tibios. «YouTube se mostró reacio a combatir el contenido extremista y que incitaba a la violencia», asegura en su libro Ebner.
Julia Ebner: «YouTube se mostró reacio a combatir el contenido extremista y que incitaba a la violencia»
«Las fórmulas que utilizan Facebook y YouTube para obtener beneficios se basan en captar y vender la atención de las personas», escribe la investigadora. Por eso premian los contenidos que atraen la atención y nada lo hace más que los que polarizan o atacan. Igualmente, se centran en aquellos intereses específicos de las audiencias, a las que arrastran a bucles temáticos. Un perfecto ejemplo para entenderlo está en uno de los capítulos de la serie Evil, en la que sus protagonistas investigan si hay algo sobrenatural en una red social. Como les dice una de sus ingenieras, su red no es demoníaca. Solo tiene un algoritmo capaz de detectar en segundos qué quieres ver de verdad y llenar así tu feed con esos temas. Nada sobrenatural en ello.
El impacto ‘offline’
«Hoy en día no hay usuario de internet que esté a salvo de las campañas de radicalización ni proceso electoral que sea inmune a la injerencia extranjera», asegura Ebner. Las redes de extremistas funcionan como «empresas emergentes fraudulentas», usando big data, inteligencia artificial y las preferencias de los algoritmos para llegar a las masas.
Y lo que pasa en las redes tiene un efecto directo sobre lo que pasa fuera de ellas. Ebner advierte de que la clase política también entra en el juego, porque al final son mensajes a los que sus votantes responden.
A eso hay que sumar los cambios de hábitos. La Generación Z ya no se informa en medios de comunicación tradicionales, sino en los feeds de redes sociales. Allí, los criterios de ética periodística importan muy poco y la polarización vende mucho más. Un rumor no puede ser nunca noticia en un medio de comunicación, que necesita contrastar datos, pero nada impide convertirlo en temática para un vídeo cualquiera en redes sociales. Cuando esto se hace de forma malintencionada, nacen los bulos y poco importa desmentirlos porque a su audiencia original ese desmentido no llega.
Ejemplos prácticos de cómo lo que circula en redes modifica las agendas políticas o las preocupaciones de la ciudadanía pueden encontrarse por doquier. Precisamente, este es uno de los elementos que protagonizan los análisis sobre la victoria de Donald Trump y es posiblemente clave para entender por qué la inmigración se ha convertido de repente en la principal preocupación para la población española, según los datos del CIS (superando al acceso a la vivienda). Asimismo, el papel de Twitter en los disturbios racistas en Reino Unido de este verano o la popularidad del bulo sobre el parking del centro comercial Bonaire en la DANA son otros ejemplos.
COMENTARIOS