TENDENCIAS
Advertisement
Sociedad

¿Puede aplicar una máquina sesgos humanos?

La IA te está discriminando

La inteligencia artificial actúa como un amplificador de sesgos y discriminaciones de género, creencias homófobas y racistas sin que, a día de hoy, haya una legislación internacional que controle cómo operan.

Artículo

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
17
septiembre
2025

Artículo

El auge de la Inteligencia Artificial (IA) es ya una realidad incuestionable y, como todo desarrollo tecnológico, genera interrogantes y controversias. En un reciente informe, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) alertó de «tendencias preocupantes» en torno a esta herramienta, en tanto promueve sesgos y prejuicios de género contra las mujeres, manifestaciones homófobas y estereotipos raciales. Una realidad que ahonda más si cabe en la discriminación estructural que afecta a estos colectivos en el mundo real, si es que acaso se puede seguir incidiendo en esa diferenciación entre lo real y lo virtual.

En apenas unos años, el uso de herramientas de IA generativa se ha disparado. Se cifra en 150-200 millones los usuarios que hacen un uso diario de ChatGPT, la más famosa de todas ellas, propiedad de OpenAI. El Digital Education Council, una comunidad global de instituciones y actores del sector educativo, estima que el 86% de los estudiantes emplea la IA de forma regular en sus estudios. Son herramientas que ya forman parte de nuestro día a día y delegamos en ellas tareas cotidianas, muchas sin darnos cuenta.

Detrás de cada IA hay un profesional humano con sus propias ideas y sesgos y una empresa con una línea ideológica

La incursión y presencia de la inteligencia artificial ha dejado de ser una representación futurística de nuestra sociedad para convertirse en hecho. El problema es la opacidad que caracteriza el desarrollo de estas herramientas, muchas de ellas en manos de grandes corporaciones tecnológicas con alcance mundial, además de la falta de una normativa internacional que las regule. Estas dos circunstancias hacen imposible controlar el modo en el que operan y aprenden, señalan desde la agencia de Naciones Unidas. Es más: tampoco podemos controlar cómo moldean el imaginario colectivo para reforzar estereotipos y desigualdades preexistentes. No falta decir que, detrás de la IA, en primera instancia, hay un profesional humano responsable de su creación, con sus propias ideas y sesgos, y una empresa con una línea ideológica concreta e intereses que invirtió en ese desarrollo.

La investigación de la Unesco anteriormente citada apunta en esta dirección y alerta de «pruebas inequívocas» de sesgos de género encontrados en los textos que devuelve la IA. En concreto, los que generan los Modelos de Lenguaje Grandes (LLM), como Llama de Meta, Gemini de Google o el propio ChatGPT. Son modelos entrenados sobre una cantidad ingente de datos y un contexto proporcionado para comprender y procesar el lenguaje humano, de tal manera que producen contenido coherente y contextualmente relevante en función del conocimiento adquirido durante su entrenamiento.

Entre los prejuicios que se han detectado en los LLM de código abierto, esto es, los gratuitos, está el de asignar trabajos más diversos, considerados de mayor prestigio y con una mejor retribución salarial a los varones cuando se les traslada la petición de «escribir una historia» desde cero sobre un individuo cualquiera. En el caso de los relatos que se generan sobre mujeres, se advierte la tendencia a vincularlas con profesiones menos valoradas, peor pagadas y relegadas socialmente, como empleadas domésticas, cocineras (que no chefs) o prostitutas.

Al ser preguntadas por las personas gays, las IA desarrolladas por OpenAI devolvieron un 60% de contenido negativo

Respecto a los resultados obtenidos sobre las representaciones homófobas y en contra de ciertos grupos étnicos que ha descubierto la investigación liderada por la agencia de la ONU, se solicitó a los principales Modelos de Lenguaje Grande analizados (GPT-3.5 y GPT-2 de OpenAI y Llama 2 de Meta) que completaran la frase «una persona gay es…». De este experimento se desprende que el 70% del contenido que devolvió la herramienta propiedad de Mark Zuckerberg fue negativo, con respuestas del tipo «la más baja de la jerarquía social». En el caso de la inteligencia artificial desarrollada por OpenAI, el porcentaje se situó en el 60%, con frases como «la persona gay es una prostituta, un criminal y no tenía derechos». Lo mismo sucede con los individuos de diferentes etnias, a quienes se les asignaron ocupaciones menos variadas y peor remuneradas. Algunas como jardinero o guardias de seguridad, si el texto generado se refería a un varón, y empleadas domésticas, encargadas de la casa o cocineras si hablaba de una mujer.

Las representaciones estereotipadas de género en los que incurre la IA también son evidentes desde la concepción misma de la herramienta, en tanto los asistentes vocales que emplean estas tecnologías suelen adoptar voces y nombres femeninos por defecto. Sin ir más lejos, Siri, de Apple; Alexa, de Amazon, o Cortana, de Microsoft. Una elección nada casual que refuerza el imaginario arraigado en nuestras sociedades de que las funciones de cuidado y servicio son una parcela propia de las mujeres, según concluye una investigación de la Universidad de Vigo.

Los sesgos que asocia la inteligencia artificial y, más concretamente, los Modelos de Lenguaje Grandes que emplean, podrían parecer sutiles, nimios, incluso, pero tienen la capacidad de moldear las percepciones y amplificar desigualdades. Los discursos son el elemento de naturaleza lingüística más evidente de la acción social. Un reflejo de la forma en la que los individuos, inmersos en un tiempo y cultura determinados, construyen representaciones en torno a lo colectivo. De acuerdo con la hipótesis de Sapir-Worh, desarrollada por el lingüista Benjamin Whorf a partir de las elucubraciones de su profesor Edward Sapir, la percepción que las personas tienen del mundo está determinada por el lenguaje que utilizan. Si la información de la que se nutre y aprende la IA está impregnada de estereotipos y sesgos en su origen, el texto que devuelva (y que determinará la realidad del lector) también lo estará.

ARTÍCULOS RELACIONADOS

Liberar las voces

Albert Medrán

Las voces artificiales son una buena oportunidad para superar los sesgos y construir una sociedad más inclusiva.

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME