Innovación

Impacto de la IA

10 malas jugadas de la inteligencia artificial

La inteligencia artificial no es perfecta, y varios ejemplos muestran sus sombras: puede hacer más profundas las brechas sociales, generar problemas nuevos o agravar la oleada de desinformación.

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
17
febrero
2025

La inteligencia artificial no para de crecer y se ha convertido en una de las grandes revoluciones del siglo XXI. De la IA se pueden extraer muchos beneficios: se emplea ya para diagnosticar enfermedades o encontrar tratamientos para males de difícil cuidado, ayuda a adelantarse a problemas y a gestionar mejor situaciones críticas o analiza ingentes cantidades de datos en tiempos muy reducidos.

Su elevado potencial no oculta, sin embargo, que no siempre ha funcionado como debe o que lo que ha generado ha tenido implicaciones negativas. Al fin y al cabo, la inteligencia artificial no es perfecta y sigue necesitando el control humano. Estos 10 ejemplos lo muestran.

La debacle de Microsoft

«Pedimos perdón por los tuits inintencionados ofensivos y dañinos de Tay, que no representan quienes somos o qué creemos, o cómo diseñamos Tay». Uno de los primeros escándalos virales protagonizados por la inteligencia artificial ocurrió ya en 2016. Microsoft lanzó en Twitter un chatbot llamado Tay (alimentado por la IA), como una especie de experimento buenrrollista sobre las conversaciones humanas. Se convirtió en una calamidad reputacional, porque la inteligencia artificial empezó a compartir contenidos racistas, sexistas y homófobos (Microsoft decía entonces que la culpa era de la información que los propios internautas daban cuando conversaban con el bot). La compañía retiró el chat y acabó pidiendo perdón.

Lo cierto es que no es la única mala pasada que la IA le ha jugado a Microsoft. En 2024, su chatbot MyCity recomendaba a los empresarios neoyorkinos cómo infringir las leyes en vez de darles consejos legítimos sobre emprendimiento.

Penas más altas para quienes no eran blancos

La inteligencia artificial hereda las brechas de la propia sociedad: al alimentarse con las grandes masas de datos que generan los seres humanos, si no se corrige, asume sus propios sesgos.

En EE.UU., los algoritmos hacían que las penas judiciales de las personas de color fueran un 20%

Como recuerda en El enemigo conoce el sistema Marta Peirano, el uso de algoritmos como apoyo para dictar sentencia llevó en Estados Unidos a que las personas de color recibiesen penas un 20% más largas que las personas blancas. Una investigación de la Unión Estadounidense por las Libertades Civiles (ACLU) descubrió que la IA concluía que era el doble de probable que las personas negras reincidiesen. Incluso, los castigos propuestos eran más duros en faltas mucho más leves dependiendo del color de la piel.

Amazon y sus recursos humanos

Se ha convertido en uno de los ejemplos paradigmáticos de los fallos de la IA. Amazon había decidido usar a mediados de la década pasada la inteligencia artificial para gestionar su captación de talento, ayudando a identificar las mejores candidaturas. Sin embargo, pronto descubrieron que su sistema tenía un importante sesgo de género. Como había aprendido de patrones de contratación previos, había heredado la brecha de género que había marcado la plantilla en áreas técnicas. La IA aprendió que las mujeres no eran buenas en esos trabajos y nunca las recomendaba. Amazon acabó abandonando el proyecto.

Empresas que han perdido dinero

En Estados Unidos, Zillow (una suerte de Idealista) tuvo que reducir plantilla y reorganizar sus operaciones en 2021 después de que un fallo en un algoritmo le llevase a sobreestimar el precio de venta de las viviendas.

Problemas con la atención al cliente

Dado que mantener una atención constante es caro y que las tasas de burn out de los trabajadores que gestionan estos servicios es muy elevada, se está poniendo en manos de chatbots alimentados por IA responder a preguntas, gestionar problemas e incluso adelantarse a pedidos. La lógica empresarial (reducir costes, evitar quemar a la plantilla) parece clara. Los resultados no lo son tanto.

Air Canada tuvo que indemnizar a un pasajero al que el chatbot de la aerolínea le prometió que recibiría un reembolso de sus billetes por un «descuento por duelo» que luego no existía. McDonald’s experimentó con IA en sus servicios drive-thru: fue un fracaso que generaba pedidos delirantes.

La IA toma el mercado editorial

En los trabajos creativos, apostar por la IA genera rechazo, como bien saben las editoriales. Las conversaciones sobre traducciones, diseños de cubiertas o ilustraciones hechas con IA se suceden: los lectores identifican a las editoriales en cuestión en redes sociales y se cuestionan si comprar sus libros. A eso se suma la avalancha de libros escritos por IAs generativas que llegan a la autopublicación (tanto que Amazon ha limitado el número de ebooks que se pueden subir al día a su servicio KDP).

Amazon ha limitado el número de ‘ebooks’ que se pueden subir al día a su servicio KDP

La dificultad de separar realidad de mentira

Aunque, quizás, entre los goles que nos ha metido la IA, los que la sociedad tiene más presentes, y a los que más teme, son aquellos que hacen más difícil que nunca separar la realidad de la ficción. Las fake news y los montajes se han convertido en mucho más creíbles que en el pasado. Ya han tenido efectos en procesos electorales o han ayudado en el crecimiento del populismo. Incluso ha aparecido una nueva corriente: la de crear deepfakes de gente normal para vender discursos políticos. Las redes sociales chinas, por ejemplo, están inundadas de vídeos de mujeres rusas que hablan de la buena conexión entre los dos países.

Esto también es algo tangible en la delincuencia. Los ciberdelincuentes ya están usando la IA para afinar sus timos y hacer que las víctimas piquen: por ejemplo, haciendo deepfakes protagonizados por famosos o clonando las voces de los seres queridos de sus potenciales víctimas en mensajes. Por supuesto, esto también ocurre a nivel corporativo: ahí está la empresa que perdió 25,6 millones de dólares por un deepfake tan logrado que convenció a su CFO.

Las rotas expectativas del mundo real

El choque que supone enfrentarse al mundo real a través de las expectativas infladas creadas por IA también es una de sus sombras. La muy viral Willy’s Chocolate Experience es la versión graciosa de lo que podría ser un problema mucho mayor. El evento se celebró en Glasgow y su reclamo eran imágenes generadas por IA que prometían una experiencia inmersiva y que estaban a años luz de la realidad. Los ríos de chocolate eran, en realidad, una animadora repartiendo chuches. En un caso similar, miles de personas esperaron en el centro de Dublín un desfile de Halloween que no existía: la fuente era un listado en una web que había sido escrito por una IA.

¿Necesitas vitaminas? Come rocas cada día

A principios de 2024, Google anunció que empezaría a utilizar IA para resolver búsquedas en Estados Unidos con el servicio AI overviews. Las delirantes respuestas se hicieron rápidamente virales: a un usuario le recomendó comer rocas todos los días y a otro que echase un poco de pegamento en la pizza para que el queso quedase bien pegado en la masa (son alucinaciones, uno de los problemas más importantes de la IA generativa). Google hizo ajustes, lanzó a todo el mercado estadounidense el servicio en verano y lo llevó a 100 países en octubre (pero no los de la Unión Europea).

Las alucinaciones son uno de los problemas más importantes de la IA generativa

Sus elevados costes energéticos

Pero la principal mala jugada de la inteligencia artificial es una de las que resultan más invisibles: sus elevados costes energéticos y su pesada huella medioambiental. Las necesidades de electricidad que requiere la IA son elevadísimas y, a medida que crece su uso y su presencia, van subiendo.

ARTÍCULOS RELACIONADOS

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME