TENDENCIAS
Innovación

Ética e inteligencia artificial

Cuando la reputación está en juego… y no es la de la IA

La inteligencia artificial ha entrado en nuestra vida diaria, y también en decisiones clave: desde plataformas que anticipan riesgos antes de una inversión, hasta sistemas que ordenan listas de espera médicas o detectan posibles fraudes.

Artículo

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
09
junio
2025

Artículo

La inteligencia artificial ha entrado en nuestra vida diaria, y también en decisiones clave: desde plataformas que anticipan riesgos antes de una inversión, hasta sistemas que ordenan listas de espera médicas o detectan posibles fraudes. Incluso en el ámbito judicial, como con COMPAS, que evalúa el riesgo de reincidencia de un acusado y condiciona decisiones judiciales.

Si estos sistemas de análisis y predicción ya plantean serios dilemas, la IA generativa, con su capacidad de imitar la interacción humana, presenta desafíos reputacionales aún más directos y visibles.

Y aquí viene la contradicción: mientras nos esforzamos por proteger nuestra reputación como personas, profesionales o empresas, cedemos decisiones importantes a sistemas inteligentes cuya propia reputación es ambigua. Confiamos en que la IA generativa nos ayude a brillar… sin detenernos a pensar que ella misma proyecta sombras. ¿Qué dice de nosotros esa contradicción? ¿Deberíamos pedir a nuestras herramientas los mismos principios que decimos defender? ¿O somos nosotros quienes debemos aportar el punto de luz final?

La IA generativa no tiene precisamente buena fama en cuestiones de ética. Hay desconfianza. Se le acusa de ser opaca, de tener sesgos, de ser poco humana: discriminación algorítmica, interpretabilidad en base a modelos de caja negra, etc.

Ahora pensemos en nosotros: ¿Nos gustaría que nos vieran como personas cerradas o insensibles? ¿Nos sentiríamos bien formando parte de una empresa que vulnera principios de equidad o empatía? Porque cuando un sistema inteligente decide por nosotros, también lo hace en nuestro nombre. Y eso también afecta a nuestra imagen.

¿Nos sentiríamos bien formando parte de una empresa que vulnera principios de equidad o empatía?

Y eso implica que nuestra reputación puede convertirse, fácilmente, en extensión de la de la IA. Decidir con IA generativa también es proyectar nuestros valores. Y en esa proyección, se juega también nuestra integridad.

Esta extensión de nuestra reputación a través de la IA implica que no basta con fiarse de la eficiencia o la precisión del modelo. La confianza no se construye solo con aciertos técnicos. Confiar implica entender, necesitamos saber cómo y por qué se toman las decisiones y qué hay detrás. Necesitamos transparencia, trazabilidad, responsabilidad. Porque cuando un sistema se equivoca, el impacto no es neutro: afecta a personas, contextos, futuros y a nuestra reputación profesional y corporativa.

¿Qué nos dolería más, que un sistema inteligente fallara o que lo hiciera alguien en cuyo criterio confiamos? ¿Y si fuera una marca, qué generaría un impacto reputacional mayor? Estas preguntas no son teóricas, tocan lo esencial de la confianza y la responsabilidad.

Coca-Cola, la marca icónica asociada al rojo de Santa Claus, recibió duras críticas al lanzar una nueva versión de su emblemático anuncio navideño de 1995 Holidays Are Coming. Se trataba de una actualización creada íntegramente con IA generativa y la intención de la compañía era combinar la tradición de la marca con la innovación tecnológica, pero la audiencia concluyó que al resultado le faltaba alma. ¿Hubieran sufrido tantas críticas de no ser un anuncio generado por IA? ¿El componente creativo humano hubiera asegurado mayor valor emocional y simbólico?

En abril de 2023, la revista alemana Die Aktuelle publicó en portada una supuesta «primera entrevista» con Michael Schumacher tras sufrir un grave accidente de esquí en diciembre de 2013 que le causó un traumatismo craneoencefálico severo. La entrevista iba acompañada de una fotografía sonriente del expiloto y, aunque en el interior se mencionaba que las respuestas no eran del piloto, sino que habían sido creadas por IA, la portada indujo a error a los lectores, generando una gran indignación pública.

Estos casos, y otros más, reflejan los riesgos reputacionales de usar IA sin control, criterio ni supervisión ética. La ética entra justo ahí: en entender que no basta con que el modelo funcione bien «en promedio», si sus errores comprometen principios que, como profesionales o instituciones, decimos defender. Según estudios de IBM o Gartner, más del 60% de las empresas reconocen no tener protocolos claros para el uso ético de IA generativa.

Más del 60% de las empresas reconocen no tener protocolos claros para el uso ético de IA generativa

La ética no es un freno a la innovación, ni tampoco la regulación. Ambas pueden ser grandes catalizadoras. Cuanto más conscientes seamos del impacto de nuestras herramientas, mejores decisiones tomaremos. La IA generativa tiene el potencial de mejorar lo que somos sin renunciar a lo que creemos. Pero depende de nosotros. Está en nuestra mano cambiar las sombras por puntos de luces.

De ahí la importancia de incorporar una mirada humanista a la hora de diseñar, implementar o, simplemente, usar soluciones de IA generativa. Pero una IA más ética no ocurrirá por arte de magia. Requiere intención, criterio y responsabilidad.

Esto no trata de demonizar la IA generativa. Bien aplicada, puede ayudarnos a tomar decisiones más justas, a reducir sesgos humanos, a anticipar riesgos o a crear productos más inclusivos. Hoy, parte del liderazgo es elegir bien las herramientas. Cuando pensemos en reputación, pensemos también en algoritmos.

Por eso, más allá del código y las matemáticas, todos necesitamos hacernos buenas preguntas. Todos tenemos un papel. Basta con recordar que lo que delegamos, también lo respaldamos. Y que la confianza que generamos como personas o instituciones también depende de con qué inteligencia decidimos actuar.

Es parte del reflejo que damos al mundo. De nuestra coherencia. De nuestra responsabilidad. De nuestra reputación.


María Díaz es directora de Comunicación, Marca y Relaciones Institucionales de Esade

ARTÍCULOS RELACIONADOS

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME