La caja negra de los algoritmos
Hoy en día sabemos poco sobre cómo funcionan los algoritmos. Sin embargo, entender el funcionamiento de estos sistemas permite saber por qué y cómo se tomaron ciertas decisiones en el mundo digital.
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2025

Artículo
Seguro te ha pasado: te encuentras en el pasillo de un supermercado, con el teléfono guardado en el bolsillo, y ves la sección de café. Una idea cruza tu mente: «Debería llevar un poco, porque se está acabando en casa». No lo verbalizas, solo lo piensas. Te acercas a la estantería, miras las opciones, pero decides posponer la compra. Unas horas más tarde, en la tranquilidad de tu hogar, abres el teléfono. En el feed de tus redes sociales o en las páginas que visitas, empiezan a aparecer anuncios de café.
Te asustas, crees que te vigilan. «Alguien lee mis pensamientos». Sin embargo, detrás de esa sensación de vigilancia orwelliana no hay telepatía, sino una red de datos, algoritmos y tecnologías diseñadas para anticipar tus intenciones (y compras), a través de tu móvil. Lo que percibiste como un simple pensamiento, el mundo digital lo interpretó como una señal de interés.
Pero muy pocos saben cómo funciona ese conjunto de instrucciones o reglas definidas que permiten resolver un problema o hacer un cálculo y que ha sido aplicado al mundo comercial para recomendarnos cosas. Los algoritmos están por todos lados: en el corrector del sistema de mensajes, en la aplicación que te recomienda una serie nueva (basada en las que ya has visto), en tu reloj inteligente que dice cuántas horas dormiste y cuántos pasos has dado, en tu buscador que te muestra noticias que podrían ser de tu interés y en los nuevos sistemas de inteligencia artificial.
«A medida que desarrollamos la inteligencia artificial para mejorar las capacidades humanas, también estamos confiando decisiones cruciales a algoritmos», dicen los expertos de Esade Business & Law School. «Nos hemos acostumbrado a que los algoritmos elijan los anuncios que encontramos o el contenido que consumimos». Y hoy también pueden determinar quién es el candidato ideal para un préstamo o un trabajo, e incluso quién debería ir a la cárcel y quién no.
La falta de transparencia puede llevar a decisiones que afectan a los usuarios
Vivimos en la era del algoritmo más fuerte. Sin embargo, sabemos cada vez menos sobre cómo funcionan y por qué toman ciertas decisiones frente a otras. Una reciente encuesta realizada por KPMG —entre 48.000 personas en 47 países para explorar el impacto de la IA en individuos y organizaciones— reveló que a pesar de que muchas personas emplean tecnologías basadas en IA, a menudo no son conscientes de que estas herramientas se apoyan en ella.
Por ejemplo, un 90% de las personas encuestadas utilizan redes sociales, pero casi la mitad (47%) desconoce que estas plataformas emplean IA. Aunado a ello, los resultados del estudio revelan que la confianza en la IA es limitada, ya que menos de la mitad de las personas encuestadas están dispuestas a confiar en ella. Un 72% tiene cierto nivel de aceptación o aprobación de los sistemas. Los modelos de IA se basan en el aprendizaje automático, que es un subcampo de la inteligencia artificial que se centra en enseñar a las máquinas a aprender por sí solas.
Estos funcionan a través de un proceso con tres partes claves: un algoritmo, que es el conjunto de reglas que el sistema sigue para aprende, los datos de entrenamiento, que son los miles de ejemplos (imágenes, textos o sonidos) que el algoritmo utiliza para encontrar patrones, y el modelo, que es el resultado del aprendizaje, una especie de conocimiento adquirido que el sistema usa para realizar una tarea. En esencia, el algoritmo aprende de los datos de entrenamiento para crear un modelo que las personas pueden utilizar, como el que se encuentra en asistentes virtuales o en sistemas de recomendación, explica Saurabh Bagchi, profesor de ingeniería eléctrica e informática en la Universidad de Purdue.
Dichos sistemas, así como otro tipo de productos digitales (el buscador de Google, Instagram o Netflix) utilizan un algoritmo de caja negra: un sistema cuyo funcionamiento interno no es visible para el usuario. «Algunos desarrolladores y programadores de IA ocultan el funcionamiento interno de las herramientas de IA antes de publicarlas. Esta táctica suele tener como objetivo proteger la propiedad intelectual», dicen los expertos de IBM Consulting. «Los creadores del sistema saben exactamente cómo funciona, pero mantienen en secreto el código fuente y el proceso de toma de decisiones. Por esta razón, muchos algoritmos tradicionales de IA basados en reglas son cajas negras», aseguran.
El empleo de algoritmos de caja negra pone sobre la mesa importantes consideraciones éticas, de acuerdo con Aritmética, una agencia especializada en estrategias de marketing digital. «La falta de transparencia puede llevar a decisiones que afectan significativamente a los usuarios sin que estos comprendan el porqué», detalla. Si los datos utilizados para entrenar un modelo contienen sesgos, ejemplifican los especialistas de Esic, como prejuicios raciales o de género, el algoritmo los aprenderá y perpetuará. «Si un conjunto de datos de contratación histórica muestra una preferencia por los candidatos masculinos, un algoritmo entrenado con estos datos puede favorecer a los hombres sobre las mujeres en futuros procesos de selección», advierten.
La caja negra no es un elemento estático, indica Harris Kyriakou, coautor de The Role of Artificial Intelligence and Data Network Effects for Creating User Value, en un artículo. Es decir que dentro de este sistema ocurren cosas que afectan después nuestras formas de consumir o ver el mundo. «Si no entendemos el funcionamiento de la tecnología, podemos perdernos lo que vaya sucediendo a medida que la plataforma aprenda».
COMENTARIOS