La jaula algorítmica que no vimos venir
La inteligencia artificial —IA— ha permeado en cada rincón de nuestra existencia y ya no hay sector que escape a su influencia. Sin embargo, ¿tenemos realmente menos problemas hoy que ayer?
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2026
Artículo
La inteligencia artificial —IA— ha permeado en cada rincón de nuestra existencia y ya no hay sector que escape a su influencia. Sin embargo, ¿tenemos realmente menos problemas hoy que ayer?
Las respuestas varían. Para algunos, la IA es un faro del progreso; para otros, una amenaza latente. Señal de que actualmente cada persona se relaciona con la IA de forma libre. Y esto es bueno, porque significa que vivimos en democracia. En libertad. Algo que debemos cuidar entre todos, que no se nos olvide.
El auge de la IA no puede generar una pérdida de democracia
Porque de lo contrario, nos puede pasar, como ya está ocurriendo, que nos ubiquemos en una realidad social donde la autonomía individual se vea gradualmente cercada por diseños algorítmicos opacos.
Para ilustrar esto, imaginemos tres jaulas. Cada una representa un proceso distinto mediante el cual la IA puede limitar nuestra libertad, a menudo bajo el pretexto de optimizar la productividad, aumentar nuestro ego o innovar.
En la primera jaula estaría capturado el regulador. En la jerga económica, esto se produce cuando una empresa, sector o lobby influye considerablemente en quienes diseñan las políticas públicas y las leyes. Esta influencia, que estamos viendo en los últimos tiempos por parte de las grandes empresas tecnológicas —Alphabet/Google, Amazon, Apple, Meta y Microsoft, las famosas GAFAM— se puede traducir tanto en intentos de descafeinar en su favor regulaciones como el Reglamento de IA de la Unión Europea —algo han conseguido por medio del Digital Omnibus—; como de promover narrativas que equiparan la regulación con un obstáculo al progreso.
Las consecuencias de ello son profundas, ya que no solo puede debilitar nuestra democracia y allanar el camino hacia una datocracia, sino que también puede amplificar las desigualdades sociales.
La datocracia sin conciencia no nos empoderará
En la segunda jaula, la IA habría capturado nuestros deseos, lo que pensamos e incluso lo que sentimos.
Por medio de la IA no solo se puede conseguir construir una realidad y una identidad virtual distintivas, sino que, al hacerlo, opera simultáneamente como un mecanismo de control. Este sistema puede restringir nuestras opciones bajo la apariencia de autonomía, creando la ilusión de libertad. Sin embargo, en realidad, nos mantiene confinados dentro de una estructura que delimita tanto nuestro espacio mental como físico.
Algunos sistemas de IA incluso moldean nuestras preferencias y distorsionan nuestra percepción de la realidad hasta volverla ultrasesgada. Y las consecuencias son palpables: polarización social, deuda cognitiva, debilitamiento del pensamiento crítico e, incluso, fomento de conductas suicidas.
Debemos preservar nuestra intimidad como un lugar sagrado
Las redes sociales, por su parte, no solo han trivializado el valor de lo privado —muchas veces con nuestro consentimiento pasivo—, sino que también, mediante prácticas opacas, son aprovechadas por algunos para explotar nuestra información con fines económicos o predictivos, sin plena conciencia del usuario.
Pero el problema no son solo las redes sociales. Mediante la captación de nuestra atención o la predicción de nuestro comportamiento, otros sistemas de IA consiguen moldear activamente nuestras mentes. Esta manipulación de nuestro espacio psicológico interior —forum internum— distorsiona el proceso mismo de formación de ideas y, por ende, socava la esencia de la libertad de pensamiento.
Esto contrasta radicalmente con ámbitos como la medicina o el derecho, donde la confidencialidad es sagrada para actuar en nuestra defensa y proteger nuestros intereses. ¿Por qué, entonces, en el mundo virtual permitimos que algoritmos o sistemas de vigilancia accedan libremente a lo que en otros marcos consideramos inviolable?
En la tercera jaula, quedaría atrapado el sentido de la justicia. Un concepto que, según la filósofa española Adela Cortina, descansa sobre dos pilares irrenunciables: la igualdad de oportunidades y el trato equitativo para todas las personas.
Este ideal se enfrenta a grandes desafíos desde el mismo instante en el que la IA, por un lado, ya se utiliza en todos los sectores críticos de los sistemas democráticos y, por otro, es una tecnología que no está al alcance de todos. Por ello, como se viene advirtiendo, existe el riesgo de que la finalidad puramente económica y geopolítica nuble a la finalidad social de la IA.
Especial atención requiere en este contexto la creciente implementación de la IA en el ámbito jurídico. Como profesional de los derechos humanos vengo observando con atención este fenómeno, consciente de que herramientas como la redacción automatizada de sentencias, la evaluación de riesgos de reincidencia o incluso la preparación de demandas, plantean dilemas críticos para garantizar derechos humanos tan importantes como son el acceso a la justicia, la igualdad ante la ley o la presunción de inocencia.
Los juristas tienen un papel clave en la era digital
Pero liberarnos de estas jaulas está en nuestras manos.
Para ello, es fundamental, en primer lugar, educar en derechos humanos. Esto es de suma importancia porque los derechos no son una cuestión de elección, sino garantías exigibles e inherentes a todos los seres humanos. Por ello, deberían de estudiarse a fondo en todas las escuelas, institutos y universidades. Porque una sociedad que comprende sus derechos es una sociedad que los defiende y los hace realidad.
Debemos evitar que la brecha digital sea una brecha de derechos
En segundo lugar, debemos evitar que la brecha digital sea una brecha de derechos. Para ello, es imprescindible desarrollar competencias digitales y de uso de la IA, no solo entre las personas mayores para que no se ubiquen en situaciones de exclusión digital, sino también entre los más jóvenes, quienes deben aprender a navegar en el mundo de la IA con autonomía, entendiendo que los sistemas inteligentes no son neutrales.
Y, por último, urge avanzar a nivel regulatorio de forma homogénea en todo el planeta. No solo para que se garantice la protección de los derechos humanos independientemente de si se ejercen offline u online, sino también para que se asegure un equilibrio entre la innovación en el campo de la IA y las garantías jurídicas de los derechos.
Por todo ello, si no queremos caer en mínimos de humanidad mientras la IA avanza, debemos entrenar nuestra capacidad para guiarla con ética y justicia, y de ello dependen las decisiones que tomemos hoy.
Rafael Merino Rus es analista y divulgador en materia de inteligencia artificial y derechos humanos, coordinador de proyectos en la Fundación Fernando Pombo y colaborador de otras organizaciones como OdiseIA.
COMENTARIOS