TENDENCIAS
Innovación

En la era de las Big Tech, la «libre elección» es una trampa

Un adolescente frente a un sistema de recomendación alimentado por inteligencia artificial no se encuentra en una situación de igualdad de condiciones.

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
11
mayo
2026

La palabra «libertad» tiene la virtud de parecer siempre incuestionable. El término cambia de significado según el contexto, pero cumple la función recurrente de situar al interlocutor en una posición incómoda, donde cuestionar el argumento equivale, casi por definición, a posicionarse en su contra. No resulta extraño, por tanto, que, ante cualquier intento de regulación por parte de las administraciones públicas, los ejecutivos de las grandes tecnológicas invoquen la libertad individual y se presenten como contrapeso a un poder estatal que, nos dicen, pretende limitarla, presentando así el debate como una falsa dicotomía entre libertad y regulación.

De ahí que cuando el presidente del Gobierno español anunció el pasado febrero nuevas medidas para proteger a los menores en el entorno digital, Elon Musk hablara de amenazas a la libertad de expresión y Pavel Dúrov alertara contra una deriva hacia un «Estado de vigilancia». Se trata de una respuesta predecible, aunque no por ello menos eficaz a la hora de convertir en un asunto de libertad individual lo que es, ante todo, una cuestión colectiva. Vale la pena, por tanto, detenerse en la lógica que hay detrás de esa fórmula, porque su eficacia reside precisamente en que oscurece el debate real.

No es una fórmula exclusiva del mundo digital. La industria del tabaco defendió durante décadas la «libertad de fumar» mientras los sistemas públicos asumían los costes sanitarios del tabaquismo. Los opositores al cinturón de seguridad denunciaron paternalismo estatal ignorando los daños colectivos de los accidentes. Cuando una actividad genera beneficios privados y costes sociales, cualquier límite a su desarrollo tiende a presentarse como una vulneración de derechos.

Cuando una actividad genera beneficios privados y costes sociales, cualquier límite a su desarrollo tiende a presentarse como una vulneración de derechos

El ecosistema digital no es una excepción. Las grandes plataformas obtienen beneficios extraordinarios mediante la captura de atención y la optimización algorítmica de contenidos, modelos que también producen costes sociales: deterioro de la salud mental, especialmente en menores, polarización informativa y la degradación del debate público. Para entender por qué, conviene reparar en cómo operan en la práctica.

Nadie elige en el vacío. Toda decisión ocurre dentro de un entorno que hace ciertas opciones más visibles, más accesibles o más atractivas que otras. Un supermercado que coloca los productos ultraprocesados a la altura de los ojos busca influir sobre qué compramos. Es una arquitectura de decisión. Las plataformas digitales operan bajo la misma lógica, pero a una escala cualitativamente distinta. No se limitan a influir sobre una cesta de la compra: configuran cómo nos informamos, cómo nos relacionamos y, en el caso de los más jóvenes, cómo construyen su identidad. Y a diferencia del supermercado, sus arquitecturas aprenden y se adaptan continuamente a cada usuario para orientar su comportamiento.

El scroll infinito, las notificaciones constantes, la reproducción automática o la priorización de contenidos emocionalmente intensos no son rasgos inevitables del medio digital, sino mecanismos orientados a maximizar nuestro tiempo de permanencia en una aplicación. No impiden que salgamos de ella, la opción formal de «cerrar sesión» existe, pero están construidos para que nos resulte difícil hacerlo.

Resulta paradójico, en ese contexto, invocar el fantasma de un «Estado de vigilancia». Las plataformas ya ejercen una forma de vigilancia en la medida en que diseñan las condiciones bajo las cuales elegimos, y lo hacen con objetivos comerciales precisos. El control sobre las arquitecturas de decisión que influyen en nuestra vida cotidiana existe, pero reside hoy en manos exclusivamente privadas y sin apenas contrapesos democráticos. La pregunta relevante no es, por tanto, si ese control existe, sino quién lo ejerce y con arreglo a qué criterios.

El control sobre las arquitecturas de decisión que influyen en nuestra vida cotidiana existe, pero reside hoy en manos exclusivamente privadas y sin apenas contrapesos democráticos

Este debate es especialmente delicado cuando hablamos de menores. Un adolescente frente a un sistema de recomendación alimentado por inteligencia artificial no se encuentra en una situación de igualdad de condiciones. Se enfrenta a un sistema que lleva años acumulando datos sobre millones de usuarios y que se ajusta en tiempo real a sus patrones de conducta. Ante esa asimetría de poder, es difícil sostener que alguien en proceso de formación pueda ejercer una libertad real.

Esa constatación ha llevado el debate al plano legislativo y judicial. Los recientes veredictos contra Meta en Estados Unidos, comparados ya con los primeros grandes juicios contra la industria tabacalera, sugieren que esta conversación ha dejado de ser exclusivamente política. En febrero de 2026, la Comisión Europea concluyó de forma preliminar que el diseño de TikTok vulnera el Reglamento de Servicios Digitales por sus funciones adictivas. En paralelo, varios Estados de la UE, entre ellos España, debaten restricciones de acceso para menores, y en Estados Unidos fiscales de distinto signo político han advertido sobre los riesgos de la interacción entre IA y adolescentes.

En el plano jurídico convergen aquí principios como el interés superior del menor, la protección de datos y el derecho al libre desarrollo de la personalidad, difícilmente compatibles con entornos diseñados para capturar la atención a costa del sueño, la concentración o la autoestima. Y conviene recordar que en una democracia constitucional ningún derecho es absoluto. La libertad de expresión, la propiedad privada o la libertad de empresa se ponderan con otros bienes jurídicos como la salud pública o la protección de la infancia.

Regular el diseño de las plataformas no constituye, en ese sentido, una excepción a ningún principio, sino la aplicación de una lógica jurídica consolidada: la ponderación entre derechos y bienes constitucionalmente protegidos. Tampoco equivale a censurar ni a demonizar esta tecnología, sino a reconocer que las plataformas se han convertido en infraestructuras sociales cuyo diseño tiene efectos que van más allá de sus usuarios directos.

Presentar ese debate como una elección entre libertad y regulación es, entonces, una forma de esquivar lo relevante. La regulación no restringe la libertad del ciudadano, sino la de quienes diseñan las condiciones bajo las cuales ese ciudadano elige. El diseño no es un destino inevitable, sino el resultado de elecciones empresariales e institucionales concretas que pueden tomarse de otra manera, apartándose de las lógicas exclusiva de mercado y sometidas a algún tipo de deliberación democrática. Así, la libertad no es la ausencia de límites, sino la capacidad colectiva de decidirlos.


Josu A. Eguíluz es profesor de Derecho Digital de Esade Law School; Irene Unceta es profesora de Datos, Analytics, Tecnología e Inteligencia Artificial de Esade; Liliana Arroyo es directora de la Chair for Socially Responsible Digital Innovation de Esade

ARTÍCULOS RELACIONADOS

La economía de la atención

Luis Meyer

Vivimos rodeados de estímulos y una existencia frenética. El precio a pagar es particular: nuestro tiempo es la moneda.

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME