Saber, entender y actuar: tres derechos clave en la era de la IA
Manual de defensa algorítmica
Saber, entender y actuar son los derechos clave del ‘Manual de defensa algorítmica’ de Esther Paniagua, publicado por Prodigioso Volcán: una breve guía para reclamar y proteger nuestros derechos frente a los algoritmos que ya influyen –y van a seguir influyendo– en nuestra vida
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2025

Artículo
¿Qué tienen en común un empleo denegado, una hipoteca rechazada, una ayuda pública cancelada y un diagnóstico médico incorrecto? No es un mal chiste. La respuesta, en muchos casos, puede ser la inteligencia artificial. Porque detrás de estas decisiones puede haber un sistema automatizado evaluándote sin que lo sepas.
En la actualidad ya se usan modelos algorítmicos para procesos vitales de todo tipo: desde la concesión de ayudas gubernamentales o créditos, hasta la selección de personal, la asignación de trabajo, la fijación de precios, la detección de fraude, la predicción del riesgo de violencia machista o la evaluación del alumnado. A veces, lo hacen bien. Otras, de forma sesgada, opaca o directamente injusta, como se ha demostrado en multitud de casos.
A menudo, el uso de este tipo de sistemas es invisible, y pasa desapercibido. Pero lo que no se ve, no se conoce y no se entiende, no se puede cuestionar. Por eso, reivindicar, ejercer y defender nuestros derechos ante la IA es tan importante. En concreto, el derecho a saber, a entender y a actuar si sentimos que se ha cometido una injusticia.
Estos son los tres derechos clave del Manual de defensa algorítmica (publicado por Prodigioso Volcán): una breve guía para reclamar y proteger nuestros derechos frente a los algoritmos que ya influyen –y van a seguir influyendo– en nuestra vida. Porque cada vez más aspectos de nuestra vida, desde los más cotidianos hasta los más decisivos, están mediados por sistemas automatizados.
Saber, entender y actuar
El derecho a saber nos permite conocer cuándo un sistema automatizado está mediando o interviniendo en un proceso. A menudo, está tan integrada que ni pensamos en ella, pero tenemos derecho a saber si estamos siendo evaluados, observados o tratados por sistemas automatizados, y bajo qué condiciones.
El derecho a entender en el marco de la IA es una ampliación de su versión anterior, relacionada con el concepto de «comunicación clara»: el derecho entender la comunicación unidireccional de las Administraciones Públicas y las empresas.
Trasladado al ámbito de la IA, sería el derecho que nos permite comprender de forma clara cómo funciona un sistema de IA, en qué momento y con qué propósito se está interactuando con él (directa o indirectamente) y cómo se ha llegado a un resultado que nos afecta. Es lo que llamamos «explicabilidad» e «interpretabilidad» de la IA.
Comprender cómo funcionan los sistemas automatizados que nos evalúan nos permite reclamar o impugnar ese resultado
Por último, una vez que hemos sido adecuadamente informados y hemos comprendido cómo el sistema automatizado ha llegado a un resultado determinado, el derecho a actuar nos permite reclamar, impugnar o influir en ese proceso o en su resultado. Es la facultad para intervenir de manera efectiva cuando un sistema de IA te afecta de forma negativa, injusta o poco transparente, y asegura algo muy importante: que las personas no sean tratadas como meros sujetos pasivos.
Victorias y base legal
El reconocimiento y ejercicio de los derechos a saber, entender y actuar frente a los sistemas de IA ha dado sus frutos. La defensa algorítmica ha demostrado tener un impacto real en la protección de derechos fundamentales y en la transformación de sistemas automatizados que eran opacos, erróneos o discriminatorios.
Muchas de estas batallas ganadas han tenido lugar en España. Entre ellas, la de VioGén, un algoritmo que se usa para evaluar el riesgo de las víctimas de violencia de género de volver a sufrir malos tratos y, en función de ello, activar las medidas de protección necesarias.
Una auditoría externa del sistema reveló serias deficiencias. Esto, junto con la presión mediática, hizo que el Ministerio del Interior anunciara cambios en el modelo para corregirlo.
Otro caso destacado es el de la Ley Rider, aprobada a raíz de las denuncias de trabajadores de plataformas digitales. Esta norma obliga a las empresas a informar a los comités de empresa sobre los parámetros en los que se basan los algoritmos y sistemas de IA que pueden afectar a los trabajadores y a las condiciones de trabajo, y a ofrecer explicaciones por determinadas decisiones automatizadas. En 2024, la Comisión Europea aprobó una norma similar.
En Europa y EEUU también hay numerosos ejemplos, que conocemos gracias al trabajo de académicos, auditoras, organizaciones de la sociedad civil y periodistas de investigación, y a personas que han dado el paso: que han ejercido sus derechos a saber, entender y actuar.
La ley les ampara. Normativas europeas como el RGPD o la Ley de IA establecen obligaciones en materia de transparencia e incluyen aspectos relacionados con los derechos a saber, entender y actuar. Por ejemplo, la obligación de identificar cuándo estamos interactuando con un sistema de IA, o los derechos al lenguaje claro, a la explicabilidad de la IA, a la supervisión humana y a no ser objeto de una decisión basada únicamente en el tratamiento automatizado.
El papel del sector privado
Las empresas son un aliado clave para facilitar el ejercicio de estos derechos. No es solo una cuestión de responsabilidad corporativa, sino de competitividad y de legitimidad. Las organizaciones que apuesten por una IA más transparente y responsable tendrán mejores productos y estarán mejor posicionadas en un mercado donde la confianza de los usuarios, clientes e inversores es imprescindible.
¿Cómo ser parte de la solución desde el ámbito corporativo? En el Manual de defensa algorítmica se incluyen nueve acciones específicas, entre las que se encuentra la ética por diseño desde estadíos iniciales, las evaluaciones de riesgos, las prácticas de transparencia, y facilitar vías de supervisión, reclamación y auditoría externa.
También se listan en el documento siete herramientas prácticas, como las evaluaciones de impacto algorítmico, los ejercicios de red team para simular ataques indebidos, las auditorías internas o los sistemas de monitorización automatizada de riesgos.
Defensa colectiva
Los casos reales analizados son batallas ganadas que muestran que ejercer estos derechos no solo es posible: es imprescindible. Es lo que permite desmontar sistemas injustos, proteger vidas y definir los límites de lo que consideramos aceptable.
Pero este camino no se puede recorrer en soledad. La defensa de nuestros derechos en la era algorítmica es una tarea colectiva que requiere vigilancia activa, colaboración y una ciudadanía informada. Además, la participación en asociaciones de consumidores y en organizaciones de la sociedad civil permite acceder a recursos legales, técnicos y comunicativos, y dar mayor visibilidad a las peticiones y demandas.
Las instituciones, por su parte, deben cumplir con su función protectora. No se trata de «poner puertas al campo», sino de construir un futuro digital próspero para todos, donde la equidad, la justicia y la rendición de cuentas no sean opcionales. La posibilidad de preguntar, entender y cambiar las cosas es lo que sostiene una sociedad verdaderamente democrática.
Esther Paniagua es periodista, analista tecnológica y autora del ‘Manual de defensa algorítmica’ (Prodigioso Volcán, 2025).
COMENTARIOS