¿Se pueden prohibir las redes sociales a menores?
El uso de redes sociales entre menores plantea riesgos importantes para su salud mental y su privacidad, pero ¿es posible prohibir su acceso?
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2026
Artículo
Desde que el presidente del Gobierno, Pedro Sánchez, anunciara su intención de restringir el acceso de menores de 16 años a las redes sociales, se ha debatido mucho sobre esta propuesta, pero también sobre su viabilidad. ¿Cómo se va a hacer efectiva esta limitación? ¿Cómo se va a controlar el acceso a estas plataformas? ¿Sobre quién recae la responsabilidad?
Esta medida formará parte de la futura Ley Orgánica para la protección de los menores en el entorno digital, cuyo proyecto ya planteaba elevar de 14 a 16 años la edad mínima para prestar un consentimiento válido para el tratamiento de sus datos personales y, por tanto, registrarse en redes sociales. Con este cambio, los padres o tutores ya no podrían autorizar el uso de estas plataformas a menores de 16 años. Además, las empresas deberán implementar herramientas de verificación de edad, pero los métodos concretos aún no se han definido y desde diferentes sectores se advierte de las dificultades.
Esta normativa se inscribe, además, dentro de un marco regulatorio complejo que se ha ido desarrollando en los últimos años. La Ley Orgánica 8/2021, de protección integral a la infancia y la adolescencia frente a la violencia, ya establece el deber de las administraciones públicas de colaborar con el sector privado «para la creación de entornos digitales seguros, una mayor estandarización en el uso de la clasificación por edades y el etiquetado inteligente de contenidos digitales, para conocimiento de los niños, niñas y adolescentes y apoyo de los progenitores, o de quienes ejerzan funciones de tutela, guarda o acogimiento, en la evaluación y selección de tipos de contenidos, servicios y dispositivos». Por tanto, la futura regulación busca complementar y reforzar los mecanismos de protección y orientación digital que la ley ya contempla.
Además, también existen normas europeas que tratan de promover espacios digitales más seguros para menores, como el Reglamento General de Protección de Datos (RGPD) y el Reglamento europeo de Servicios Digitales (DSA). Estas normas no prohíben el acceso a las redes sociales, pero sí obligan a las plataformas a garantizar un consentimiento válido y a adoptar medidas para reducir los riesgos asociados al uso de sus servicios por parte de menores.
Las empresas deberán implementar herramientas de verificación de edad, pero asegurar la eficacia de los métodos es muy complejo
Lo que se plantea ahora es una prohibición más directa del registro de menores de 16 años. Australia ha sido el país pionero en este tipo de regulaciones, aunque su aplicación práctica y alcance aún están en proceso. El cumplimiento de esta normativa, vigente desde diciembre de 2025, está planteando importantes retos técnicos y, además, depende de la colaboración de las grandes plataformas digitales. Estas empresas deben aplicar mecanismos efectivos de verificación de edad y, cuando sea necesario, bloquear las cuentas de menores, bajo riesgo de enfrentarse a sanciones significativas si no cumplen la ley.
Según los últimos datos de eSafety Commissioner, el organismo regulador australiano en materia de seguridad digital, aunque ha disminuido la proporción de menores con cuentas las plataformas con restricciones de edad, una parte considerable de menores de 16 años sigue presente en ellas. La razón más habitual es que las propias plataformas aún no les han solicitado verificar su edad, lo que evidencia las limitaciones de los sistemas actuales de control.
Más allá de la prohibición
Además de las dificultades para desarrollar herramientas eficaces que controlen el acceso a las redes sociales, el marco normativo que se debate en distintos países es complejo porque afecta a derechos fundamentales como la libertad de expresión o el acceso a la información. Por eso, aunque la necesidad de intervenir es cada vez más urgente, necesitamos estrategias realistas, que aborden la realidad entendiendo su complejidad y los múltiples actores que intervienen en este contexo. Para Ricard Martínez Martínez, profesor de Derecho Constitucional y director de la Cátedra de Privacidad y Transformación Digital, «deberíamos entender cómo hacer viable una socialización y un aprendizaje de la tecnología inspirado por valores democráticos e inclusivos. No podemos ser víctimas de la urgencia regulatoria y centrarnos exclusivamente en la prohibición».
Los estudios disponibles, tanto a nivel nacional como internacional, son claros. El uso de redes sociales puede afectar a la salud mental y tienen un enorme impacto en menores. Un informe australiano publicado en 2025 señala que el uso de plataformas digitales entre menores de 10 a 15 años era prácticamente universal: el 96% utilizaba redes sociales, el 94% plataformas de mensajería y el 86% videojuegos en línea. Además, la exposición a riesgos es frecuente: un 71% afirmó haber encontrado contenidos perjudiciales y más de la mitad ha vivido experiencias como el odio en línea (57%) o el ciberacoso (52%), así como otras formas de violencia digital como el acoso sexual, el seguimiento sin consentimiento o el grooming. Aunque las redes sociales concentran gran parte de estos riesgos, este informe subraya que también se producen en aplicaciones de mensajería y plataformas de juego.
No se trata solo de limitar el acceso de los menores, sino también de buscar estrategias para que las propias redes sean espacios más seguros
El informe Así Somos de Plan International, realizado con adolescentes y jóvenes de a 12 a 21 años, muestra que el 36% de las chicas y el 27% de los chicos reconoce pasar más tiempo del que le gustaría en redes sociales. Además, el 15% de las chicas declara sufrir trastornos de salud mental, el doble que los chicos, y más de seis de cada diez jóvenes temen generar una adicción al móvil y las redes o dejar de hacer otras actividades por pasar tiempo online.
En este contexto, ¿las propias redes sociales deben responder por sus efectos? Una sentencia pionera en Estados Unidos ha puesto el foco en las plataformas al considerar a Meta y YouTube responsables de los daños sufridos por una menor debido al uso adictivo de las redes. Esta sentencia se centra en el diseño de estas plataformas, que favorece un uso compulsivo sin advertencias suficientes. Por eso, no se trata solo de limitar el acceso de los menores, sino también de buscar estrategias para que las propias redes sean espacios más seguros.
Aunque es habitual repetir aquello de que no se pueden poner puertas al campo, en realidad, sí existen normas para proteger los espacios naturales. Aunque el entorno digital nos parezca infinito y existan —como en todo— formas para saltarse las reglas, eso no debería ser motivo para no buscar estrategias que aseguren una experiencia más segura y garantizar que los derechos fundamentales se cumplan en todas las esferas de nuestra vida. Como afirma Yolanda Domínguez en el marco de la campaña Por la protección de nuestros derechos digitales, si en un parque de atracciones «la seguridad es lo que hace que podamos relajarnos y disfrutar, ¿por qué no vamos a querer lo mismo para el espacio digital?».
COMENTARIOS