Durante algo más de veinte años, los gobiernos ignoraron o minimizaron los efectos que las redes sociodigitales ejercían sobre la juventud. El impacto negativo de estas plataformas en el bienestar de los menores fue relegado a un segundo plano, pese a que los datos comenzaban a mostrar un deterioro preocupante en la salud mental de los adolescentes.

Solo en los últimos años, algunos países han decidido intervenir de manera decidida. La acumulación de evidencias sobre el aumento de problemas como la ansiedad, la depresión, el acoso en línea y la desinformación ha obligado a los gobiernos a replantearse sus políticas.

Así, finalmente se ha considerado a elevar la edad mínima para acceder a las redes sociodigitales, buscando proteger a los menores ante los peligros que implica un uso prematuro y sin control de estas plataformas.

La razón fundamental de estas acciones es tan urgente como justificada: los gobiernos se enfrentan a una crisis de salud mental sin precedentes. Los índices de ansiedad, depresión y dismorfia corporal entre los adolescentes han experimentado un crecimiento paralelo a la penetración de redes como Instagram y TikTok. De ahí que las restricciones no sean fruto de un rechazo irracional a la tecnología, sino una respuesta a una emergencia social real, identificada a través de los datos oficiales.

Uno de los argumentos más sólidos a favor de estas regulaciones es la clara asimetría de poder entre los adolescentes y las grandes empresas tecnológicas. Un adolescente de 13 años, con un cerebro cuya corteza prefrontal —encargada del control de impulsos— está aún en construcción, no compite en igualdad de condiciones contra una ingeniería de miles de millones de dólares diseñada específicamente para secuestrar su atención

Tal y como subrayan los defensores de la ley australiana, resulta incoherente que la sociedad prohíba a los menores operar maquinaria pesada o comprar alcohol por motivos de protección, pero permita el acceso libre a herramientas digitales capaces de alterar su química cerebral. Esta comparación evidencia la necesidad de replantear los criterios de acceso a las redes sociodigitales, situando el bienestar de los menores como prioridad.

Australia: pionera en la prohibición para menores de edad

El 10 de diciembre de 2025, Australia marcó un hito al convertirse en el primer país en establecer una prohibición explícita sobre el uso de redes sociodigitales para menores de 16 años. La medida afecta a diez plataformas principales: Facebook, Instagram, Threads, TikTok, YouTube, Snapchat, X, Reddit, Discord y Kick. Desde esa fecha, estas compañías están obligadas a implementar “medidas razonables” para identificar y desactivar las cuentas de usuarios que no cumplen con la edad mínima permitida.

El gobierno laborista ha anunciado que la lista de plataformas incluidas en la prohibición será revisada de manera periódica. Este enfoque busca adaptarse a la aparición de nuevos productos digitales y alternativas que puedan atraer a la población juvenil, garantizando así que la normativa siga siendo relevante y efectiva frente a la evolución constante del entorno digital.

La nueva normativa otorga al gobierno australiano la capacidad de sancionar a las empresas tecnológicas que incumplan la ley. Las multas pueden alcanzar hasta 49,5 millones de dólares australianos, lo que refleja la gravedad con la que se afronta la protección de los menores en el entorno digital y el compromiso por parte de las autoridades de garantizar el cumplimiento de estas medidas.

Francia: restricciones para menores y móviles en los institutos

A finales de enero, la Asamblea Nacional de Francia dio un paso relevante en la protección de los menores en el entorno digital. El órgano legislativo aprobó un proyecto de ley cuyo objetivo principal es prohibir el uso de redes sociodigitales a menores de 15 años.

Además de la restricción relativa a las redes sociales, el proyecto contempla la prohibición del uso de teléfonos móviles en los institutos. Con esta iniciativa, se busca limitar las distracciones y los posibles efectos negativos derivados del uso excesivo de dispositivos móviles en el entorno educativo, creando así espacios más seguros y enfocados en el aprendizaje.

La propuesta recibió un amplio respaldo en la Asamblea Nacional, con 116 votos a favor y 23 en contra. Tras esta primera aprobación, el texto legal será remitido al Senado, donde se debatirá y, en su caso, se procederá a su aprobación definitiva.

Nueva Zelanda: iniciativas para la protección de menores

En mayo de 2025, el primer ministro de Nueva Zelanda, Christopher Luxon, manifestó su respaldo a una propuesta legislativa orientada a restringir el acceso de los menores de edad a las redes sociodigitales.

Más adelante, en octubre del mismo año, la diputada Catherine Wedd, representante del Partido Nacional —la formación gobernante—, elaboró una propuesta concreta que aborda diferentes problemáticas asociadas a las redes sociales. Entre los aspectos destacados, el proyecto subraya la preocupación por la salud mental de los adolescentes, el aumento de episodios de acoso en línea, la circulación de información falsa y los efectos perjudiciales sobre la percepción de la imagen corporal entre los jóvenes usuarios.

Sin embargo, a pesar del apoyo inicial y de la elaboración de la propuesta, la iniciativa aún no ha logrado reunir el consenso necesario para su aprobación definitiva, por lo que, de momento, no se ha traducido en una legislación concreta.

Dinamarca: acuerdo para restringir las redes sociodigitales a menores

En noviembre de 2025, el Gobierno de Dinamarca, encabezado por la primera ministra socialdemócrata Mette Frederiksen, anunció un acuerdo con dos fuerzas opositoras con el objetivo de prohibir el uso de redes sociodigitales a menores de 15 años.

Esta medida responde a la preocupación creciente por la salud mental de los jóvenes y busca ofrecer una protección adicional en el entorno digital. Según el acuerdo, el acceso a estas plataformas será posible a partir de los 13 años, pero únicamente si se cuenta con la autorización expresa de los padres o tutores legales.

La iniciativa pretende combatir el impacto negativo que puede tener el entorno digital en los adolescentes, especialmente en plataformas como TikTok, Instagram y Snapchat. Además, se busca limitar el tiempo de uso de estas aplicaciones entre los menores, con el fin de reducir los riesgos asociados al consumo excesivo y fomentar un uso más responsable de la tecnología.

Malasia: Propuestas legislativas para la protección de menores en redes sociales

En noviembre, el Gobierno de Malasia anunció que está desarrollando un paquete legislativo destinado a controlar el acceso de los menores a las redes sociodigitales. Entre las medidas contempladas, se estudia la posibilidad de fijar la edad mínima de 13 años como requisito para que los jóvenes puedan acceder a dichas plataformas.

El ministro de Comunicaciones, Fahmi Fadzil, precisó que el Ejecutivo apuesta por un «enfoque integral para regular el contenido dañino en línea y proteger a los grupos vulnerables, en particular a niños y adolescentes».

El ministro destacó que el Gobierno ha emitido un código de conducta dirigido a las plataformas digitales. Dicho código obliga a las empresas a implementar sistemas de verificación de edad, proporcionar configuraciones eficaces de control parental para padres y tutores, y reforzar las funciones que ayudan a los menores a protegerse de contenido dañino.

Estas acciones están orientadas a garantizar que los niños y adolescentes dispongan de herramientas adecuadas para navegar de forma segura y responsable por el entorno digital.

La iniciativa española para proteger a los menores en redes sociodigitales

En España, el debate sobre la protección de los menores en el entorno digital ha cobrado especial relevancia en los últimos meses.

En los primeros días de febrero, el presidente del Gobierno, Pedro Sánchez, aprovechó su intervención en la plenaria de la Cumbre Mundial de Gobiernos (World Governments Summit) celebrada en Dubái para subrayar la firme determinación de su gobierno en materia de protección infantil en las redes sociales.

Durante su discurso, Sánchez anunció cinco medidas destinadas a reforzar el control sobre las plataformas digitales.

Entre estas iniciativas, destaca la propuesta de prohibir el acceso a redes sociales a menores de dieciséis años en España. Esta medida implica la obligación para las plataformas digitales de implementar sistemas efectivos de verificación de edad, con el objetivo de garantizar que los menores no puedan acceder a estos entornos sin cumplir con la edad mínima establecida.

"Vamos a devolver las redes sociales a esa tierra prometida que nunca debieran haber abandonado", afirmó Sánchez.

El dilema de la implementación

Sin embargo, más allá de la voluntad y la determinación, la cuestión fundamental no reside en determinar si estas leyes son necesarias, sino en evaluar si su implementación es realmente factible.

El camino hacia el "prohibicionismo digital" está plagado de obstáculos técnicos y dilemas éticos, siendo la verificación de edad el primer gran reto.

Para que una plataforma virtual pueda asegurar que un usuario no tiene 15 años, se ve en la necesidad de recopilar datos biométricos como el escaneo facial o solicitar documentos de identidad, lo que supone un desafío considerable en términos de privacidad y protección de datos.

Aquí surge una paradoja relevante: en el intento de proteger la privacidad de los menores, el Estado termina obligando a las grandes empresas tecnológicas a recolectar aún más datos sensibles de toda la población. Se plantea así una pregunta clave: ¿estamos dispuestos a sacrificar el anonimato de los adultos para garantizar la seguridad de los niños?

Otro aspecto a considerar es la denominada "astucia generacional". Prohibir el acceso a ciertos contenidos a los adolescentes suele ser, en muchas ocasiones, la manera más eficaz de incentivar su ingenio para eludir la norma.

El uso de VPN (redes privadas virtuales) y la creación de cuentas bajo identidades falsas ya se están extendiendo en jurisdicciones donde estas leyes han comenzado a aplicarse. Esto podría derivar en un "mercado negro" digital, donde los menores continúan presentes, pero de forma encubierta, sin supervisión parental y en entornos aún menos regulados.

¿Derecho a la protección o derecho a la participación?

Desde una perspectiva de derechos humanos, la discusión se vuelve todavía más compleja.

Naciones Unidas reconoce el acceso a la información y la participación digital como parte de los derechos del niño. Al desconectar a los menores de 14 o 16 años de las redes, también los estamos privando de espacios de socialización legítimos, de acceso a comunidades de apoyo (como colectivos LGTBI+ en entornos rurales) y de la oportunidad de aprender a navegar en el mundo en el que les tocará trabajar y vivir.

Las lecciones de Facebook -hoy Meta-

Vale la pena recordar que, hace apenas unos años, Brittany Kaiser la garganta profunda de Facebook, filtró documentos internos de Facebook e Instagram que demostraron la renuencia de Zuckerberg a modificar los algoritmos que tanto daño hacen a los adolescentes.

Sobre Instagram, los propios investigadores de Facebook informaron a Zuckerberg que generaba inseguridad y baja autoestimada en adolescentes, derivando en casos de anorexia, bulimia, incluso suicidios.

A pesar de los resultados que arrojaron las investigaciones internas, Zuckerberg decidió no modificar los algoritmos de Instagram.

Ese episodio pone de manifiesto la complejidad que rodea la gestión y el diseño de las plataformas digitales, especialmente en lo que respecta a la protección de los menores.

La resistencia de las grandes tecnológicas a introducir cambios en sus sistemas demuestra que, más allá de la regulación del acceso, es imprescindible examinar el funcionamiento interno de estas plataformas. Los algoritmos, al priorizar la interacción y el tiempo de permanencia, pueden exponer a los jóvenes a contenidos perjudiciales, afectando su bienestar emocional y psicológico.

En este contexto, surge la necesidad de reflexionar si la solución más eficaz reside en modificar el diseño y los procesos de recomendación de contenidos, en lugar de limitar únicamente el acceso de los adolescentes.

Así, la protección de los menores podría abordarse desde una perspectiva más integral, donde la responsabilidad recae no solo en los propios usuarios y en el Estado, sino también en las empresas que gestionan las plataformas digitales.

Google News

TEMAS RELACIONADOS

Comentarios