top of page

Australia vs UE. Niñas y niños en entornos digitales

  • Protección Digital Argentina
  • 10 dic 2025
  • 4 Min. de lectura

¿Prohibición o diseño de las redes? Una encrucijada en la que caen las iniciativas regulatorias alrededor del mundo. El caso de Australia, donde hoy entra en vigor una prohibición nacional de cuentas en redes para niños/as menores de 16 años y el de la Unión Europea, que busca regular por el diseño de las plataformas. Por Juan Facundo Hernández.

En los últimos días el Parlamento Europeo aprobó un informe no vinculante por 483 votos a favor, 92 en contra y 86 abstenciones, que pide un estándar común de edad y “diseño seguro por defecto” para plataformas; en Australia, hoy entra en vigor una prohibición nacional de cuentas en redes para chicos menores de 16 años, con multas elevadas y verificación de edad supervisada. Parecen similares, un poco lo son, pero no es la misma discusión. Mientras Australia aplica la prohibición lisa y llana, la Unión Europea aplica además otro camino que apunta al diseño de las plataformas para proteger a la infancia. ¿Es la prohibición el camino correcto, cuando hasta hace muy poco acudimos a los entornos digitales para intentar sostener la educación? ¿Es posible hablar de ciudadanía digital con una prohibición? ¿Fueron consultados los adolescentes ? 


La noticia

Unión Europea. El Parlamento Europeo adoptó un informe  que diagnostica que, pese a las leyes vigentes (DSA/GDPR) y otras normas, no hay una ley unificada y niñas y niños siguen siendo los más vulnerables. Identifica cuatro riesgos principales: publicidad encubierta o manipuladora, diseños adictivos y algoritmos sin frenos ante niñas y niños, contenidos nocivos (violencia, pornografía, misoginia, racismo, homofobia) y el salto de IA generativa (deepfakes, suplantación, manipulación emocional). El texto propone una edad digital armonizada: <13, fuera de redes; 13–16, con autorización parental, y exige un marco europeo de verificación de edad robusto, privado y no intrusivo que entregue solo “sí/no” sin rastrear usuarios. Recalca que la responsabilidad principal es de las plataformas y pide hacer cumplir el DSA (multas, y hasta prohibir servicios reincidentes).


Australia. Desde el 10 de diciembre de 2025, plataformas como Facebook, Instagram, TikTok, YouTube, Snapchat, X, Reddit, Threads, Kick y Twitch deben impedir cuentas de menores de 16 o enfrentar multas de hasta U$S 30 millones. Se exigirán reportes periódicos a la autoridad de control y se habilitan métodos de verificación de edad. 

El informe del Parlamento Europeo subraya que los mecanismos de garantía de edad no son una solución milagrosa para proteger a niñas, niños y adolescentes de los numerosos riesgos a los que se enfrentan en línea; hace hincapié en que dichas herramientas no pueden eliminar la responsabilidad de las plataformas de garantizar que sus productos sean seguros y apropiados por diseño y por defecto; alienta el desarrollo de versiones de los servicios de redes sociales que sean apropiadas para la edad.


5 puntos a tener en cuenta para comparar la regulación

Mismo objetivo; instrumentos distintos. La UE busca estándares comunes y un control del sistema (DSA) sobre diseño y algoritmos; Australia adopta una prohibición etaria (16) con sanciones disuasorias. Dos rutas distintas, un mismo fin: reducir exposición y daños 

Verificación de edad con privacidad. El Parlamento pide que la verificación de edad sea precisa pero mínima: privada, no intrusiva y binaria (“sí/no”), evitando bases de datos de identidad. Australia permite un abanico de métodos, evaluando “pasos razonables” y resultados bajo supervisión de la autoridad de control. El desafío es la eficacia sin hipervigilancia. 

Del contenido al diseño. La UE desplaza el foco a cómo se construyen los servicios: feeds infinitos, notificaciones, recomendadores y dark patterns (diseños que manipulan) que maximizan tiempo de pantalla y por ende el riesgo. Se piden controles parentales por defecto y límites a las mecánicas adictivas como las recompensas, entre otras. Australia, al bloquear el alta a los menores de 16 años, obliga a rediseñar el ingreso a las redes y los filtros; el cumplimiento real dependerá de la detección y la auditoría. 

IA generativa y trazabilidad. Ambas agendas reconocen el riesgo de deepfakes y suplantación de identidad

Responsabilidad verificable. El consenso que emerge: pasar del “mejor esfuerzo de las empresas” a deberes auditables. Implica evaluaciones de impacto con foco en niñez, reportes de transparencia sobre diseño y algoritmos, y sanciones cuando fallen, la UE incluso plantea responsabilidad personal de directivos en casos graves y repetidos.


Conclusiones


  • UE: hoja de ruta hacia una ley unificada, verificación privada/no intrusiva, seguridad por diseño y algoritmos con frenos, con la ley DSA como palanca de cumplimiento.

  • Australia: límite legal de 16 con multas fuertes y supervisión de de la autoridad de control; implementación inmediata con monitoreo.

La prohibición puede generar un efecto no deseado, ya que si no ponemos el foco en la ciudadanía digital y en la responsabilidad empresaria en el diseño de la redes, los adolescentes sufrirán una mayor vulnerabilidad cuando las utilizan, precisamente porque no sabrán cómo responder ante los riesgos que puedan presentarse. Cómo educar en un uso adecuado si los adolescentes no tendrán acceso a las redes. La prohibición, excluye a los propios adolescentes e ignora las oportunidades para la educación, para conectarse, para comunicarse, para ejercer el derecho a la participación. 


A su vez Australia, como señala 5 Rights Foundation, debe decidir qué servicios deben clasificarse como redes sociales y considerar la consecuencia imprevista que esta medida podría tener, ya que podría empujar a los niños a usar redes privadas virtuales (VPN) o a acceder a lugares más peligrosos del mundo digital.




 
 
 

Comentarios


bottom of page