Ley de IA de la Unión Europea: Lecciones y desafíos para Argentina desde la perspectiva de los derechos de la infancia
- Protección Digital Argentina
- hace 2 días
- 6 Min. de lectura
Actualizado: hace 1 día
Protección Digital Argentina – Observatorio de Legislación y Políticas Públicas
Fecha: Octubre 2025
Autor: Protección Digital Argentina
Fuentes: Análisis basado en el Artificial Intelligence Act (2024) de la Unión Europea y documentos de UNICEF, 5Rights Foundation, DataCamp y Termly.
Resumen / Abstract
La Ley de Inteligencia Artificial (AI Act) de la Unión Europea establece el primer marco legal integral del mundo para regular el uso, desarrollo y aplicación de la inteligencia artificial. Basada en un enfoque de gestión del riesgo y protección de derechos fundamentales, marca un antes y un después en la gobernanza tecnológica global.
Este artículo examina sus principales disposiciones, los desafíos de su implementación y las oportunidades para Argentina de incorporar estándares similares con foco en la protección de niñas, niños y adolescentes.
A partir de una lectura crítica, se plantea que la fortaleza del AI Act dependerá de su capacidad de implementación y que, en Argentina, la prioridad debe ser la creación de herramientas técnicas, marcos regulatorios claros y participación infantil efectiva en la evaluación de riesgos digitales.
Europa marca el rumbo
La aprobación del AI Act por parte de la Unión Europea representa un punto de inflexión en la regulación de la inteligencia artificial (IA). Es la primera norma que transforma principios éticos y de derechos humanos en obligaciones legales concretas, con un enfoque basado en el riesgo y en la protección de las personas más vulnerables.
Para Argentina y América Latina, la ley europea funciona como una brújula normativa. No se trata de copiar su contenido, sino de comprender sus fundamentos y traducirlos a un contexto nacional, especialmente en relación con los derechos de la infancia en entornos digitales.
La región necesita avanzar en la construcción de un marco de gobernanza de la IA que combine innovación, protección y justicia social.
Estructura técnica del AI Act
La ley se organiza según un enfoque basado en niveles de riesgo:
Sistemas prohibidos: Aquellos que manipulan o explotan vulnerabilidades humanas (incluyendo las derivadas de la edad), que realizan puntuaciones sociales o que emplean reconocimiento biométrico en tiempo real en espacios públicos.
Sistemas de alto riesgo: Usados en áreas sensibles como educación, salud, empleo o acceso a servicios públicos. Estos deben cumplir con estrictos requisitos:
Evaluaciones de riesgo
Supervisión humana
Transparencia algorítmica
Calidad de los datos
Documentación técnica auditada
Sistemas de riesgo limitado o mínimo: Sujetos a requisitos menores de transparencia (por ejemplo, chatbots o sistemas de recomendación).
Además, la norma crea una Oficina Europea de Inteligencia Artificial (AI Office), encargada de coordinar autoridades nacionales, emitir guías técnicas y supervisar la aplicación transversal del reglamento.
En términos de derechos de la infancia, el Artículo 5 prohíbe explícitamente sistemas que exploten las vulnerabilidades de grupos específicos, incluyendo a los niños, consolidando el vínculo entre gobernanza tecnológica y protección de la niñez.

El patrón global es el patrón europeo
El AI Act confirma el liderazgo europeo en la construcción de un modelo regulatorio donde tecnología y derechos humanos convergen. Para Argentina, representa una referencia para armonizar políticas públicas dispersas (datos personales, educación digital, responsabilidad algorítmica). Sin embargo, copiar sin adaptar puede generar burocracia sin efectividad: se necesita una traducción técnica local con instituciones preparadas para hacer cumplir la norma.
Edad y vulnerabilidad: definiciones críticas
Uno de los pilares del AI Act es el reconocimiento de que las niñas, niños y adolescentes son especialmente vulnerables a la manipulación algorítmica. No obstante, su implementación dependerá de cómo se defina “vulnerabilidad por edad”.Para Argentina, es clave garantizar que toda persona menor de 18 años sea reconocida como sujeto protegido y definir criterios concretos para identificar sistemas que explotan esa vulnerabilidad:
Publicidad dirigida a menores de 18 años de edad
Diseño persuasivo o adictivo
Juegos o plataformas con mecanismos de recompensa
Contenido inapropiado o de riesgo
Necesidad de herramientas técnicas y de gobernanza
Europa avanza con la creación de un AI Office dotado de especialistas en ética, auditoría y seguridad algorítmica. Argentina requiere construir o fortalecer una unidad técnica nacional —en el ámbito de la AAIP o ENACOM— que pueda auditar sistemas de IA, coordinar regulaciones y emitir lineamientos de transparencia algorítmica.
El AI Act se articula directamente con el Reglamento General de Protección de Datos (GDPR). En cambio, la Ley 25.326 de Protección de Datos Personales en Argentina (del año 2000) carece de perspectiva de niñez y no contempla el entorno digital contemporáneo. Una reforma integral es urgente para asegurar compatibilidad con estándares internacionales y para incluir disposiciones específicas de protección de datos infantiles.
De la ley a la práctica: guías, estándares y participación infantil
El impacto del AI Act dependerá de sus instrumentos secundarios: guías técnicas, códigos de conducta y plantillas de evaluación de impacto. Estos deben incluir mecanismos de participación infantil, conforme a la Observación General N°25 (2021) del Comité de los Derechos del Niño, que reconoce que la voz de las niñas y los niños es esencial para entender cómo las tecnologías afectan sus derechos.
Desafíos para Argentina
Resistencia del sector privado: Parte de la industria tecnológica percibe la regulación como una amenaza a la innovación. Es necesario demostrar que el cumplimiento aumenta la confianza y sostenibilidad a largo plazo.
Fragmentación normativa: La ausencia de coordinación entre organismos (AAIP, ENACOM, Educación, Justicia, Capital Humano) limita la eficacia. Se necesita una política digital integral con un enfoque transversal de derechos humanos.
Cooperación: Se requiere formación, cooperación internacional y alianzas con universidades y organismos multilaterales.
La ley será tan fuerte como su implementación
Desde la organización 5Rights plantean que la ley será tan fuerte como su implementación. Ahora bien, ¿cuál será el estándar para aplicar la prohibición del Artículo 5? ¿Cómo se evaluarán y gestionarán los riesgos para la infancia?”
La verdadera eficacia del AI Act dependerá de cómo se interprete y operacionalice el riesgo. Si la evaluación es puramente formal, la protección será simbólica. Pero si se establecen mecanismos de trazabilidad, auditoría independiente y corrección temprana, el impacto puede ser transformador. En Argentina, esto implica que el diseño institucional debe preceder al texto legal: primero capacidad, luego norma.
Una estrategia de cooperación regional —entre Argentina, Mercosur y OEA— permitiría evitar asimetrías regulatorias y construir estándares comunes para la protección digital de la infancia. Así, se podría ejercer mayor poder negociador frente a plataformas globales y promover un modelo latinoamericano de inteligencia artificial centrado en derechos humanos.
Recomendaciones de Protección Digital Argentina
1. Monitoreo y traducción técnica inmediata
Crear un observatorio permanente que siga las guías del AI Office europeo, publicando briefings trimestrales en español sobre sus implicaciones para la infancia y la región.
2. Claridad sobre “vulnerabilidad por edad”
Promover normas que reconozcan explícitamente a toda persona menor de 18 años como grupo vulnerable. Definir criterios de detección de explotación algorítmica: perfilamiento, diseño persuasivo, monetización de atención y publicidad infantil.
3. Evaluación de Impacto en Derechos de la Infancia (CRIA) para IA
Adaptar un modelo D-CRIA para crear una herramienta argentina de evaluación de impacto infantil que incorpore:
Auditorías de datos de entrenamiento
Detección de sesgos
Requisitos de explicabilidad mínima
Límites al perfilamiento infantil
Marcado digital (watermarking) de contenidos sintéticos
4. Fortalecer capacidades regulatorias
Conformar una unidad técnica nacional para IA y derechos digitales que coordine políticas entre AAIP, ENACOM y ministerios pertinentes.
Algunas conclusiones
El AI Act representa el intento más ambicioso hasta la fecha de equilibrar innovación tecnológica y derechos humanos. Su valor no reside solo en el texto de la ley, sino en la capacidad de implementarla con rigor, coherencia y enfoque infantil.
Para Argentina, ofrece tres lecciones clave:
La protección de la niñez debe ser el eje regulatorio y no un anexo.
La regulación efectiva exige competencia técnica y voluntad política.
La transformación digital solo será sostenible si está guiada por el interés superior de niñas, niños y adolescentes.
En definitiva, el AI Act no es un modelo a copiar, sino un espejo donde calibrar nuestras prioridades.El desafío argentino será traducir su espíritu a una práctica local robusta, donde cada sistema digital incorpore, por diseño, la garantía del derecho a una infancia protegida, libre y autónoma.
Referencias
Unión Europea. Artificial Intelligence Act (2024).
UNICEF. Developing Global Guidance for Child Rights Impact Assessments in Relation to the Digital Environment (2023).
5Rights Foundation. AI Act Has Potential to Transform Children’s Online Experience (2024).
DataCamp. What Is the EU AI Act: Summary Guide for Leaders (2024).



Comentarios