Regular la IA no es opcional: Argentina ya tiene un bosquejo, ahora debe incluir a la infancia
- Protección Digital Argentina
- 12 dic 2025
- 3 Min. de lectura
El dictamen de la Comisión de Ciencia y Tecnología fijó reglas de transparencia, responsabilidad algorítmica y supervisión estatal. Pero aún carece de salvaguardas específicas para NNyA. Este análisis identifica qué avanzó, qué falta y qué Argentina debe adoptar de Brasil, Europa y EE.UU. para garantizar plataformas seguras por diseño.
El 11 de noviembre, la Comisión de Ciencia y Tecnología de la Cámara de Diputados de la Nación emitió dictamen sobre la “Ley Marco Normativo y de Desarrollo de los Sistemas de IA”. Si bien dicho dictámen perdió estado parlamentario es importante su análisis ya que refleja el máximo consenso institucional conseguido hasta el momento. Desde Protección Digital analizamos este primer paso haciendo foco en la protección de los derechos de niñas, niños y adolescentes.
La Comisión sostuvo a lo largo de 2024 siete encuentros con especialistas que nutrieron el texto dictaminado. El debate no estuvo exento de críticas, algunos diputados repitieron objeciones cercanas al discurso empresarial: “regular es prematuro”, “no hace falta autoridad de control”, “Europa retrocede”, argumentos que contrastan con la tendencia comparada hacia marcos de IA con enfoque de riesgo, transparencia y supervisión. Junto al dictamen de mayoría se presentaron dos dictámenes de minoría (Agost Carreño y Brügge).
Qué establece el dictamen
1) Niñez y adolescencia
El dictamen no crea un capítulo específico de NNA, pero sí prohíbe explotar vulnerabilidades por edad y refuerza la no discriminación. En la práctica, todo sistema de IA con impacto relevante en educación, salud, publicidad o moderación de contenidos debe tratarse como de “alto riesgo”, con evaluación de impacto, transparencia reforzada y revisión humana. Es una vía indirecta para elevar el estándar de protección cuando hay niños involucrados.
2) Diseño y operación de plataformas (safety-by-design)
Exige transparencia, trazabilidad (datos, modelos, decisiones), robustez y ciberseguridad durante todo el ciclo de vida. Para usos de riesgo limitado, la plataforma debe avisar explícitamente que el usuario interactúa con IA. El enfoque es preventivo: gestión de riesgos y responsabilidad proactiva desde el diseño.
3) Derechos humanos y remedios
La norma se asienta en dignidad, igualdad y debido proceso. Reconoce derechos de las personas afectadas (información comprensible, explicación significativa, impugnación y revisión humana) y habilita vías administrativas y judiciales –también colectivas– para la tutela efectiva. La carga de justificar el cumplimiento recae en quienes despliegan los sistemas.
4) Uso de datos y privacidad
El texto alinea IA con protección de datos personales: seguridad de la información, minimización de sesgos y tratamiento lícito a lo largo del ciclo. Aunque no regula publicidad dirigida ni “código de diseño por edad”, eleva exigencias cuando el tratamiento pueda afectar derechos de NNyA, aunque no lo menciona explícitamente. Dialoga con el régimen de datos vigente (o el que se actualice).
5) Responsabilidad algorítmica y gobernanza
Introduce clasificación por riesgo (inaceptable/alto/limitado), registro público de sistemas de alto riesgo, posibilidad de responsabilidad objetiva por daños y revisión humana obligatoria en el sector público. Crea una autoridad especializada (Agencia de Gestión del Conocimiento) con facultades de regular, auditar, ordenar evaluaciones de impacto, reclasificar e incluso suspender sistemas cuando exista riesgo grave.
Sin dudas éste dictamen que al poco tiempo perdió estado parlamentario es un primer paso en la protección de los derechos de niñas y niños en el entorno digital
Sin embargo para retomar el trabajo en el futuro es necesario incorporar medidas incluídas en las legislaciones de Brasil, Europa y EEUU: verificación de edad, configuraciones por defecto más protectoras el el diseño de las plataformas, evaluaciones de impacto pensadas para NNyA y límites al perfilado publicitario infantil. Tampoco fija estándares específicos para plataformas con probable acceso de NNA.
El dictamen ordena el terreno: establece responsabilidades, transparencia y control público sobre la IA. Falta –y es la oportunidad– traducir esa arquitectura en salvaguardas específicas para la infancia, de modo que la innovación conviva con plataformas seguras por diseño y con remedios efectivos cuando se vulneren derechos de niñas, niños y adolescentes.



Comentarios