
En América Latina los marcos regulatorios de protección de datos personales parecen un Frankenstein: parches dispersos, normas viejas, piezas desajustadas. Y en medio de ese escenario, los más expuestos (y sin siquiera saberlo) son nuestros niños, niñas y adolescentes.
La Inteligencia Artificial (IA) avanza a velocidades exponenciales y cambia la manera en que producimos, decidimos y convivimos. Es una tecnología de propósito general que reorganiza estructuras enteras de poder y que, como toda herramienta poderosa, es ambigua: puede abrir oportunidades o profundizar riesgos.
Así hay quienes se colocan del lado del tecno optimismo por un lado y quienes señalan panoramas de catástrofe, por el otro. Pero en este juego de fuerzas, un grupo social no tiene garantizada defensas suficientes: las infancias.
Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
El dilema es complejo porque exige equilibrios. Por un lado, el equilibrio entre el derecho a la información —que es pública, necesaria, vital para la democracia— y el derecho a la privacidad. Por otro lado, el equilibrio entre la innovación tecnológica y la coerción que supone cualquier norma, que si se vuelve demasiado rígida puede ahogar la creatividad. A esto se suma un problema conocido: la realidad corre como liebre y el derecho como tortuga.
En Argentina la foto es clara. Nuestra Ley de Protección de Datos Personales es del año 2000. Para ese entonces, el celular estrella era el Nokia 1100. Imaginen el abismo entre ese teléfono y el último smartphone que salió al mercado hoy. Ese mismo abismo es el que separa a nuestra legislación de la realidad digital en la que hoy crecen los chicos.
“Adolescencia”: la serie que nos hace preguntar si estamos haciendo lo suficiente
Si bien existen programas y guías impulsados por la Agencia de Acceso a la Información Pública para acompañar a adolescentes, familias y docentes en la protección de datos, la ley vigente quedó vieja. Y aunque ya hay proyectos de actualización en el Congreso, los procesos legislativos son lentos, burocráticos y engorrosos. Mientras tanto, la tecnología no espera.
El resultado es que muchos de los sistemas actuales de IA funcionan como cajas negras: no sabemos cómo toman decisiones, qué sesgos incorporan ni qué impactos producen. Los deepfakes (imágenes, audios o videos falsos generados con IA) ya llegaron a nuestras escuelas, donde circulan entre adolescentes y pueden desencadenar acoso, ridiculización o violencia digital imposible de reparar. La justicia argentina incluso tuvo que ordenar el bloqueo de una app que creaba imágenes ficticias de menores, reconociendo que, aunque no fueran ‘reales’, podían generar daños irreparables.
El problema no es solo la falta de normas claras, sino también la ausencia de protocolos, sanciones efectivas y mecanismos de control. Y la situación se agrava porque los datos de los menores, en muchos casos, se usan para entrenar sistemas de IA sin consentimiento ni conciencia de lo que eso implica, vulnerando el derecho de protección a la privacidad.
La discusión, entonces, no puede esperar. Es cierto que necesitamos leyes modernas, alineadas con estándares internacionales, que contemplen el consentimiento informado, la supervisión humana y la protección reforzada de las infancias. Pero esas leyes tardan.
Y mientras tanto, urge que el sector privado también asuma responsabilidades: con códigos de conducta, comités de ética, sistemas de control parental, auditorías de algoritmos y políticas activas de seguridad. La autorregulación, aunque no es la solución definitiva, puede ser un paño inmediato para proteger a los más chicos en un contexto donde la norma llega siempre más tarde.
La prioridad debe estar clara: los niños, niñas y adolescentes son los más frágiles de la cadena social y a la vez nuestro futuro como humanidad. No podemos permitir que la normalización de conductas abusivas, la explotación de datos personales o la exposición a contenidos falsos con IA se conviertan en el nuevo y natural paisaje digital de la infancia. En definitiva, la Inteligencia Artificial puede fortalecer la democracia o debilitarla, ampliar derechos o erosionarlos. Frente a esta realidad, no hay margen para la indiferencia.
La IA obliga a repensar qué entendemos por progreso. Y hasta que el derecho logre alcanzar a la liebre tecnológica, es indispensable que el Estado, la sociedad civil y las empresas actúen en conjunto. Porque, en este juego desigual, no podemos darnos el lujo de que las infancias paguen el precio de la desprotección por nuestra negligencia.
* abogado, titular del Órgano Garante del Derecho de Acceso a la Información de CABA. Coordinador de la Comisión de Gobernanza de Datos y Protección de la Privacidad del Consejo Federal para la Transparencia.
—