
Quedó formalmente vigente la Resolución Nº 9-SSGDMGGP-2025, dictada por la Subsecretaría de Gobierno Digital bonaerense, que establece el primer marco normativo específico sobre desarrollo, implementación y uso responsable de sistemas de inteligencia artificial (IA) dentro de la Administración Pública de la Provincia de Buenos Aires.
La medida, tramitada bajo el expediente EX-2025-37845172-GDEBA-DSTAMGGP, se inscribe en un contexto en el que múltiples organismos provinciales se encuentran incorporando algoritmos para procesar datos, automatizar decisiones y optimizar servicios. Frente a ese escenario, la Provincia decidió unificar criterios y fijar límites preventivos sobre los que, en pocos meses, podrían comenzar a girar nuevos litigios en materia de derecho administrativo, constitucional y de protección de datos.
“El propósito de la presente Resolución es proteger los derechos y garantías fundamentales de la ciudadanía, asegurando de forma razonable y confiable la creación y/o aplicación de sistemas de IA.”
Wl propósito de la presente Resolución es proteger los derechos y garantías fundamentales de la ciudadanía, asegurando de forma razonable y confiable la creación y/o aplicación de sistemas de IA.”, se lee en el articulado del texto.
La norma parte de un diagnóstico explícito: la masificación de la IA obliga a establecer reglas claras sobre su uso público. El texto recoge antecedentes internacionales (OCDE, UNESCO, IA Act de la Unión Europea) y nacionales (Resolución 90/2021, DA 750/2023, DA 899/2024) para articular un marco propio que fije un piso de garantías.
Los principios rectores —neutralidad tecnológica, transparencia, trazabilidad, respeto de derechos humanos, responsabilidad demostrada, protección de datos y control humano— apuntan a evitar impactos que ya han generado controversias judiciales en otros fueros: algoritmos que discriminan, decisiones automatizadas sin explicación, fallas en sistemas biométricos o uso de datos sin consentimiento.
Evaluación preliminar de riesgos: el filtro que anticipa litigios
Uno de los ejes más relevantes de la Resolución es la obligación impuesta a todos los organismos de realizar una evaluación preliminar de riesgos (art. 7). Antes de desarrollar o utilizar IA, deberán clasificar el sistema dentro de cuatro categorías:
Riesgo inaceptable: Incluye técnicas subliminales, explotación de vulnerabilidades, sistemas de scoring social, o cualquier sistema que, por diseño, implique amenaza directa a derechos fundamentales. Los que tienen prohibición absoluta. Este punto podría blindar preventivamente al Estado frente a reclamos por “algoritmos prohibidos” o decisiones automatizadas que afecten libertades individuales.
Alto riesgo: Engloba IA para identificación biométrica, gestión de infraestructura crítica, educación, justicia, democracia y relaciones laborales. En estos casos la norma exige medidas obligatorias de mitigación, trazabilidad y controles.
Riesgo limitado: Chatbots visibles y sistemas que no utilicen datos sensibles.
Riesgo nulo: Filtros de spam, parametrización de correos y automatizaciones administrativas simples.
La clasificación no será un trámite menor, es un insumo que, en un eventual expediente judicial o administrativo, permitirá determinar si el organismo actuó con la diligencia debida o si se expuso a demandas por decisiones automatizadas lesivas, omisiones de control o tratamiento indebido de datos.
Evaluación de impacto algorítmico:
El artículo 9 introduce una herramienta clave: la Evaluación de Impacto Algorítmico (EIA), obligatoria para sistemas de alto riesgo. Esta evaluación deberá identificar: riesgos legales, éticos, sociales, técnicos y posibles daños directos o colaterales.
La EIA se convertirá en el equivalente algorítmico del estudio de impacto ambiental: sin ella, cualquier decisión basada en IA podría ser declarada nula por falta de fundamentación o vulneración de derechos.
En futuras causas, no será extraño ver a jueces contencioso-administrativos requerir la EIA para analizar la razonabilidad de decisiones automatizadas, desde asignación de turnos médicos hasta procesos de fiscalización tributaria, scoring educativo o selección asistida de casos judiciales.
La EIA se convertirá en el equivalente algorítmico del estudio de impacto ambiental: sin ella, cualquier decisión basada en IA podría ser declarada nula por falta de fundamentación o vulneración de derechos.
Los litigios que vienen: dónde chocarán la IA estatal y los tribunales
La Resolución describe un mapa de riesgos que, en paralelo, es una lista de conflictos judiciales previsibles. Entre los más probables:
Discriminación algorítmica (sesgos de datos): El art. 13 impone la obligación de evitar “prejuicio cifrado”. Cualquier sistema que arroje resultados discriminatorios —por género, salud, ubicación, pobreza o discapacidad— podría derivar en acciones correctivas, daños y amparos.
Falta de transparencia y caja negra: Si un organismo no explica cómo funciona su IA, violaría principios constitucionales de fundamentación y contralor. La resolución exige trazabilidad y registro (arts. 10, 15). Jueces podrían requerir auditorías, logs y modelos.
Se impone a los organismos que utilicen sistemas de inteligencia artificial para comunicarse directamente con la ciudadanía a establecer una advertencia de su uso: “…tienen la obligación de advertirles cuando estos estén interactuando con una IA. Dicho aviso, además de expreso y claro, debe ser previo a la interacción.”
Violaciones a la Ley de Protección de Datos: Cuando la IA trate datos personales sin consentimiento o sin base legal suficiente. El art. 12 refuerza esta exigencia: consentimiento libre, expreso, previo y específico.
Automatización indebida de decisiones administrativas: Decisiones automáticas sin intervención humana podrían ser invalidadas bajo el principio de “centralidad de la persona humana” (art. 6, inc. III).
Al igual que en normativa europea, queda configurado así un nuevo balanceo del régimen exorbitante característico del Derecho Administrativo, equilibrando las “potestades algorítmicas estatales” con esta nueva garantía para los los ciudadanos: conocer cuando hay IA, detrás de una decisión que lo afecta.
Un punto especialmente interesante está dado por el art. 14 de la citada Res., en el cual se impone a los organismos que utilicen sistemas de inteligencia artificial para comunicarse directamente con la ciudadanía a establecer una advertencia de su uso “tienen la obligación de advertirles cuando estos estén interactuando con una IA. Dicho aviso, además de expreso y claro, debe ser previo a la interacción.”.
Al igual que en normativa europea, queda configurado así un nuevo balanceo del régimen exorbitante característico del Derecho Administrativo, equilibrando las “potestades algorítmicas estatales” con esta nueva garantía para los los ciudadanos: conocer cuando hay IA, detrás de una decisión que lo afecta.
Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como “inspiración” para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.
—



