Jueces frente a la Inteligencia Artificial: Entre la Innovación, la Ética y la Regulación – Litigio

La IA llega a los tribunales, pero ¿quién es responsable de sus decisiones? En este artículo, el juez Ernesto Azcona analiza la Guía 961/2025 del Poder Judicial del Chaco, que prohíbe delegar funciones jurisdiccionales y exige supervisión humana ineludible. Un debate necesario entre innovación, ética y Estado de derecho.

Jueves, 5 de febrero de 2026

Por Ernesto Javier Azcona*

La irrupción de la inteligencia artificial (IA) en la esfera judicial no constituye un fenómeno futuro, sino una realidad presente que exige una respuesta normativa, ética y doctrinal urgente. Lejos de limitarse a funciones administrativas, los sistemas algorítmicos —especialmente los modelos de lenguaje de gran escala (LLMs)— han comenzado a infiltrarse en el corazón mismo de la función jurisdiccional: la redacción, el razonamiento y la motivación de las decisiones judiciales. Esta transformación, si bien promete eficiencia y accesibilidad, plantea riesgos profundos para los pilares del Estado de derecho: la imparcialidad, la transparencia, el debido proceso y, sobre todo, la responsabilidad personal del juez.

En este contexto, la reciente Guía para el Uso de Inteligencia Artificial (IA) del Poder Judicial de la Provincia del Chaco (Resolución STJ Nº 961/2025) emerge como un hito dentro de un movimiento creciente de autorregulación judicial subnacional en Argentina[1]. Al prohibir expresamente la delegación de la toma de decisiones y exigir supervisión humana continua, dicha norma reafirma un principio fundamental: la justicia es, y debe seguir siendo, una actividad eminentemente humana. No obstante, la mera existencia de directrices éticas no basta. Es necesario articularlas con los principios constitucionales y procesales vigentes, particularmente el artículo 18 de la Constitución Nacional y el artículo 20 del Código Procesal Penal Federal (Decreto 118/2019), que consagra el deber de fundar toda resolución judicial.

Este trabajo sostiene que el uso de IA por parte de magistrados sólo es compatible con el Estado de derecho si se concibe como una herramienta auxiliar sometida a control humano riguroso. A partir del análisis de estándares internacionales, jurisprudencia argentina y normas procesales provinciales, se argumentará que la responsabilidad judicial no puede externalizarse ni diluirse en la opacidad algorítmica. La función del juez trasciende la mera aplicación de normas: implica prudencia, equidad y sensibilidad ante la complejidad humana, virtudes que ningún sistema automatizado puede replicar.

  1. La promesa y los límites de la inteligencia artificial en la administración de justicia

La inteligencia artificial (IA) ha irrumpido en el ámbito judicial con la promesa de modernizar un sistema tradicionalmente sobrecargado, lento y desigual. Sus aplicaciones potenciales son diversas: desde la gestión automatizada de expedientes y la asignación algorítmica de causas, hasta el análisis predictivo de sentencias, la redacción asistida de resoluciones o la identificación de patrones en grandes volúmenes de jurisprudencia[2]. En contextos de alta litigiosidad y escasez de recursos, estas herramientas parecen ofrecer una solución técnica a problemas estructurales.

Es crucial distinguir entre IA débil (o estrecha) y IA fuerte (o general). La primera —la única disponible hoy— está diseñada para tareas especializadas (redactar, resumir, clasificar). Sin embargo, es precisamente esta especialización su gran fuerza para el jurista, ya que podemos dirigirla con prompts precisos para tareas legales completas.[3] La segunda —aún teórica— replicaría la inteligencia humana en su integralidad, pero que aún no es parte de nuestra realidad profesional diaria[4].

Los LLMs actuales pertenecen a la categoría de IA débil. Operan mediante patrones estadísticos, no mediante comprensión semántica. Por ello, pueden generar textos verosímiles pero carentes de verdad factual (“alucinaciones”, “citas zombi”)[5]. Esta limitación técnica refuerza el principio de que la justicia requiere sabiduría, no solo conocimiento: la capacidad de ponderar valores, ejercer la prudencia y discernir ante la complejidad humana —virtudes exclusivamente humanas[6]. Como enseña la Guía 961.2025 del Poder Judicial del Chaco, *”el control final sobre cualquier decisión judicial debe permanecer en manos humanas”[7].

Sin embargo, detrás de esta promesa de eficiencia se esconden riesgos profundos que no pueden ignorarse. La IA, especialmente en sus formas más avanzadas —como los modelos de lenguaje generativos (LLMs)—, no es neutral ni infalible. Por el contrario, opera a partir de datos históricos que pueden reproducir sesgos sociales, raciales o de género; su funcionamiento suele ser opaco (“caja negra”); y carece de la capacidad humana para ponderar valores, ejercer la prudencia o comprender el contexto singular de cada caso[8]. Cuando estos sistemas se utilizan sin salvaguardas, corremos el riesgo de automatizar la “injusticia” en lugar de corregirla.

Este dilema es particularmente agudo en el ámbito penal, donde las decisiones judiciales afectan derechos fundamentales como la libertad personal, la presunción de inocencia, el principio de culpabilidad, etc. Un algoritmo que predice el riesgo de reincidencia, por ejemplo, puede influir en la decisión de otorgar o denegar la excarcelación, pero si su lógica es inescrutable o está basada en datos sesgados, viola el principio de razonabilidad y el derecho a un tratamiento individualizado.

En este contexto, la respuesta no puede ser ni el rechazo absoluto ni la adopción acrítica.  Su valor radica en liberar al juez de tareas repetitivas, permitiéndole concentrarse en lo que verdaderamente define su función: interpretar, ponderar, decidir con equidad y motivar razonadamente. Pero para que esa promesa se cumpla, es indispensable establecer límites claros, principios éticos robustos y mecanismos de control efectivos.

La reciente Guía para el Uso de Inteligencia Artificial (IA) del Poder Judicial de la Provincia del Chaco (Resolución STJ Nº 961/2025) representa un paso firme en esa dirección. Al reconocer tanto las oportunidades como los riesgos, y al imponer como principio rector la supervisión humana continua, dicha norma sienta las bases para una integración responsable de la tecnología en la función jurisdiccional[9].

 2.1. Estándares internacionales (UNESCO, CEPEJ)

En 2024, la UNESCO publicó sus Directrices para el uso de sistemas de inteligencia artificial en juzgados y tribunales, cuyo principio central es la supervisión humana continua[10]. Estas directrices prohíben expresamente la automatización total de decisiones judiciales y exigen que los magistrados mantengan el control final sobre cualquier resultado algorítmico. Asimismo, subrayan la necesidad de transparencia: los sistemas de IA deben ser explicables, auditables y sus limitaciones debidamente comunicadas a los usuarios.

El debate sobre el uso de IA en justicia puede enmarcarse en dos posturas antagónicas: el tecnogarantismo y el tecnoactivismo. El primero concibe al proceso como un espacio de igualación jurídica entre partes desiguales, donde el juez debe limitarse a valorar los elementos incorporados legítimamente al debate, sin recurrir a fuentes externas no sometidas a contradicción[11]. El segundo aboga por una intervención proactiva del magistrado, utilizando herramientas tecnológicas para buscar una supuesta “verdad objetiva”.

Desde la perspectiva tecnogarantista —plenamente compatible con el fallo González c/ Santoro de la SCBA—, el uso de IA para recabar información fuera del expediente viola el principio de contradicción y el derecho de defensa. Como sostuvo aquel tribunal, *”una decisión dictada con sustento en información recabada de internet, sin haber sido ofrecida ni producida como prueba en el proceso, carece de sustento probatorio idóneo y se apoya en arbitrio exclusivo del tribunal”[12]. La justicia no es la búsqueda de una verdad metafísica, sino el resultado de un debate procesal estructurado por garantías.

Por ello, la IA solo puede operar como asistente técnico, nunca como sustituto del juicio humano que pondera, contextualiza y decide con equidad.

Este enfoque se refuerza en el ámbito iberoamericano con los Principios Éticos para el Uso de la Inteligencia Artificial en la Administración de Justicia (CEJA-CCCALC, 2023), que establecen como eje central la prohibición de sustituir la racionalidad humana por sistemas automatizados y exigen que el control final sobre las decisiones judiciales permanezca siempre en manos del juez.

A nivel europeo, la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) ha sido pionera en establecer principios éticos para la IA en justicia. Su Carta Ética Europea (2018) identifica cinco pilares: respeto de los derechos fundamentales, no discriminación, calidad y seguridad, transparencia/imparcialidad/equidad, y control humano (supervisión por parte del usuario).[13]

2.2. La Guía 961.2025 del Poder Judicial del Chaco como marco institucional

lejos de surgir en un vacío normativo absoluto, la Resolución STJ Nº 961/2025 del Poder Judicial de la Provincia del Chaco se inscribe en un movimiento creciente de autorregulación judicial a nivel subnacional en Argentina. Si bien aún no existe una normativa federal vinculante sobre el uso de inteligencia artificial en el ámbito judicial, varias provincias han asumido un rol pionero en la elaboración de protocolos éticos y operativos para regular esta tecnología.

La propia Guía chaqueña reconoce expresamente este contexto, al citar instrumentos similares adoptados en:

Río Negro (Acordada N° 15/2024),

San Juan (Acordada N° 102/2024),

Ciudad Autónoma de Buenos Aires (Resolución de Presidencia N° 206/2025),

Formosa (Acuerdo N° 3234, Pto. 3°),

Jujuy (Resolución N° 31/2025),

y Santa Fe (Acuerdo del 06/03/2025).

Estos documentos, aunque con matices propios, comparten principios comunes: prohibición de delegación de decisiones, deber de supervisión humana, protección de datos personales, transparencia en el uso de fuentes y responsabilidad del magistrado por el contenido final de sus resoluciones. En este sentido, la Guía chaqueña no es un caso aislado, sino parte de una tendencia regional hacia la autorregulación ética y técnica del Poder Judicial frente a la IA.

Aprobada por el Superior Tribunal de Justicia  el 14 de noviembre de 2025 y vigente desde el 17 de noviembre del mismo año, la Guía para el Uso de Inteligencia Artificial (IA) establece deberes concretos y límites precisos para magistrados, funcionarios y personal auxiliar que utilicen herramientas de IA en el ejercicio de sus funciones. El documento parte de un reconocimiento realista: la IA ya está presente en la práctica judicial, ya sea en la redacción de escritos, la búsqueda jurisprudencial o el análisis de grandes volúmenes de información.

Frente a esta realidad, la Guía opta por un enfoque de gestión responsable, no de prohibición. Sin embargo, traza una línea roja inquebrantable: “En ningún caso se permite la delegación de la toma de decisiones”. Esta prohibición (de delegación en IA) no es meramente técnica; es una reafirmación del principio de responsabilidad personal del juez, consagrado en el artículo 154 de la Constitución de la Provincia del Chaco, que exige buena conducta, cumplimiento de obligaciones legales y prohíbe el mal desempeño o el desconocimiento inexcusable del derecho.

La Guía impone tres deberes fundamentales:

Verificación crítica: contrastar toda información generada por IA con fuentes fidedignas.

Transparencia: registrar en la sentencia el razonamiento y las fuentes consultadas.

Supervisión humana continua: controlar todo el proceso, desde la consulta hasta la revisión final.

Estas disposiciones no solo anticipan los riesgos de “alucinaciones”, sino que los enfrentan con herramientas procesales concretas. Además, la norma chaqueña se distingue por su enfoque preventivo y formativo, promoviendo la capacitación continua y la creación de protocolos internos. Este enfoque coincide con las mejores prácticas internacionales, pero las adapta al contexto institucional local, reconociendo tanto las oportunidades como los límites de la innovación tecnológica en la función jurisdiccional.

En definitiva, la Guía 961.2025 no es un mero documento administrativo. Es una declaración de principios éticos y procesales que posiciona al Poder Judicial del Chaco dentro de una red de tribunales provinciales comprometidos con una justicia digital humana, transparente y responsable.

El debate sobre el uso de IA en justicia puede enmarcarse en dos posturas antagónicas: el tecnogarantismo y el tecnoactivismo. El primero concibe al proceso como un espacio de igualación jurídica entre partes desiguales, donde el juez debe limitarse a valorar los elementos incorporados legítimamente al debate, sin recurrir a fuentes externas no sometidas a contradicción[14]. El segundo aboga por una intervención proactiva del magistrado, utilizando herramientas tecnológicas para buscar una supuesta “verdad objetiva”.

Desde la perspectiva tecnogarantista —plenamente compatible con el fallo González c/ Santoro de la SCBA—, y la única que cabe en un Estado de Derecho respetuoso del debido proceso, el uso de IA para recabar información fuera del expediente viola el principio de contradicción y el derecho de defensa. Como sostuvo aquel tribunal, *”una decisión dictada con sustento en información recabada de internet, sin haber sido ofrecida ni producida como prueba en el proceso, carece de sustento probatorio idóneo y se apoya en arbitrio exclusivo del tribunal”[15]. La justicia no es la búsqueda de una verdad metafísica, sino el resultado de un debate procesal estructurado por garantías. Por ello, la IA solo puede operar como asistente técnico, nunca como sustituto del juicio humano que pondera, contextualiza y decide con equidad.

  1. Responsabilidad del juez en la era de la IA generativa

El uso de inteligencia artificial por parte de magistrados plantea una cuestión de fondo: ¿puede un juez confiar en la información proporcionada por un sistema algorítmico sin verificarla? La respuesta, tanto desde la doctrina como desde la jurisprudencia emergente, es clara: no.

3.1. Motivación razonada y prohibición de delegación

El deber de motivación razonada opera en todos los niveles del proceso. A nivel federal, el artículo 20 del Código Procesal Penal Federal (Decreto 118/2019) establece que “las decisiones judiciales deben expresar los fundamentos de hecho y de derecho en que se basen” y prohíbe expresamente que la fundamentación “se pueda reemplazar con afirmaciones dogmáticas, ficciones legales o expresiones rituales”[16]. A nivel provincial, en el sistema de juicio por jurados, el artículo 25 de la Ley 2364-B impone al juez resolver “fundadamente, en la misma audiencia, todas las cuestiones planteadas”[17]. Asimismo  los artículos 417 y 423 del Código de Procesal Penal del Chaco regulan los requisitos de la sentencia definitiva y declaran su nulidad cuando la fundamentación es insuficiente, contradictoria o viola las reglas de la sana crítica racional[18].

Esta obligación no admite externalización. La motivación no es un trámite formal, sino una garantía constitucional vinculada al artículo 18 de la Constitución Nacional, que prohíbe las decisiones arbitrarias.

La Guía 961.2025 refuerza esta postura al exigir que el juez “verifique la exactitud de la información y asegure que el razonamiento y las fuentes consultadas queden debidamente reflejados en la sentencia”[19]. Esto implica que, si un magistrado utiliza IA para redactar un borrador, analizar jurisprudencia o interpretar datos, debe: 1) Contrastar la información con fuentes fidedignas, 2) Descartar referencias inexistentes o erróneas, y 3) asumir plena responsabilidad por el contenido final.

3.2. Jurisprudencia argentina: el precedente González c/ Santoro

La Suprema Corte de Justicia de la Provincia de Buenos Aires ha sido contundente al respecto: “una decisión dictada con sustento en información recabada de internet, sin haber sido ofrecida ni producida como prueba en el proceso, carece de sustento probatorio idóneo y se apoya en arbitrio exclusivo del tribunal”[20]. Este precedente, aunque no involucra IA directamente, es plenamente aplicable: ningún elemento externo al debate procesal puede ingresar a la sentencia sin control contradictorio.

3.3. Falsa jurisprudencia y el riesgo de las “alucinaciones”

La proliferación de modelos de lenguaje generativos (LLMs) ha dado lugar a un fenómeno procesal inédito: la invocación de jurisprudencia y doctrina inexistentes. A diferencia de los errores tradicionales —como citas mal transcriptas o fallos mal interpretados—, los LLMs pueden generar referencias totalmente ficticias, con números de expediente, tribunales, fechas y razonamientos aparentemente verosímiles. Este riesgo, conocido como “alucinación”, ya ha dejado huella en la práctica judicial argentina.

En la causa “G.C.A. y otros c/ M.F.D. y otros s/ Daños y Perjuicios”, la Cámara de Apelación en lo Civil y Comercial de Rosario detectó que un abogado había presentado escritos con citas jurisprudenciales generadas por ChatGPT. Al requerirle las fuentes, el letrado reconoció haber utilizado IA “de buena fe” y admitió no haber verificado las referencias.

El juez Oscar Puccinelli emitió una fuerte advertencia ética: *”Mientras los sistemas no se desarrollen al punto de no alucinar, es sumamente riesgoso y hasta temerario delegar la labor de búsqueda de jurisprudencia de soporte y luego volcarla sin cotejar la fuente[21].

Este caso demuestra que, incluso en ausencia de dolo, la confianza acrítica en la IA viola el deber de lealtad procesal. Como advierte la UNESCO, los LLMs “no ofrecen garantías sobre la veracidad, calidad y formato deseado de sus resultados” y *”incluso con las mejores indicaciones, el resultado puede ser inexacto, incompleto, engañoso o sesgado”[22].

En consecuencia, la responsabilidad del juez frente a la IA no es meramente técnica, sino ética y procesal. El control final sobre cualquier decisión judicial debe permanecer en manos humanas. La justicia no puede depender de sistemas que “inventan” jurisprudencia, distorsionan normas o reproducen sesgos estructurales. Solo mediante la supervisión humana rigurosa se preserva la integridad del debido proceso y la legitimidad de la función jurisdiccional.

3.4. El caso de Esquel: primera anulación de sentencia por uso indebido de IA

En junio de 2025, la Cámara en lo Penal de Esquel (Provincia de Chubut) dictó un fallo histórico que, si bien no es vinculante para el Chaco, establece un precedente regional relevante: anuló una sentencia condenatoria al comprobar que el juez de primera instancia había utilizado indebidamente IA generativa[23].

El caso se originó en la causa N.º 1239/2025, donde un juez penal de Esquel condenó a un acusado a 2 años y 6 meses de prisión efectiva por un delito de robo. Al revisar la sentencia, los camaristas detectaron una frase delatora en el apartado “Punto IV”:  “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”. Esta expresión, claramente generada por un chatbot, evidenció que el magistrado había incorporado texto producido por IA sin revisión crítica, anonimización ni trazabilidad. La Cámara declaró la nulidad absoluta del juicio, fundada en: 1) La delegación prohibida de funciones jurisdiccionales (arts. 16 y 75 del CPP Chubut), 2) La falta de motivación suficiente, la violación del debido proceso, y 3) La infracción al Acuerdo Plenario 5435/2025 del Superior Tribunal de Justicia de Chubut, que prohíbe la delegación en sistemas automatizados[24].

Además, ordenó remitir las actuaciones al Superior Tribunal de Justicia para una investigación disciplinaria, subrayando que la confianza acrítica en la IA no releva al magistrado de su responsabilidad personal[25].

Este precedente marca un antes y un después en la jurisprudencia argentina: por primera vez, una sentencia es anulada no por error sustantivo, sino por el modo en que fue elaborada.

 3.5 El caso colombiano: anulación de una sentencia por uso de IA sin motivación humana

En América Latina, el precedente más contundente proviene de Colombia. En 2024, la Corte Suprema de Justicia anuló una sentencia dictada por un juez de familia que había utilizado frases hechas generadas por IA para fundamentar su decisión, sin adaptarlas al caso concreto ni realizar valoración probatoria propia³.

La Corte sostuvo que este proceder violaba el principio de no sustitución de la racionalidad humana, desarrollado en su Sentencia T-323/2024, que establece que la IA solo puede asistir, nunca decidir. La sentencia anulada carecía de “motivación personalizada” y reproducía argumentos genéricos, lo que impedía a las partes ejercer su derecho de defensa y recurso[26].

Este fallo es pionero porque declara la nulidad de una resolución judicial por el uso negligente de IA, estableciendo un estándar regional de exigencia motivacional.

  1. Explicabilidad y derecho a una decisión comprensible

Uno de los mayores desafíos éticos y procesales que plantea la IA es su opacidad. Muchos algoritmos, especialmente aquellos basados en deep learning, funcionan como “cajas negras”: toman entradas y producen salidas, pero sin revelar cómo se alcanzó esa conclusión. Esta falta de transparencia es inadmisible en el ámbito judicial, donde el derecho a una sentencia motivada y comprensible es un pilar del debido proceso.

El concepto de explicabilidad (Explainable Artificial Intelligence, XAI) busca superar esta opacidad, exigiendo que los sistemas de IA puedan proporcionar razones comprensibles —para seres humanos— sobre sus decisiones[27]. En el contexto judicial, esto no es un lujo técnico, sino una exigencia constitucional. Si un juez utiliza un algoritmo para evaluar riesgos, clasificar pruebas o predecir conductas, debe poder explicar —a las partes y a tribunales superiores— cómo llegó a esa conclusión.

Sin embargo, la explicabilidad enfrenta obstáculos prácticos. Por un lado, algunos algoritmos son tan complejos que incluso sus creadores no pueden rastrear completamente su lógica interna[28]. Por otro, las empresas desarrolladoras suelen invocar el secreto comercial o la propiedad intelectual para negar el acceso al código fuente, lo que obstaculiza la fiscalización judicial[29].

Un tercer obstáculo de naturaleza ética afecta la explicabilidad: la reproducción de sesgos estructurales, particularmente los de género. Los modelos de lenguaje generativos entrenados con datos históricos pueden perpetuar estereotipos que distorsionan la valoración de la prueba en casos de violencia de género, femicidio o legítima defensa de mujeres[30]. Como advierte la UNESCO, “los sistemas de IA pueden amplificar desigualdades existentes si no se diseñan con enfoques de no discriminación y equidad”[31].

Por ello, el juez debe ejercer una vigilancia crítica de género al utilizar IA, interrogándose: ¿el sistema reproduce estereotipos sobre la “víctima ideal” o el “agresor prototípico”? ¿omite matices culturales o sociales relevantes para la valoración del caso? Esta exigencia no es opcional: el artículo 423, inciso 4, del Código Procesal Penal del Chaco declara la nulidad de la sentencia si su fundamentación “no se hubieran observado en ella las reglas de la sana crítica racional, con respecto a elementos probatorios de valor decisivo”[32].

Cuando un algoritmo opaco reproduce sesgos de género sin que el juez los detecte, se viola precisamente esa exigencia de sana crítica.

Ante este dilema, la solución no es renunciar a la IA, sino imponer condiciones estrictas para su uso. La Guía 961.2025 del Poder Judicial del Chaco, aunque no regula algoritmos complejos, sí establece un principio general: toda información utilizada debe ser verificable y transparente[33]. Esto implica que, en la práctica, los jueces deben abstenerse de utilizar sistemas cuya lógica sea inescrutable o cuyo funcionamiento no pueda auditarse.

Además, el derecho a la explicación no solo protege a las partes, sino que fortalece la rendición de cuentas del propio juez. Si el razonamiento algorítmico es claro, el magistrado puede ejercer su deber de supervisión con mayor eficacia. En cambio, si el sistema es opaco, el juez corre el riesgo de convertirse en un mero “validador” de resultados automáticos, violando su deber de motivación razonada.

En este sentido, la explicabilidad no es solo una característica técnica, sino una garantía procesal. Como señala Lucía Ortiz de Zárate, “la explicación debe ser comprensible para los seres humanos y corresponderse con la realidad que trata de explicar”[34]. Solo así se asegura que la IA sea una herramienta de apoyo, y no un obstáculo para la justicia.

  1. Hacia un modelo de justicia digital compatible con el Estado de derecho

La integración de la inteligencia artificial en la justicia no debe guiarse por la lógica del mercado ni por la promesa de eficiencia a cualquier costo. Debe estar anclada en los valores del Estado de derecho: imparcialidad, igualdad, debido proceso, responsabilidad y dignidad humana.

En este sentido, resulta ilustrativo el enfoque adoptado recientemente por la República Popular China. En marzo de 2024, su Ministerio de Recursos Humanos estableció que la adopción de IA por parte de las empresas no justifica despidos por reemplazo tecnológico. La norma prohíbe que una empresa despida a un trabajador únicamente porque una máquina lo haya decidido. Más allá de la lógica algorítmica, se exige que: 1) La decisión final de despido sea tomada por una persona, no por un sistema automatizado; 2)

El trabajador tenga derecho a recibir una explicación comprensible, en lenguaje humano, sobre las razones de la decisión; 3) Y exista la posibilidad real de apelar ante un supervisor humano, quien deberá revisar críticamente el resultado del algoritmo antes de confirmarlo[35].

Este enfoque refuerza un principio central: la innovación tecnológica no puede prevalecer sobre los derechos fundamentales del ser humano, ni siquiera en el sector privado. Si en el ámbito empresarial se prohíbe la delegación total en IA, con mayor razón debe prohibirse en la función jurisdiccional, donde están en juego libertades personales, presunción de inocencia y garantías constitucionales.

El camino hacia una justicia digital legítima requiere, entonces, tres pilares complementarios:

 Primero, regulación vinculante. Los códigos éticos, aunque valiosos, carecen de sanciones y no garantizan su cumplimiento. Es urgente que los poderes judiciales provinciales y la Nación avancen en normativas que impongan obligaciones claras, mecanismos de control y sanciones por uso negligente de IA —como ya lo hacen la Guía 961.2025 del Chaco y el Acuerdo Plenario 5435/2025 de Chubut.

Segundo, formación continua. Los jueces no deben ser expertos en algoritmos, pero sí comprender sus límites, riesgos y sesgos. La capacitación debe formar parte de la agenda institucional, tal como lo propone la UNESCO[36] y lo anticipa la Guía chaqueña.

Tercero, colaboración interdisciplinaria. El diseño de sistemas de IA para la justicia no puede dejarse únicamente en manos de ingenieros. Abogados, jueces, filósofos del derecho y científicos sociales deben participar desde el inicio, asegurando que los algoritmos respeten los principios del debido proceso y no reproduzcan injusticias históricas.

Finalmente, y sobre todo, debe reafirmarse que la justicia es una función humana. La IA puede ayudar a gestionar expedientes, resumir documentos o identificar patrones, pero nunca puede reemplazar el juicio prudente, equitativo y contextualizado del juez. Como enseñaba Aristóteles, la justicia no es solo aplicación de reglas, sino discernimiento ante la singularidad de cada caso. Esa virtud —la prudencia— sigue siendo, y debe seguir siendo, exclusivamente humana.

Conclusiones

La inteligencia artificial ha llegado a los tribunales, y su presencia es irreversible. Sin embargo, su uso no puede suponer una cesión de la autonomía judicial ni una dilución de la responsabilidad del juez. La Guía 961.2025 del Poder Judicial del Chaco representa un paso firme en la dirección correcta: reconocer los beneficios de la tecnología, pero imponer límites éticos y procesales inquebrantables.

Este trabajo ha puesto de manifiesto  que la IA solo es compatible con el Estado de derecho si se concibe como una herramienta auxiliar sometida a control humano riguroso. La prohibición de delegación, el deber de verificación, la exigencia de transparencia y la responsabilidad personal del juez no son meras recomendaciones, sino garantías constitucionales derivadas del artículo 18 CN y de los códigos procesales penales.

La jurisprudencia argentina ya ha trazado los contornos de estos límites. Ahora corresponde a los poderes judiciales, a los legisladores y a la comunidad académica consolidarlos en normas, prácticas y formación.

Para una praxis ética y regulada, es imperativo:

  • Garantizar la explicabilidad y trazabilidad de cada sugerencia algorítmica,.
  • Mantener el control humano en todas las etapas para prevenir sesgos y alucinaciones,.
  • Fomentar la capacitación continua de los magistrados para que comprendan las limitaciones técnicas y los riesgos éticos.

El futuro de la justicia no depende de cuán avanzada sea la tecnología, sino de cuán firmes sean nuestros compromisos con la dignidad humana, la transparencia y el debido proceso. En esa tarea, el juez no es un obstáculo a la innovación, sino su garante último.

 Bibliografía

Doctrina y fuentes normativas

  • Constitución de la Provincia del Chaco, arts. 20 y 154.
  • Constitución Nacional, art. 18.
  • Código Procesal Penal Federal, Decreto 118/2019, art. 20.
  • Código Procesal Penal de la Provincia del Chaco, Ley 965-N (antes Ley 4538), 417 y 423 y Ley de Juicio por Jurados N° 2364-B art. 25.
  • DI CHIAZZA, I. G. y PASTORE, J. I. Inteligencia artificial en la práctica jurídica: cómo usar la tecnología para acelerar, profundizar y transformar el ejercicio profesional. Buenos Aires: Rubinzal Culzoni Editores, 2024.
  • Inteligencia Argentina. “China fija un límite a los despidos por reemplazo de IA”, 2024. Disponible en: https://inteligenciaargentina.ar/inteligencia-artificial/china-fija-un-limite-a-los-despidos-por-reemplazo-de-ia
  • ORTIZ DE ZÁRATE ALCARAZO, L. “Explicabilidad (de la inteligencia artificial)”. Eunomía. Revista en Cultura de la Legalidad, n.º 22, 2022, pp. 328-344. DOI: https://doi.org/10.20318/eunomia.2022.6819.
  • Poder Judicial de la Provincia del Chaco. Guía para el Uso de Inteligencia Artificial (IA). Resolución STJ Nº 961/2025, Anexo I. Vigencia desde el 17 de noviembre de 2025.
  • UNESCO. Directrices de la UNESCO para el uso de sistemas de inteligencia artificial en juzgados y tribunales. 2024. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000381298

Jurisprudencia

  • Cámara de Apelación en lo Civil y Comercial de Rosario. “G.C.A. y otros c/ M.F.D. y otros s/ Daños y Perjuicios”. Informado en: Diario Judicial, “Las citas falsas con ChatGPT llegaron a la Argentina”, 2024. Disponible en: https://www.diariojudicial.com/news-101403-las-citas-falsas-con-chatgpt-llegaron-a-la-argentina
  • Cámara en lo Penal de la Circunscripción Judicial de Esquel (Chubut). Sentencia N.º 1239/2025, 4 de junio de 2025. Caso “R.A.P.”. Informado en: Diario Judicial, “Al juez lo condenó ChatGPT”, 22 de enero de 2026. Disponible en: https://www.diariojudicial.com/news-101840-al-juez-lo-condeno-chatgpt
  • Cámara Nacional en lo Criminal y Correccional, Sala I. “S., S. L. P. s/ recurso de apelación”, causa CCC 51192/2023/CA1, 10 de julio de 2024.
  • Corte Suprema de Justicia de Colombia. Sentencia T-323/2024. Caso sobre anulación de sentencia por uso de “frases hechas” de IA. Informado en: El Colombiano, “Corte Suprema anuló fallo por frases hechas de inteligencia artificial”, 2024. Disponible en: https://www.elcolombiano.com/colombia/corte-suprema-anulo-fallo-frases-hechas-inteligencia-artificial-CN30971740
  • Suprema Corte de Justicia de la Provincia de Buenos Aires. “González, Elisa Miriam c/ Santoro, Carlos Horacio y otro/a”, 13 de mayo de 2015. Disponible en: https://www.scba.gov.ar/jurisprudencia/fallos/2015/05/13/GONZALEZ,%20ELISA%20MIRIAM.htm

[1] Poder Judicial de la Provincia del Chaco, Guía para el Uso de Inteligencia Artificial (IA), Resolución STJ Nº 961/2025, considerandos.

[2] UNESCO, Directrices de la UNESCO para el uso de sistemas de inteligencia artificial en juzgados y tribunales, 2024, p. 5.

[3] Cfr. IVAN GUSTAVO DI CHIAZZA-JOSÉ IGNACIO PASTORE en “INTELIGENCIA ARTIFICIAL EN LA PRÁCTICA JURÍDICA COMO USAR LA TECNOLOGÍA PARA ACELERAR, PROFUNDIZAR Y TRANSFORMAR EL EJERCICIO PROFESIONAL” Edit. RUBINZAL CULZONI EDITORES. Año 2025 pág. 37.

[4] Ibíd., p. 38

[5] Ibíd., p. 12.

[6] Cfr. ORTIZ DE ZÁRATE ALCARAZO, L., “Explicabilidad (de la inteligencia artificial)”, Eunomía. Revista en Cultura de la Legalidad, n.º 22, 2022, p. 340.

[7] Poder Judicial de la Provincia del Chaco, Guía para el Uso de Inteligencia Artificial (IA), Resolución STJ Nº 961/2025, p. 2.

[8] Cfr. ORTIZ DE ZÁRATE ALCARAZO, L., op. cit., p. 340.

[9] Poder Judicial de la Provincia del Chaco, op. cit., p. 1.

[10] UNESCO, Directrices de la UNESCO para el uso de sistemas de inteligencia artificial en juzgados y tribunales, 2024, p. 5.

[11]  ORTIZ DE ZÁRATE ALCARAZO, L., “Explicabilidad (de la inteligencia artificial)”, Eunomía. Revista en Cultura de la Legalidad, n.º 22, 2022, p. 332.

[12] Suprema Corte de Justicia de la Provincia de Buenos Aires, “González, Elisa Miriam c/ Santoro, Carlos Horacio y otro/a”, 13 de mayo de 2015.

[13] COMISIÓN EUROPEA PARA LA EFICIENCIA DE LA JUSTICIA (CEPEJ). Carta Ética Europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno. Estrasburgo: Consejo de Europa, 2018 (actualizada en 2021). Disponible en: https://rm.coe.int/ethical-charter-on-the-use-of-artificial-intelligence-in-justice/1680a7c6e3

[14] Cfr. ORTIZ DE ZÁRATE ALCARAZO, L., “Explicabilidad (de la inteligencia artificial)”, Eunomía. Revista en Cultura de la Legalidad, Nº 22, 2022, p. 332.

[15] Suprema Corte de Justicia de la Provincia de Buenos Aires, “González, Elisa Miriam c/ Santoro, Carlos Horacio y otro/a”, 13 de mayo de 2015.

[16] Código Procesal Penal Federal, Decreto 118/2019, art. 20.

[17] Ley Nro. 2364-B (Antes Ley 7661) de Juicio por jurados, art. 25.

[18] Ley Nro. 965-N (Antes Ley 4538), arts. 417 y 423.

[19] Poder Judicial del Chaco, Guía para el Uso de Inteligencia Artificial (IA). Resolución STJ Nº 961/2025, p. 4.

[20] Suprema Corte de Justicia de la Provincia de Buenos Aires, “González, Elisa Miriam c/ Santoro, Carlos Horacio y otro/a”, 13 de mayo de 2015.

[21] Diario Judicial, “Las citas falsas con ChatGPT llegaron a la Argentina”, 2024. Disponible en: https://www.diariojudicial.com/news-101403-las-citas-falsas-con-chatgpt-llegaron-a-la-argentina

[22] UNESCO, Directrices de la UNESCO para el uso de sistemas de inteligencia artificial en juzgados y tribunales, 2024, p. 12.

[23] Diario Judicial, “Al juez lo condenó ChatGPT”, 22 de enero de 2026. Disponible en: https://www.diariojudicial.com/news-101840-al-juez-lo-condeno-chatgpt

[24] Ibíd.

[25] Ibíd.

[26] El Colombiano, “Corte Suprema anuló fallo por frases hechas de inteligencia artificial”, 2024. Disponible en: https://www.elcolombiano.com/colombia/corte-suprema-anulo-fallo-frases-hechas-inteligencia-artificial-CN30971740

[27] ORTIZ DE ZÁRATE ALCARAZO, L. “Explicabilidad (de la inteligencia artificial)”. Eunomía. Revista en Cultura de la Legalidad, Nº 22, 2022, p. 329. DOI: https://doi.org/10.20318/eunomia.2022.6819

[28] Ibíd., p. 336.

[29] Ibíd., p. 340.

[30] UNESCO. Directrices de la UNESCO para el uso de sistemas de inteligencia artificial en juzgados y tribunales, 2024, p. 14.

[31] Ibíd., p. 9.

[32] Código Procesal Penal de la Provincia del Chaco, Ley 965-N (Antes Ley 4538), art. 423, inc. 4.

[33] Poder Judicial de la Provincia del Chaco. Guía para el Uso de Inteligencia Artificial (IA). Resolución STJ Nº 961/2025, p. 4.

[34] ORTIZ DE ZÁRATE ALCARAZO, L., op. cit., p. 340.

[35] Inteligencia Argentina, “China fija un límite a los despidos por reemplazo de IA”, 2024. Disponible en: https://inteligenciaargentina.ar/inteligencia-artificial/china-fija-un-limite-a-los-despidos-por-reemplazo-de-ia

[36] UNESCO, Directrices de la UNESCO para el uso de sistemas de inteligencia artificial en juzgados y tribunales, 2024, p. 20.

* Juez de Cámara Tercera en lo Criminal. Profesor de Postgrado en Derecho Penal Universidad del Chaco Austral.

fuente: Inteligencia Artificial: Entre la Innovación, la Ética y la Regulación – Litigio”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios