Inteligencia Artificial, fallos judiciales y el deber irrenunciable de humanidad

Cuando el botón «enviar» compromete derechos. Los avances tecnológicos —en especial la inteligencia artificial generativa— han llegado al mundo jurídico para quedarse. En el último año, la inteligencia artificial (IA) generativa irrumpió con fuerza en los pasillos judiciales, las redacciones de escritos y las estrategias procesales. Lo que al principio fue asombro, se convirtió en riesgo.

Actualmente, con los fallos judiciales de Rosario, Córdoba, Morón y Río Negro, se empieza a dibujar con claridad una línea roja ética que la abogacía argentina no puede ni debe cruzar. Han llegado los errores, las omisiones y los peligros éticos derivados de su uso acrítico. El poder judicial tuvo que intervenir ante una práctica que vulnera, no solo principios técnicos, sino los cimientos éticos del ejercicio profesional: la incorporación de fallos inexistentes generados por IA, sin validación humana.

Estos precedentes funcionan como advertencias, pedagogía judicial en acción, han motivado decisiones que marcan un antes y un después. Estas resoluciones judiciales no solo evidencian fallas técnicas. Nos obligan a revisar la práctica profesional, el deber ético del abogado, el rol de los Colegios y Facultades o centros académicos en el ecosistema jurídico.

Y nos generan además una pregunta central: ¿quién responde cuando se vulnera la confianza del justiciable en la profesión?

Cuatro fallos y su común denominador


Los abogados presentaron escritos con citas de jurisprudencia falsa, generadas por sistemas de IA como ChatGPT, sin haberlas verificado y las sentencias no se limitaron a declarar sólo la improcedencia de los argumentos: fueron mucho más allá. Dejaron en claro que la buena fe no alcanza cuando se trata de la responsabilidad profesional.

El abogado no puede delegar su deber de verificar. No se regularon honorarios. Se declararon desiertos  recursos quedando el justiciable sin un vía recursiva. Los tribunales llamaron la atención sobre el uso no controlado de IA, resaltaron la posible afectación al debido proceso. Hasta se llega a mencionar la posibilidad de encuadre como estafa procesal.

Y con claridad determinan que no existe consentimiento informado que libere al profesional de su deber de cotejar sus fuentes, necesidad de alfabetizar y capacitar. El daño no es solo procesal: el justiciable en el centro. Detrás del uso inadecuado de IA no hay solo un incumplimiento formal o una infracción ética. Hay un ciudadano que confía en su abogado o abogada para ejercer su defensa con seriedad, ética y profesionalismo. Espera que el abogado/a que contrata no solo sepa derecho, sino que respete sus derechos. Que no delegue su responsabilidad en un sistema automatizado. Que no defraude su confianza con argumentos fantasiosos.

De quién es la firma


Como sostiene la Guía del CPACF, «la IA no decide: solo sugiere». El análisis crítico es insustituible. Hoy más que nunca, el Derecho necesita reafirmar su principio de humanidad: que el abogado/a piensa, decide, responde y firma. Que puede usar tecnología, pero no esconderse detrás de ella. Que la IA no justifica el error, ni puede convertirse en coautora de una estrategia procesal fallida.

La ética no se delega: los deberes irrenunciables. Las guías de buenas prácticas elaboradas por el CPACF y propuestas por el Instituto de Derecho e Inteligencia Artificial del Colegio de Abogados de Neuquén son claras y complementarias: Validar siempre las fuentes. Supervisión humana indelegable. No incorporar contenidos «alucinados». El/la profesional debe saberlo y asumir el control. La responsabilidad jurídica plena es del abogado/a firmante: la IA no exonera. Es una herramienta, no un escudo.

Estos fallos no son castigos. Son lecciones institucionales que urgen a una reforma cultural en la abogacía. Algunas acciones concretas son la capacitación obligatoria en IA y derecho, formar en ética, sesgos, alucinaciones y responsabilidad digital.

Volvamos al principio de humanidad


La Inteligencia Artificial puede mejorar la práctica jurídica. Pero cuando se usa sin conciencia crítica, sin verificación, sin ética, no hay innovación sino regresión. No puede haber ejercicio profesional sin alfabetización tecnológica. Así como aprendimos a usar el Código Civil, hoy es necesario saber cómo funciona cada herramienta de I.A., qué es una «alucinación», cómo evitar sesgos, técnicas de mitigación y cuándo decir «esto no lo puedo firmar».

La formación jurídica tradicional ya no alcanza. Es hora de incorporar talleres interdisciplinarios en ética digital, derecho computacional y gobernanza algorítmica.

Recordar que el centro es el justiciable. Estos errores no afectan al abogado: afectan al cliente, al ciudadano que deposita su confianza en un profesional y en el sistema de justicia. No hay IA que repare una confianza rota. Es momento de trazar un límite normativo y cultural. Y ese límite es el control humano, la verdad, y la ética.

La Inteligencia Artificial no reemplaza la inteligencia profesional. La firma sigue siendo humana. El deber sigue siendo nuestro. Hoy más que nunca, el derecho necesita menos clics automáticos y más pensamiento crítico. Más formación. Más verdad. Más humanidad. Ese es el límite. Y no lo pone la máquina: lo ponemos nosotros.

(*) Directora del Instituto de Derecho e Inteligencia Artificial del Colegio de Abogados y Procuradores de Neuquén.

fuente: Inteligencia Artificial, fallos judiciales y el deber irrenunciable de humanidad”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios