La primera sentencia argentina contra la IA: el riesgo de una profesión en piloto automático.

La primera sentencia argentina contra la IA: el riesgo de una profesión en piloto automático.

Por Mario Covarrubias Jurado

Hace tan solo unos días la Sala II de la Cámara de Apelación en lo Civil y Comercial de Rosario (autos “Giacomino, César Adrián y otros c/ Monserrat, Facundo Damián y otros s/ daños y perjuicios”), con voto del juez Oscar Puccinelli, dictó un fallo que marca un antes y un después en la práctica profesional argentina. Por primera vez en nuestro país, un tribunal debió reprender a un abogado por haber incorporado en su escrito citas jurisprudenciales inexistentes, generadas por inteligencia artificial y nunca verificadas [1]

El tribunal no dudó en calificar la conducta como riesgosa y contraria a la ética profesional. En palabras de la sentencia: “Tal actitud, aún de buena fe, compromete la responsabilidad profesional del letrado no sólo ante el tribunal sino, especialmente, respecto de su cliente (…) pues no puede haber consentimiento válido alguno que releve a un letrado de su deber de cotejar las fuentes en las que basa sus posiciones jurídicas” [2]

La resolución también recordó las Normas de Ética Profesional del Abogado publicadas por el Colegio de Abogados de Rosario, cuya segunda regla es la de probidad: “no importa tan sólo corrección desde el punto de vista pecuniario: requiere además lealtad personal, veracidad, buena fe”. [3] Y fue más allá, oficiando al Colegio a fin de que adopte medidas preventivas. La sentencia, sin sancionar expresamente al profesional, desnuda una verdad incómoda: la abogacía está cayendo bajo, demasiado bajo.

En junio pasado publiqué en este mismo medio un artículo titulado “La amenaza silenciosa: cómo la inteligencia artificial pone en jaque a los jóvenes abogados en Argentina”. Allí advertía que “la delegación del razonamiento crítico en máquinas erosiona la esencia de la profesión”. [4] El fallo de Rosario confirma que esa amenaza ya no es silenciosa: se ha vuelto un escándalo visible en los estrados judiciales.

Lo que hace unos años criticábamos como el vicio del “copy paste” hoy mutó en algo peor: la dependencia de prompts [5]. El nuevo abogado, convertido en un técnico del derecho que sabe operar máquinas pero no razonar con códigos, está en las antípodas del abogado tradicional. Como señaló la Cámara: “mientras los sistemas no se desarrollen al punto de no alucinar, es sumamente riesgoso y hasta temerario delegar la labor de búsqueda de jurisprudencia de soporte y luego volcarla sin cotejar la fuente, como aquí ocurrió”. [6]

Aquí radica el verdadero núcleo del problema: la profesión ha entrado en piloto automático y el abogado lentamente está perdiendo el arte del razonamiento jurídico. El derecho no es una simple técnica de recuperación de información, sino un ejercicio complejo de interpretación, ponderación y argumentación. Construir un alegato supone seleccionar hechos relevantes, relacionarlos con normas, cotejar precedentes y proyectar consecuencias. En ese proceso se forja la esencia de la profesión: persuadir mediante un razonamiento propio. Cuando esa tarea se sustituye por la transcripción automática de lo que devuelve una máquina, lo que se erosiona no es solo la calidad del escrito, sino el rol intelectual del abogado mismo.

Este riesgo no se limita a casos aislados. Basta observar lo que está ocurriendo en el ámbito jurídico privado para entender hacia dónde podría escalar esta tendencia. Hoy, grandes firmas legales ya trabajan con herramientas como Harvey (basada en tecnología de OpenAI), que redacta escritos, estructura argumentos y localiza precedentes en segundos. CoCounsel, de Casetext, revisa contratos, analiza expedientes y responde consultas jurídicas de forma automatizada. Luminance audita complejas operaciones contractuales en minutos y Blue J Legal predice fallos judiciales con base en jurisprudencia previa.

Estas plataformas no sustituyen al abogado, al menos en la teoría. En la práctica, sin embargo, están generando una peligrosa dependencia. Abogados que antes analizaban, redactaban y argumentaban con autonomía ahora delegan estas tareas a la máquina y, lo más preocupante, han perdido la capacidad de realizarlas sin ella. Una investigación reciente del Massachusetts Institute of Technology (MIT) Media Lab advierte que el uso de IA generativa, como ChatGPT, corroe la función cognitiva: debilita la capacidad de análisis, socava el pensamiento crítico y pone en riesgo la independencia en la toma de decisiones [6]. La IA no solo asiste; lentamente condiciona, moldea y redefine lo que significa pensar como abogado.

No se trata de un problema local. Prueba de ello es el creciente número de sanciones impuestas a abogados como Steven Schwartz [8] o Zachariah C. Crabill [9] en tribunales de Estados Unidos. En el Reino Unido, recientemente y también con motivo de una presentación judicial con citas inexistentes, el Tribunal Superior de Justicia advirtió que el profesional que utilice IA sin verificación incumple su deber fundamental de diligencia. [10] Y el Reglamento Europeo sobre Inteligencia Artificial calificó como de «alto riesgo» a determinados sistemas de IA como son los destinados a la administración de justicia y los procesos democráticos [11]. Rosario no es una anomalía: es un leading case, el primero en Argentina en el que los tribunales constataron en un expediente lo que hasta ahora eran meras teorías sobre “sesgos” y “alucinaciones” de la IA. [12]

El fallo rosarino es, en definitiva, una radiografía brutal de la decadencia de la profesión. La abogacía, que alguna vez se definió por el estudio y la razón, se va convirtiendo en un oficio de operadores que ejecutan instrucciones sin juicio crítico. Como bien se dijo en el fallo, “aparecen fuentes lisa y llanamente inventadas”. [12] Cada nuevo pronunciamiento que desnuda estas prácticas muestra lo bajo que hemos caído.

La inteligencia artificial puede ser aliada, pero nunca un reemplazo de la ética ni del estudio. Lo que está en juego no es solo la seriedad de un escrito: es la esencia misma de la abogacía. Y si no reaccionamos, el próximo fallo no hablará de jurisprudencia inexistente, sino de algo peor: de abogados inexistentes.

Citas

[1] Cámara de Apelación en lo Civil y Comercial de Rosario, Sala II, autos “Giacomino, Cesar Adrián y Otros c/ Monserrat, Facundo Damián y Otros s/ Daños y Perjuicios” (CUIJ 21-11893083-2). Agosto, 2025.
[2] Considerando No. 5 del fallo de la Cámara de Apelación en lo Civil y Comercial de Rosario, Sala II, autos “Giacomino, Cesar Adrián y Otros c/ Monserrat, Facundo Damián y Otros s/ Daños y Perjuicios” (CUIJ 21-11893083-2). Agosto, 2025.
[3] Colegio de Abogados de Rosario, Normas de Ética Profesional del Abogado, Regla de Probidad (https://www.colabro.org.ar/servicios/tribunal-de-etica/normas-de-etica-profesional-del-abogado-4051).
[4] Covarrubias Jurado, Mario, “La amenaza silenciosa: cómo la inteligencia artificial pone en jaque a los jóvenes abogados en Argentina”, Abogados.com, junio 2025. (https://abogados.com.ar/la-amenaza-silenciosa-como-la-inteligencia-artificial-pone-en-jaque-a-los-jovenes-abogados-en-argentina/36866).
[5] En el ámbito de la inteligencia artificial, prompt es la instrucción o pedido que el usuario le formula al sistema (por ejemplo: “redactá una demanda por incumplimiento contractual”). A partir de esa orden, la IA genera su respuesta.
[6] Considerando No. 5 del fallo de la Cámara de Apelación en lo Civil y Comercial de Rosario, Sala II, autos “Giacomino, Cesar Adrián y Otros c/ Monserrat, Facundo Damián y Otros s/ Daños y Perjuicios” (CUIJ 21-11893083-2). Agosto, 2025.
[7] “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task”, MIT Media Lab, June 10, 2025 (https://www.media.mit.edu/publications/your-brain-on-chatgpt/).
[8] “Roberto Mata vs. Avianca Inc’’ / Case 1:22-cv-01461-PKC, Distric Court, S.D. New York, Feb. 22,2022 ( https://www.courtlistener.com/docket/63107798/mata-v-avianca-inc/).
[9] ‘‘Colorado lawyer suspended for using AI platform to draft legal motion’’- CBS Colorado. (https://www.cbsnews.com/colorado/news/colorado-lawyer-artificial-intelligence-suspension).
[10] In re “Ayinde v. The London Borough of Haringey” y “Al-Haroun v. Qatar National Bank y QNB Capital LLC”, High Court of Justice, King’s Bench Division, Divisional Court, Neutral Citation Number: [2025] EWHC 1383 (Admin) Case Nos: AC-2024-LON 003062 and CL-2024-000435.
[11] Conf. EU Artificial Intelligence Act Annex III: High-Risk AI Systems Referred to in Article 6(2) (https://artificialintelligenceact.eu/annex/3/).
[12] Sesgos y alucinaciones de la IA en el derecho: los sesgos son distorsiones en los resultados de la IA causadas por los datos legales con los que fue entrenada (por ejemplo, favorecer ciertos fallos o interpretaciones). Las alucinaciones ocurren cuando la IA genera información jurídica incorrecta o inexistente, como citar normas o sentencias que no existen. Conf. “The Phantom Menace: Generative AI Hallucinations and Their Legal Implications” by Habib Lantyer, Victor (March 05, 2025).

fuente: GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios