
En un contexto en el que la inteligencia artificial comienza a integrarse de manera creciente en la práctica jurídica, el debate profesional ya no se limita a los riesgos de su uso, sino que se extiende a las consecuencias de decidir prescindir de ella. La discusión ya no es si la inteligencia artificial debe usarse, sino qué sucede cuando el abogado decide no hacerlo. Mientras en el exterior comienza a debatirse si la omisión en el uso de estas herramientas puede configurar mala praxis, lo cierto es que hoy herramientas como ChatGPT, Claude o Gemini —incluso en sus versiones gratuitas— permiten detectar errores, encontrar precedentes y estructurar argumentos en segundos, a lo que se suman soluciones específicas del mercado legal como Harvey o Lexis+ AI. En este contexto, el abogado que no se actualiza ya no solo pierde eficiencia: empieza a exponerse a un riesgo mucho más serio. Porque cuando la tecnología está al alcance de todos, no utilizarla puede traducirse en un servicio profesional objetivamente inferior, con consecuencias que ya no se limitan al resultado del caso, sino que pueden proyectarse sobre su propia responsabilidad. Y el problema, como se verá, no es solo no usar IA: también es usarla mal.
Conviene aclarar desde el principio lo que este artículo no sostiene: no existe un deber automático ni universal de adoptar inteligencia artificial. Lo que se argumenta es algo más preciso y más exigente: el deber de evaluar razonadamente las herramientas disponibles según el tipo de caso, la complejidad del asunto y el estándar de práctica habitual. Esa evaluación —y la omisión de realizarla— es lo que empieza a tener relevancia jurídica.
I. De la advertencia a la evidencia.
Hace poco más de un año advertíamos sobre un riesgo incipiente: la posibilidad de que la inteligencia artificial comenzara a desplazar el razonamiento jurídico en la práctica cotidiana, particularmente en las etapas iniciales de formación profesional. En “La amenaza silenciosa: cómo la inteligencia artificial pone en jaque a los jóvenes abogados en Argentina”, señalábamos que el verdadero peligro no residía en la herramienta en sí misma, sino en la delegación acrítica del pensamiento jurídico, esto es, en la sustitución del criterio profesional por respuestas automatizadas1.
Ese escenario, lejos de permanecer en el plano teórico, adquirió rápidamente manifestaciones concretas. En “La primera sentencia argentina contra la IA: el riesgo de una profesión en piloto automático”, analizamos cómo los tribunales comenzaron a enfrentarse con escritos que incorporaban citas inexistentes generadas por inteligencia artificial y presentadas sin el debido control humano2. En ese contexto, el mensaje judicial fue claro: el uso de inteligencia artificial no desplaza el deber de diligencia ni atenúa la responsabilidad del abogado.
Sin embargo, ese enfoque —centrado en los riesgos del uso— resulta hoy insuficiente frente a la evolución actual del estándar profesional.
II. La función del abogado y el estándar de máxima diligencia.
El punto de partida no es tecnológico, sino institucional.
El ejercicio de la abogacía, como ha sido señalado por la doctrina, trasciende la mera defensa de intereses individuales para insertarse en una función social de mayor alcance, en tanto el abogado actúa como colaborador necesario del sistema de administración de justicia. Su actuación no solo impacta en la esfera privada del cliente, sino que se proyecta sobre el funcionamiento mismo del servicio de justicia y, en definitiva, sobre la comunidad en su conjunto3.
Ese encuadre tiene consecuencias directas en el estándar de conducta exigible. La obligación del abogado, tradicionalmente caracterizada como una obligación de medios, no implica un estándar mínimo o meramente formal, sino el deber de poner a disposición del cliente toda su pericia, conocimientos, diligencia y los recursos disponibles que razonablemente conduzcan al mejor resultado posible4.
El derecho argentino refuerza esta exigencia a través de los arts. 1724 y 1725 del Código Civil y Comercial: la conducta del profesional se valora en función de la previsibilidad exigible según su condición y los medios disponibles en su contexto histórico. No se trata del hombre prudente medio, sino del buen profesional —aquel que actúa con el bagaje técnico que era dable exigirle—, tal como lo ha precisado la jurisprudencia nacional al resolver casos de responsabilidad civil del abogado5.
El ordenamiento local no es indiferente a esta cuestión, aunque tampoco la haya anticipado. La Ley 23.187 —que rige el ejercicio de la abogacía en la Ciudad de Buenos Aires— establece el deber de comportarse con lealtad, probidad y buena fe, sin consagrar expresamente la adopción tecnológica6. Sin embargo, el Código de Ética del Colegio Público de Abogados de la Capital Federal complementa ese marco con dos disposiciones de singular relevancia. El art. 10 inc. c) impone atender la permanente capacitación profesional —una cláusula que, interpretada a la luz del estándar del CCyCN, no puede leerse con prescindencia de las transformaciones tecnológicas del entorno7. Y el art. 24, con una literalidad que anticipa sin saberlo el fenómeno de las alucinaciones, califica como falta ética efectuar citas doctrinarias o jurisprudenciales inexistentes7. La norma no distingue el origen del error: que la cita haya sido fabricada por un modelo de lenguaje o por el propio letrado es irrelevante a los efectos disciplinarios.
III. Del uso a la omisión: cuando la tecnología redefine la diligencia
Durante años, la incorporación de herramientas tecnológicas fue considerada una ventaja competitiva dentro del ejercicio profesional. Sin embargo, la experiencia demuestra que esas ventajas, con el tiempo, dejan de ser diferenciales para transformarse en parte integrante del estándar mínimo de actuación. La inteligencia artificial ha acelerado drásticamente ese proceso.
En el derecho comparado, la discusión ya no se limita a los riesgos de su utilización indebida, sino que comienza a enfocarse en las consecuencias de su no adopción. Un trabajo reciente publicado en el Michigan Bar Journal plantea abiertamente si la negativa a incorporar inteligencia artificial puede constituir, en determinados supuestos, un incumplimiento de los deberes éticos y de competencia que rigen la profesión8. El argumento es directo: prescindir de herramientas que permiten mejorar la calidad del servicio jurídico puede traducirse en prestaciones objetivamente inferiores.
Si el abogado está obligado a desplegar todos los medios razonables para cumplir adecuadamente su tarea, la existencia de herramientas que permiten reducir errores, ampliar el análisis y detectar información relevante no puede ser jurídicamente indiferente. La IA no crea un estándar nuevo: intensifica uno ya existente.
IV. El riesgo concreto: error, daño y evaluación de la conducta
El problema adquiere verdadera dimensión cuando se lo traslada a un supuesto concreto.
Pensemos en un abogado que, al estructurar un recurso en un caso de mediana o alta complejidad, omite considerar un fallo reciente de Cámara directamente aplicable. Ese precedente —relevante para la estrategia procesal— era razonablemente identificable mediante herramientas de inteligencia artificial disponibles en el mercado. La IA no garantiza resultados ni reemplaza a las bases jurídicas tradicionales, pero amplía el estándar razonable de búsqueda y reduce el margen de omisiones evitables. Como consecuencia de no haberla utilizado, el planteo resulta incompleto y el cliente ve debilitada su posición procesal.
Desde la perspectiva clásica, el análisis se centraría en la culpa profesional, la relación de causalidad y la eventual pérdida de una chance. El escenario actual introduce un elemento adicional: la disponibilidad de herramientas que, en determinados contextos, habrían permitido evitar ese error.
En ese marco, la negligencia —entendida como la omisión de una conducta que habría evitado el resultado dañoso— adquiere una nueva dimensión. Si el profesional no utiliza medios idóneos que están a su alcance y que son aptos para mejorar sustancialmente su desempeño, la omisión comienza a configurar un incumplimiento del deber de diligencia profesional.
Este juicio, conviene subrayarlo, no opera de manera absoluta. La relevancia jurídica de la omisión tecnológica depende de factores concretos: la complejidad y cuantía del caso, el tipo de profesional y su inserción en el mercado, y la accesibilidad real de las herramientas —entendida no solo como existencia técnica, sino como disponibilidad razonable para un abogado en ejercicio activo—. No es lo mismo omitir una búsqueda en Google Scholar que desestimar sistemáticamente herramientas jurídicas de uso generalizado. El estándar es gradual y contextual, no una exigencia uniforme.
El ordenamiento argentino contempla consecuencias que exceden el plano resarcitorio. Las normas procesales y éticas habilitan sanciones frente a conductas que revelen negligencia o falta de diligencia profesional, incluyendo supuestos en los que el propio abogado puede ser alcanzado por las costas del proceso o por reproches disciplinarios4.
V. Usar IA también exige la mayor diligencia: el riesgo de las citas inexistentes y el sesgo de automatización
El análisis precedente no estaría completo si omitiera la otra cara del problema. Porque si la no adopción de la inteligencia artificial comienza a configurar un estándar de conducta exigible, su utilización irreflexiva genera un riesgo igualmente serio: el de presentar ante los tribunales jurisprudencia o doctrina que sencillamente no existe.
Este fenómeno —conocido técnicamente como hallucination o alucinación— no es un defecto marginal de los sistemas de inteligencia artificial generativa. Es una característica estructural de su arquitectura: los modelos de lenguaje generan texto estadísticamente plausible, lo que incluye, con alarmante frecuencia, la fabricación de fallos, expedientes y citas doctrinarias que nunca existieron. Lo hacen con total confianza y sin advertencia alguna.
La evidencia comparada es elocuente y creciente, y los tribunales —tanto en el derecho comparado como en el ámbito local— han comenzado a reaccionar con sanciones de creciente severidad9.
Lo que la psicología cognitiva aporta a este debate es igualmente relevante. Goddard, Roudsari y Wyatt identificaron en 2012 el denominado sesgo de automatización (automation bias): la tendencia humana a reducir el escrutinio crítico frente a sistemas que presentan sus resultados con apariencia de autoridad y certeza10. El efecto es contraintuitivo: cuanto más confiable parece la herramienta, mayor es la probabilidad de que el usuario omita verificar su output. Los modelos de lenguaje —con su prosa fluida y sus citas formateadas— son un entorno especialmente propicio para que este sesgo se active.
Aplicado al ejercicio profesional, el mecanismo es directo: el abogado que presenta jurisprudencia o doctrina generada por IA sin verificar cada cita en la fuente original comete exactamente el mismo tipo de omisión que este artículo analiza desde la perspectiva de la no adopción. En ambos casos, el núcleo del reproche es idéntico: la omisión de una conducta diligente que estaba a su alcance y que habría evitado el daño.
El estándar, entonces, opera en ambas direcciones. No usar IA cuando está disponible puede ser negligencia. Usarla sin verificar sus resultados también puede serlo.
VI. La nueva frontera de la responsabilidad profesional
El cambio de enfoque es tan inevitable como incómodo, porque la discusión ya no puede limitarse a los riesgos de un uso defectuoso de la inteligencia artificial, sino que comienza a desplazarse hacia un terreno más exigente: las consecuencias de su no utilización en un contexto en el que estas herramientas están disponibles, son accesibles y permiten mejorar de manera significativa la calidad del trabajo jurídico.
La cuestión, entonces, no radica en exigir una adopción acrítica de la tecnología, sino en reconocer que el estándar de diligencia profesional se construye en función de los medios disponibles en cada momento histórico. Así lo reflejan ya diversos estándares internacionales: la American Bar Association ha incorporado expresamente la competencia tecnológica como parte del deber profesional de diligencia11, mientras que en Europa reguladores como la Solicitors Regulation Authority han comenzado a incorporar la competencia tecnológica en sus marcos regulatorios12.
En esa línea, la evolución del estándar de diligencia en contextos tecnológicos ya ha sido objeto de análisis académico en el derecho anglosajón, donde se ha señalado que la incorporación de nuevas herramientas redefine las expectativas razonables sobre la conducta profesional13. La consecuencia es directa: lo que antes podía ser considerado un error excusable, hoy puede empezar a ser leído como una omisión evitable.
En el plano concreto, esto significa que una demanda de responsabilidad civil o un dictamen disciplinario podrían válidamente invocar, como elemento del juicio de culpabilidad, la omisión de herramientas razonablemente disponibles que habrían permitido identificar el error. No como prueba automática de negligencia, sino como un factor más en la ponderación del estándar de conducta exigible según las circunstancias del caso.
En rigor, esta exigencia no introduce una lógica completamente nueva, sino que profundiza un principio clásico de la ética profesional. Como advertía Eduardo Couture en su primer mandamiento del abogado: “Estudia. El derecho se transforma constantemente. Si no sigues sus pasos, serás cada día un poco menos abogado”. En el contexto actual, ese mandato adquiere una dimensión adicional: la transformación del derecho ya no es únicamente normativa o jurisprudencial, sino también tecnológica.
En el derecho contemporáneo, la negligencia ya no es solo hacer mal las cosas: también empieza a ser no hacerlas con las herramientas que el siglo pone a disposición. El abogado que prescinde de ellas sin razón suficiente no ejerce con libertad metodológica; ejerce por debajo del estándar que su época le exige. Y ese es, precisamente, el núcleo de la responsabilidad profesional.
Citas
(*) Mario Covarrubias Jurado es abogado (UCA), con Maestría en Derecho Empresario de la Universidad de San Andrés (UdeSA). Es asociado en Estudio Garrido Abogados, donde se especializa en litigios comerciales complejos, arbitrajes derivados de operaciones de fusiones y adquisiciones y controversias tecnológicas. Es profesor del Departamento de Posgrado de la Facultad de Derecho de la Universidad de Buenos Aires (UBA) y autor de artículos jurídicos sobre litigio estratégico, derecho comercial y derecho de la tecnología.
1. “La amenaza silenciosa: cómo la inteligencia artificial pone en jaque a los jóvenes abogados en Argentina”, publicado en Abogados.com.ar.
2. “La primera sentencia argentina contra la IA: el riesgo de una profesión en piloto automático”, publicado en Abogados.com.ar.
3. Sanciones del abogado, LA LEY 2013-B, 100 (TR LALEY AR/DOC/835/2013).
4. Responsabilidad del abogado y sus alcances, LLGran Cuyo 2012 (mayo), 347 (TR LALEY AR/DOC/1419/2012).
5. CNCiv., Sala G, 15/06/2007, A., M. A. c. F., J. E., DJ2007-III, 1202 (TR LALEY AR/JUR/4020/2007). El tribunal condenó al letrado patrocinante a resarcir al cliente por la pérdida de chance derivada de la caducidad de instancia y la posterior prescripción del crédito, precisando que la culpa profesional se mide contra el estándar del “buen profesional” dotado del bagaje técnico exigible en su contexto histórico.
6. Ley 23.187, art. 6° inc. e): “Comportarse con lealtad, probidad y buena fe en el desempeño profesional.”
7. Código de Ética del Colegio Público de Abogados de la Capital Federal: art. 10 inc. c) (“Atender su permanente capacitación profesional”) y art. 24 (“Es falta ética efectuar citas doctrinarias o jurisprudenciales inexistentes, o exponerlas en forma tal que falseen la opinión o el fallo invocados, o realizar falsas transcripciones de resoluciones judiciales o escritos del contrario”). Texto oficial disponible en cpacf.org.ar.
8. Is Saying No to AI Saying Yes to Legal Malpractice?, Michigan Bar Journal, 2026.
9. En el derecho comparado, los casos más significativos con fallo completo disponible son Mata v. Avianca, Inc. (678 F.Supp.3d 443, S.D.N.Y. 2023), donde el tribunal federal de Nueva York sancionó a los letrados que presentaron precedentes inexistentes generados por ChatGPT, declarando que el deber de verificación es personal y no delegable en ninguna herramienta; y Johnson v. Dunn (N.D. Ala., 2025), en el que la conducta análoga derivó en la descalificación de los abogados y su remisión a los colegios de abogados de cada estado de matriculación. En el ámbito local, el fenómeno fue objeto de análisis en el trabajo citado en la nota 2.
10. Goddard, K., Roudsari, A. y Wyatt, J.C., “Automation bias: a systematic review of frequency, effect mediators, and mitigators”, Journal of the American Medical Informatics Association, vol. 19, n.° 1, 2012, pp. 121-127. DOI: 10.1136/amiajnl-2011-000089.
11. American Bar Association, Model Rules of Professional Conduct, Rule 1.1 (Competence), Comment 8: “To maintain the requisite knowledge and skill, a lawyer should keep abreast of changes in the law and its practice, including the benefits and risks associated with relevant technology”.
12. Solicitors Regulation Authority, Standards and Regulations (2019, vigente), organismo regulador de la profesión jurídica en Inglaterra y Gales. La SRA adopta un enfoque basado en resultados (“outcomes-focused regulation”): no impone reglas específicas sobre el uso de IA, pero exige que las firmas y los abogados cumplan sus obligaciones de competencia, supervisión y servicio al cliente con independencia de las herramientas que utilicen. Véase SRA, “Technology and legal services” (2023), disponible en sra.org.uk.
13. Patrick T. Barone, “Is Saying No to AI Saying Yes to Legal Malpractice? Our Profession’s New Dilemma”, Michigan Bar Journal, enero 2026. Disponible en michbar.org. El autor sostiene que la competencia tecnológica no es optativa: ignorar herramientas que mejoran la calidad del servicio jurídico puede implicar el incumplimiento de los deberes éticos de competencia y diligencia.
—



