
*Por Dra. Claudia Guardia
La Cámara de Apelación en lo Civil y Comercial de Rosario (Sala II) ha dictado una resolución que, además de dirimir un caso complejo de incumplimiento de acuerdo, introduce una advertencia nítida a la comunidad jurídica sobre la responsabilidad profesional al utilizar chatbots de inteligencia artificial, para la elaboración de escritos y, en particular, para la incorporación de citas jurisprudenciales. Los pasillos de la Justicia rosarina han sido testigos de un pronunciamiento que no solo reafirma criterios en torno a los acuerdos transaccionales extrajudiciales, sino que también visibiliza un problema emergente: el uso irreflexivo de herramientas de IA generativa que puede desembocar en la presentación de citas inexistentes, las denominadas alucinaciones, con el consiguiente menoscabo de los estándares de probidad y veracidad exigidos a los profesionales del derecho.
Antecedentes del caso y decisión judicial
El litigio se originó en torno a un acuerdo transaccional extrajudicial. El Juzgado de Primera Instancia de Responsabilidad Extracontractual de la 3ª Nominación de Rosario hizo lugar a la pretensión del actor. Contra dicha decisión, las demandadas interpusieron recurso de apelación. Sin embargo, la Cámara de Apelación en lo Civil y Comercial de Rosario (Sala II) rechazó los agravios y confirmó la sentencia de primera instancia.
Más allá de los aspectos materiales, el expediente adquirió particular relevancia por un hecho sobrevenido en la instancia recursiva. En efecto, el letrado de la parte actora incorporó en su presentación citas jurisprudenciales generadas por un sistema de IA que, tras una revisión exhaustiva realizada por el tribunal, se constataron como inexistentes. El abogado admitió haber actuado de buena fe, explicando que recurrió a un chatbot de IA para obtener tales referencias y que no verificó su autenticidad antes de incorporarlas al escrito.
Alucinaciones de la IA y responsabilidad ética del abogado
Frente a esta situación, la Cámara fue enfática. Señaló que, aun cuando el profesional afirme haber obrado de buena fe, la presentación de citas falsas compromete la responsabilidad profesional. Recordó, a tal efecto, las Normas de Ética Profesional del Abogado, del Colegio de Abogados de Rosario, donde la segunda regla es la de probidad, lealtad personal y veracidad. Además, el pronunciamiento destaca que los sistemas de IA generativa, se encuentran disponibles desde hace años y, en sus propios términos y condiciones, advierten su carácter experimental, instando a que los resultados sean cotejados. Es de público conocimiento que tales sistemas pueden producir alucinaciones, esto es, información falsa o inventada, tal como aconteció con las citas jurisprudenciales del caso. En consecuencia, el tribunal califica como sumamente riesgoso y aun temerario delegar la búsqueda de jurisprudencia en estas herramientas y volcarla sin verificación en escritos judiciales.
Como consecuencia de esta situación, la Cámara de Apelación no solo realizó un llamado de atención al letrado en cuestión, sino que ordenó oficiar al Colegio de Abogados de Rosario.
Recomendaciones éticas del Colegio de Abogados de Rosario
En línea con lo anterior, el fallo pone el acento en la importancia de asumir estándares éticos compartidos. En este punto, se hace explícita la importancia de las Recomendaciones para la Implementación Ética y Responsable de la Inteligencia Artificial Generativa en la Práctica Jurídica, suscriptas por el Dr. Lucas Galdeano, presidente del Colegio de Abogados de Rosario, y su directorio. Y elaboradas conjuntamente por el Dr. Juan Manuel Fascia, secretario del Colegio, la Dra. Claudia Guardia, presidenta del Instituto de IA del Colegio, y la Dra. Marilina Borneo, coordinadora del IALAB (Laboratorio de Inteligencia Artificial de la UBA). Estas consideraciones fijan un marco de reflexión; sobre los problemas que se generan por las dificultades que tienen algunos profesionales; a la hora de valorar determinadas prácticas o conductas en relación al uso de las nuevas tecnologías, y constituyen un piso mínimo de criterios para orientar un uso responsable, transparente y sometido a control humano de la IA generativa en el ámbito jurídico.
Entre los principios establecidos en las citadas recomendaciones, se destacan varios ejes centrales. Uno de ellos es la primacía de los derechos fundamentales. Todo profesional matriculado que emplee tecnologías de Inteligencia Artificial Generativa, ya sean licenciadas o de código abierto, deberá observar estrictamente la primacía de la dignidad humana y de los derechos fundamentales, garantizando su respeto en toda circunstancia. Asimismo, se establece el principio de transparencia y claridad explicativa. Otro aspecto relevante es la equidad y prevención de riesgos. Corresponde revisar críticamente los contenidos generados por IA con el fin de identificar y corregir eventuales sesgos y/o alucinaciones que pudieran conducir a resultados discriminatorios o incorrectos. Se contempla también el principio de privacidad y protección de datos. El profesional debe aplicar protocolos estrictos para salvaguardar la privacidad y la confidencialidad de los datos personales y sensibles, implementando procedimientos efectivos de anonimización o seudonimización y estableciendo mecanismos claros que garanticen la protección de datos en todo momento.
Finalmente, se consagra el principio de control humano adecuado y suficiente. Cuando la IA se integre en procesos o en otros sistemas, la arquitectura de integración debe permitir la intervención y supervisión humana en todas las fases. Los profesionales están obligados a ejercer un control humano exhaustivo, apropiado, razonable y proporcional al tipo de utilización y a las tareas y actos procesales involucrados, respecto de todas las respuestas proporcionadas por modelos y agentes basados en IA generativa.
Este fallo constituye un hito para la práctica profesional. Por un lado, aporta claridad en la interpretación de acuerdos transaccionales dentro del ámbito judicial; por el otro, posiciona a Rosario a la vanguardia de la reflexión sobre los límites éticos y la responsabilidad profesional que impone la vertiginosa evolución de la inteligencia artificial en el ejercicio del derecho. La justicia rosarina envía un mensaje contundente y oportuno: la IA es una tecnología que no sustituye la diligencia profesional, ni exime del contralor humano que demanda la actuación letrada responsable.
Ciudad
inteligencia artificial
—
fuente: inteligencia artificial en los tribunales – Rosario3″> GOOGLE NEWS