
El juez federal Julien Xavier Neals de EE. UU., retiró formalmente una sentencia en una causa por fraude de valores contra la farmacéutica CorMedix Inc. ( “Cordemedix inc. Securities Litigation”), luego de que un abogado de la defensa advirtiera múltiples errores sustanciales en la redacción del fallo.
el juez había atribuido citas inexistentes a sentencias reales y, además, había interpretado al revés el resultado de tres fallos clave
La resolución, originalmente dictada en contra de CorMedix, fue objetada por el abogado Andrew Lichtman, socio del estudio Willkie Farr & Gallagher, quien señaló que el juez había atribuido citas inexistentes a sentencias reales y, además, había interpretado al revés el resultado de tres fallos clave.
Aunque el escrito del letrado no pidió expresamente una revisión de la decisión, sí solicitó alertar al Tribunal sobre lo que consideró errores evidentes que afectaban la fundamentación del fallo.
Fallo retirado, pero no sin consecuencias
En una escueta entrada en el sistema de gestión de causas, el juez Neals indicó que tanto la opinión como la orden asociada se habían ingresado por error, y procedió a su retiro. No se brindaron más detalles ni se emitió comunicado oficial por parte de su juzgado.
Se trató de una sentencia con defectos que suelen atribuirse a escritos de abogados, no de jueces.
El caso rápidamente ganó repercusión en medios especializados como Bloomberg Law (https://news.bloomberglaw.com/business-and-practice/judge-withdraws-pharma-opinion-after-lawyer-flags-made-up-quotes) y ABA Journal, que lo calificaron como un episodio inusual, ya que se trató de una sentencia con defectos que suelen atribuirse a escritos de abogados, no de jueces. La posibilidad de que la resolución se haya redactado con ayuda de herramientas de inteligencia artificial —aunque no confirmada— reactivó un debate creciente en la práctica judicial estadounidense.
Aunque ni el abogado objetante ni el juez mencionaron el uso de inteligencia artificial en el proceso de redacción, el caso fue interpretado como una advertencia sobre su utilización sin supervisión adecuada
Además, el escrito destacaba la inclusión de frases atribuidas a decisiones judiciales que no figuran en los textos originales, lo que plantea dudas sobre su origen y validación.
Aunque ni el abogado objetante ni el juez mencionaron el uso de inteligencia artificial en el proceso de redacción, el caso fue interpretado como una advertencia sobre su utilización sin supervisión adecuada.
Si bien no hay confirmación oficial de que se haya utilizado ChatGPT u otra IA en la redacción de la sentencia, el hecho de que las citas sean inexistentes o inexactas alimenta esa sospecha. El retiro del fallo —acción poco común en la justicia federal estadounidense— no cerró el caso, sino que dejó en suspenso la decisión, mientras el expediente continúa su curso.
Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como “inspiración” para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.
—