
El Sistema Unificado de Cortes del Estado de Nueva York (UCS) publicó su Política Provisional sobre el Uso de la Inteligencia Artificial, una normativa que entró en vigencia a partir de octubre de 2025 y que busca definir cómo los tribunales pueden incorporar esta tecnología sin comprometer la imparcialidad ni la confidencialidad propias de la función judicial.
El documento, titulado Interim Policy on the Use of Artificial Intelligence, tiene por objetivo —según su Sección I— “promover el uso responsable y ético de la inteligencia artificial en el Sistema Unificado de Cortes del Estado de Nueva York”, estableciendo límites concretos para su utilización por parte de jueces y empleados no judiciales.
Se establece que la inteligencia artificial puede ser utilizada como una herramienta de asistencia, pero no como sustituto del juicio humano ni de la toma de decisiones judiciales. Todo contenido generado mediante IA deberá ser revisado cuidadosamente por el usuario, que continúa siendo responsable del producto final.
La política surge en un contexto de creciente adopción de herramientas de IA generativa en distintos ámbitos del sector público y privado, y reconoce que su avance “obliga a las instituciones a acompañar los cambios tecnológicos sin comprometer los valores de justicia, imparcialidad y confidencialidad”.
El documento aclara que la política se aplica a todos los jueces y empleados del sistema judicial, tanto en tareas realizadas con dispositivos oficiales como personales, siempre que se relacionen con su labor en el UCS.
Se establece que la inteligencia artificial puede ser utilizada como una herramienta de asistencia, pero no como sustituto del juicio humano ni de la toma de decisiones judiciales. Todo contenido generado mediante IA deberá ser revisado cuidadosamente por el usuario, que continúa siendo responsable del producto final.
Riesgos y advertencias
El texto detalla los principales riesgos que acompañan al uso de la inteligencia artificial generativa, destacando tres:
Información inexacta o fabricada: las herramientas de IA pueden producir resultados erróneos o “alucinaciones”, inventando datos o citas. Por eso, el documento prohíbe confiar en sus respuestas sin verificación independiente.
Sesgos y contenido inapropiado: debido a los datos con los que se entrenan los modelos, los sistemas pueden replicar estereotipos o prejuicios. Los usuarios deberán revisar cualquier salida para evitar reproducir discriminaciones o sesgos.
Vulnerabilidad de la información confidencial: se advierte que plataformas como ChatGPT, basadas en modelos abiertos, pueden retener y reutilizar los datos ingresados para entrenar nuevos modelos, lo que implica que cualquier información sensible podría hacerse pública.
En consecuencia, queda prohibido ingresar información confidencial, privada o sensible (como nombres de partes, números de expediente o documentos judiciales) en plataformas de IA que no operen bajo modelos privados controlados por el propio sistema judicial.
Herramienta, no juez
Los jueces, según la política, “no pueden delegar su función decisoria en la inteligencia artificial”, recordando que deben “actuar de manera que promueva la confianza pública en la integridad e imparcialidad del poder judicial”.
El texto es claro al definir a la IA como “un tipo de herramienta destinada a asistir al usuario en ciertas tareas, pero que no debe ser tratada como sustituto del juicio humano”.
Los jueces, según la política, “no pueden delegar su función decisoria en la inteligencia artificial”, recordando que deben “actuar de manera que promueva la confianza pública en la integridad e imparcialidad del poder judicial”.
Asimismo, los empleados no judiciales tienen la obligación de evitar cualquier uso que viole su deber de confidencialidad o que implique la manifestación de sesgos o prejuicios.
Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como “inspiración” para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.
—



