
La adopción de inteligencia artificial en empresas mexicanas y latinoamericanas avanza con mayor rapidez que su actualización contractual.
Incluso, diversos instrumentos como acuerdos laborales, contratos con proveedores y manuales internos fueron diseñados antes del auge de estas tecnologías y hoy presentan vacíos frente a sus implicaciones jurídicas y operativas.
Según estimaciones del sector tecnológico, más del 60% de las empresas en América Latina ya utiliza herramientas de inteligencia artificial en procesos internos. Sin embargo, el andamiaje legal no ha evolucionado al mismo ritmo.
Vulnerabilidad
Cerca del 90% de los contratos vigentes no incluye cláusulas relacionadas con el uso de inteligencia artificial, confidencialidad ampliada o propiedad del contenido generado con estas herramientas. Esta omisión coloca a las compañías en una zona de vulnerabilidad jurídica que pocas han dimensionado.
Mientras el debate público se concentra en eficiencia y automatización, el frente contractual permanece rezagado. Empleados y proveedores utilizan IA en procesos estratégicos sin lineamientos claros sobre límites de uso, tratamiento de datos sensibles o responsabilidad por errores derivados de sistemas automatizados.
Ante el creciente interés empresarial sobre cómo proteger a una empresa del uso indebido de IA, el primer paso no es tecnológico, sino contractual.
Riesgos legales en el uso de versiones gratuitas de IA
Uno de los riesgos más subestimados es la utilización de plataformas abiertas como ChatGPT o Gemini en sus versiones sin costo. En estos entornos, la información ingresada puede emplearse para entrenar modelos externos.
En términos prácticos, planes estratégicos, reportes financieros, bases de datos o código fuente podrían alimentar sistemas que posteriormente generen resultados para terceros. Los riesgos legales del uso de inteligencia artificial en empresas no recaen en la herramienta tecnológica, sino en la organización que valida y utiliza sus resultados.
La data es la “nafta” de la inteligencia artificial. Sin reglas claras, la búsqueda de productividad puede comprometer activos estratégicos. El incremento en eficiencia —que en algunos casos puede duplicar la capacidad operativa— ocurre en paralelo con una mayor exposición de información confidencial.
Marco de acción empresarial
La gobernanza de datos en inteligencia artificial implica establecer reglas contractuales, controles tecnológicos y responsabilidades explícitas sobre el uso, almacenamiento y propiedad de la información procesada por sistemas automatizados. Sin este marco, la adopción tecnológica puede traducirse en contingencias legales y financieras.
Es por eso que es recomendable realizar tres acciones inmediatas: actualizar contratos laborales y con proveedores, limitar el uso de versiones gratuitas en procesos sensibles y exigir entornos privados empresariales que garanticen que los datos no se utilicen para entrenamiento público.
En la cadena de suministro, agencias creativas, desarrolladores o consultores pueden estar utilizando IA para generar entregables sin que el contrato establezca condiciones específicas sobre confidencialidad reforzada o titularidad del resultado. Definir contractualmente la propiedad del contenido generado con IA se perfila como la alternativa jurídicamente más sólida y financieramente más eficiente para proteger activos estratégicos.
La innovación tecnológica es positiva y necesaria, pero debe ir acompañada de gobernanza de datos y claridad contractual. Integrar inteligencia artificial sin actualizar las reglas del juego es asumir riesgos innecesarios.
En un entorno donde la adopción tecnológica supera a la regulación interna, actualizar el marco contractual se consolida como la medida más eficaz para reducir riesgos legales asociados a la inteligencia artificial.
El autor es CEO de eSource Capital
—



