Protección de datos e inteligencia artificial: Lecciones aprendidas sobre la demanda contra Linkedin

Etiquetas: inteligencia artificial, protección de datos, LGPD Brasil, RGPD, propiedad intelectual, redes sociales

En enero de este año, un individuo llamado Alessandro De La Torre demandó (sin pruebas), en su nombre y el de otros, a LinkedIn, por supuestamente usar los mensajes InMail privados de los clientes premium para el entrenamiento de modelos de IA generativa. Aunque la demanda, presentada ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, fue retirada el 30 de enero, fue lo suficientemente relevante como para llamar la atención de nuevo sobre una discusión que no muestra signos de estar cerca de concluir: el uso de todo lo que puebla internet, incluidos datos personales, para entrenar modelos IA.

De acuerdo con el documento introducido a la corte, LinkedIn tiene una configuración habilitada, por defecto, llamada ‘Datos para la mejora de la IA generativa’, que, cuando está activada, controla el entrenamiento de los modelos de IA generativa utilizados para crear contenido, por lo que LinkedIn puede usar los datos personales de los usuarios y el contenido que crean en la plataforma para este fin.

La demanda expresa que esto solo ocurre con los usuarios de Estados Unidos, donde aún no existe una ley federal de privacidad de datos personales. 

Supuestamente, la red social explica en su site que ofrecerá los datos personales y el contenido que alberga a terceros para el entrenamiento de modelos IA. En vista de esto, De La Torre asumió que los mensajes InMail, solo disponibles para suscriptores de Premium Career, Premium Business, Sales Navigator y Recruiter Lite, son parte de los datos personales compartidos. La acusación fue clara:

LinkedIn incumplió sus compromisos contractuales al divulgar los mensajes privados de sus clientes Premium a terceros para entrenar modelos de inteligencia artificial generativa (IA). Dado su rol como red social profesional, estas comunicaciones incluyen información sumamente sensible y potencialmente transformadora sobre empleo, propiedad intelectual, remuneración y otros asuntos personales, se lee en la demanda.


Recomendamos: La Esmeralda de Bahía volverá a Brasil como patrimonio cultural recuperado


El demandante, asistido por la firma Edelson PC, señaló que LinkedIn violó la Ley de Comunicaciones Almacenadas de EE. UU., incumplió su contrato premium con los suscriptores (ya que se había comprometido a no revelar datos personales) e incurrió en competencia desleal según la ley de California; pero ninguna de estas acusaciones fue respaldada por pruebas, he ahí –quizá– el por qué la demanda fue retirada menos de un mes después de ser presentada. 

Esta demanda no fue posible únicamente porque De La Torre asumió unilateralmente que LinkedIn incluyó los mensajes InMail en los datos de entrenamiento y trató de ocultar su rastro mediante un cambio en el lenguaje de sus políticas mientras jamás negó que el contenido de InMail se usaba, pero –y esto es relevante para nosotros– sobre todo porque en Estados Unidos no hay una ley de protección de datos personales, lo que significa que los ciudadanos están “desamparados” en este sentido.

Ahora, a pesar de que las discusiones sobre protección de datos personales ya suman cerca de una década y a estas, en paralelo, hemos añadido las relacionadas con todas las implicaciones éticas que tiene el usar material con copyright para entrenar IA generativas, muchas naciones aún no cuentan con leyes en estas materias, especialmente la primera de ellas. 


Relacionado: ¿Qué le espera a las firmas legales en materia de propiedad intelectual en 2025?


Protección de datos en Internet, en América Latina

Si se consultan medios especializados, se puede descubrir información tan interesante como que 55 % de los usuarios de América Latina desconoce si existe alguna ley local que proteja sus datos personales en Internet y que casi 13 % no sabe cuáles son sus derechos en esta materia. Los países donde hay mayor desconocimiento al respecto son Brasil (20 %) de usuarios, Chile (16 %), Argentina (15 %), Colombia (10 %), México (8 %) y Perú (6 %). Al menos esto es lo que dice Kaspersky, que añade que:

…estas cifras son preocupantes ya que la legislación en materia de Protección de Datos Personales busca establecer directrices rigurosas para la recopilación, procesamiento y almacenamiento de información personal, además de otorgar a las personas derechos importantes, como el acceso a sus datos o que puedan presentar una solicitud para eliminarlos. 

El desconocimiento sobre la protección de datos personales no es sólo individual, sino también empresarial. La consulta de seguridad aseguró que las corporaciones que hacen vida en Latinoamérica, o bien desconocen las mejores prácticas para proteger esta data, así como las leyes locales (si existen), o ignoran las medidas de seguridad y las normativas (voluntaria o involuntariamente), porque no hay suficiente enforcement en las naciones en las que sí está vigente una ley de protección de datos personales. En ellas también prima la falta de capacitación de los empleados, lo que resulta en vulnerabilidades, filtraciones o mal uso de la información.  

Las deficiencias en la legislación también son una puerta abierta para que, como De La Torre acusó en Estados Unidos, las grandes tecnológicas aprovechen la oportunidad de usar Latinoamérica como una mina a cielo abierto de datos y contenido que pueden explotarse para entrenar a sus IA o vender información, lo que sea más lucrativo al momento.

Es el caso de Meta que, como apunta Access Now, tiene casi absoluta libertad de extraer datos personales de la región ya que nuestras naciones carecen de leyes de protección de datos, pocas recién aprobaron normativas o hay fallas en el cumplimiento de estas en las naciones donde hay leyes aprobadas en esta materia. Debido a esto, las políticas de privacidad de plataformas como Meta, que anuncian que el contenido público de sus usuarios se usará para entrenar sus modelos de IA generativa, vulneran especialmente a los consumidores latinoamericanos, que –a diferencia de la Unión Europea, que cuenta con el RGPD– no pueden oponerse, “ya que en la mayor parte los países de la región no existen leyes de protección de datos personales y en otros donde sí hay, se encuentran desactualizadas.”


De interés: Piratería digital; ¿Dónde se desdibuja la línea entre equilibrio de derechos y negocio millonario?


¿Dónde está la “falla”? ¿Hay alguna?

Ante esto, es propicio preguntarse ¿qué falta reforzar local y regionalmente en materia de protección de datos y entrenamiento de IA? Expertas como Saella Moreno, asociada sénior de Libre Competencia y TMT de Philippi Prietocarrizosa Ferrero DU & Uría – Bogotá, dice que, en los países donde se han logrado avances significativos (como Colombia), aún falta consolidar estos progresos en una regulación específica que establezca claramente las obligaciones y medidas necesarias para garantizar un uso seguro y ético de la IA. 

La colaboración entre entidades gubernamentales, desarrolladores de IA y organismos internacionales será clave para fortalecer la protección de datos y asegurar un desarrollo responsable, seguro y ético de la inteligencia artificial, beneficiando tanto a los usuarios como a los titulares de los datos, dice.

Gloria Florez, asociada de Libre Competencia y TMT de la misma firma, señala que al margen de las normas los límites entre el entrenamiento de las IA y la privacidad de los datos personales están definidos por la necesidad de obtener autorización según la regulación (colombiana, en su caso), por la implementación de técnicas de anonimización y de otras medidas para garantizar la seguridad de la información.


Más: Una mirada experta al Proyecto de Ley de Datos Personales de Chile


Mauricio Vedovato, socio de HRSA Sociedade de Advogados y experto en tecnología, coincide con sus colegas al apuntar que no cree que esta discusión es una cuestión exclusivamente ética o moral sino también legal y que de ellas es difícil excluir el objetivo de lucro del entrenamiento de modelos de IA, “excepto en hipótesis muy específicas”, lo que también puede llevar a algunas empresas a malinterpretar la ley, aunque en estos casos -precisa- que los métodos de corrección internos y, eventualmente, externos son apropiados.

Para él, parece más necesario orientar mejor los parámetros permitidos para el entrenamiento de los modelos de IA, así como la aplicación de la normativa ya vigente, además de reprender los casos en los que se produzcan abusos, que buscar nuevas normas; especialmente en Brasil, donde la regulación de ambos temas viene desarrollándose en los últimos años, “aunque a un ritmo más lento del deseable y no siempre abordando todos los temas necesarios”.

En el caso colombiano, la regulación sobre el tratamiento de datos personales en sistemas de IA aún está en sus primeras etapas, “por lo que presenta algunos desafíos”, dice Florez. Sin embargo, la Superintendencia de Industria y Comercio -SIC- ha tomado varias iniciativas al respecto, como la elaboración de documentos con recomendaciones para el tratamiento de datos personales en IA y la emisión de circulares o la elaboración de herramientas que permiten a los desarrolladores de IA crear soluciones que cumplan con las normas de protección de datos.


No te pierdas: ¿Por qué Brasil prohibió el entrenamiento de la inteligencia artificial de Meta?


La abogada explica que su país cuenta con la Circular Externa 002 de 2024, que proporciona instrucciones detalladas sobre el tratamiento de datos personales en sistemas de IA, estableciendo que este debe cumplir con criterios de idoneidad, necesidad, razonabilidad y proporcionalidad. De acuerdo con esta, los responsables deben identificar y mitigar riesgos antes de desarrollar sistemas de IA y, en ese sentido, implementar mecanismos de privacidad como la anonimización, que permite analizar datos sin revelar información personal.

Entonces, al menos en Colombia, se pueden ver dibujados ciertos límites entre el entrenamiento de las IA y la privacidad de datos; por ejemplo, Saella Moreno explica que la ley colombiana exige que se obtenga la autorización del titular para el tratamiento de sus datos personales. Esto significa que, si se quiere usar información personal para entrenar sistemas de IA, es necesario contar con el consentimiento de las personas a las que pertenecen esos datos. 

Sin embargo, una alternativa viable para entrenar herramientas de IA sin comprometer la privacidad de las personas es la anonimización de los datos, al transformar la información de manera que no se pueda identificar a las personas a las que pertenece. Esto permite utilizar grandes volúmenes de datos para entrenar modelos de IA sin poner en riesgo la privacidad y los derechos de los individuos.

La Circular Externa establece que, al utilizar o tratar datos personales con el objetivo de entrenar una máquina con IA, se deben aplicar técnicas que impidan identificar a la persona que proporciona su información. Esta medida busca evitar niveles altos de riesgo, ya que, si se logra identificar a los titulares a partir de la información de estos, se podría vulnerar su consentimiento y su derecho fundamental a la privacidad. 


Sugerimos: Scarlett Johansson vs. ChatGPT; la voz de la Inteligencia Artificial


Esto significa que el tratamiento adecuado de la información debe ser un componente esencial en el desarrollo de proyectos de IA y debe ocurrir mediante la implementación de mecanismos o medidas que permitan garantizar la seguridad de la información para prevenir la adulteración, pérdida, uso, consulta o acceso no autorizado o fraudulento de los datos, añade.

En Brasil, aclara Vedovato, los límites en el tratamiento de datos los traza la LGPD, las hipótesis de tratamiento son las previstas en la ley, incluyendo su regulación los casos en que es suficiente la autorización personal.

Sin embargo, para otros contenidos se deben aplicar reglas diferentes, como por ejemplo las relativas a los derechos de autor y a la propiedad industrial. En los casos en que se produzca una violación de derechos, quien utilice datos y demás contenidos propiedad de terceros sin autorización estará sujeto a las sanciones que imponga la ley específicamente infringida, comenta.

Volviendo a su opinión de que compartir datos personales para entrenar IA generativas no es un asunto de moralidad o ética, el experto en tecnología explica que la compartición de datos, especialmente datos personales, deberá garantizarse mediante las autorizaciones y contratos pertinentes y, aun así, dentro de los límites permitidos por la LGPD. 

Y esto también se aplica cuando el propósito es entrenar programas de inteligencia artificial.


Sobre esto: ¿El uso de la IA en la invención aumentará los litigios de Propiedad Intelectual?


Un asunto de interés regional

En el caso de los países latinoamericanos que aún no han impuesto leyes de protección de datos ni mucho menos reglas de usos y desarrollo de sistemas de IA, podrían serles útiles las recomendaciones de CAF | Banco de Desarrollo de América Latina y el Caribe para, como ellos dicen, ayudar a los gobiernos y a los responsables de la toma de decisiones en América Latina a desarrollar una hoja de ruta clara para navegar este contexto complejo y retador:

  • Aplicar políticas y estrategias nacionales de IA, aumentando en paralelo la participación pública en la misma, independientemente de en qué fase del proceso se encuentren. 
  • Identificar y compartir los beneficios de la IA generativa para el bien público, ya que los gobiernos pueden lograr un diálogo equilibrado que evalúe tanto los beneficios como los riesgos del uso de sistemas de IA generativa.
  • Definir lo que será socialmente tolerable frente al uso de esta tecnología y cómo gestionar problemas como el plagio, los deepfakes y los riesgos que pudieran correr los derechos fundamentales por un uso poco ético de esta tecnología.  
  • Acelerar la experimentación normativa y elaborar un primer proyecto de legislación sobre IA para la región, que permitiría experimentar con propuestas reguladoras innovadoras que no hayan sido adoptadas aún oficialmente por los gobiernos.
  • Alfabetizar en AI y darle prioridad a las iniciativas educativas en esta materia.
  • Establecer alianzas estratégicas entre los gobiernos, que podrían desarrollar capacidades e infraestructuras compartidas y así generar un recurso competitivo de escala mundial.   

Por ahora, la mayor preocupación de nuestra región es, como indica el Observatorio de Riesgos Catastróficos Globales, cómo regular los sistemas de IA sin coartar la innovación pero sin poner en riesgo los derechos fundamentales, principalmente porque ya convivimos con bajos niveles de empleabilidad (que la IA generativa puede empeorar al empezar a sustituir trabajadores) y alfabetización digital y las respuestas gubernamentales, económicas y sociales a estos retos deben ser adaptadas a los entornos propios de América Latina. Hay que buscar un equilibrio (quizá precario) entre normas que protejan, pero no sean tan restrictivas que afecten la capacidad de la región para influir en el diseño de nuevas herramientas de IA, y la ausencia de normas, que sólo profundizarán las inequidades actuales y pueden debilitar nuestra competitividad.

fuente: inteligencia artificial: Lecciones aprendidas sobre la demanda contra Linkedin”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios