La privacidad y seguridad de datos en la era de la inteligencia artificial (IA). Estado de …

La privacidad y seguridad de datos en la era de la inteligencia artificial (“IA”). Estado de situación actual.

Año 2025. Nadie puede poner en duda que la IA es una revolución tecnológica sin precedentes que nos enfrenta a una transformación de nuestras actividades, de la forma en que tomamos decisiones, de cómo obtenemos y procesamos información, entre muchas otras. Pero tampoco hay dudas de que, junto con ese potencial innovador, surgen desafíos éticos, legales y sociales de una magnitud directamente proporcional al poder que posee. En el centro de esta transformación se encuentra un bien jurídico clave: la privacidad y seguridad de los datos. Nuestros datos, nuestra información personal, lo que nos define e identifica como personas humanas.

En la era de la IA, es posible mantener en privado nuestros datos personales y nuestra información personal? Y, si fuera posible, ¿Cómo debemos hacerlo? ¿Contamos con la información necesaria para proteger nuestra información? En su caso, tenemos las herramientas para ejercer nuestros derechos y libertades fundamentales?

Estamos atravesando una revolución tecnológica a nivel global y estas preguntas surgen como un ejercicio que nos plantea la necesidad de repensar la privacidad y la intimidad en sus aspectos más intrínsecos.

De la protección de datos a la gobernanza de la IA

Las normativas tradicionales como el Reglamento General de Protección de Datos (“RGPD”) europeo o la Ley de Protección de Datos Personales de Argentina han sido, durante años, la base del cumplimiento en materia de privacidad. Sin embargo, la IA exige repensar los marcos normativos vigentes: ¿cómo proteger a una persona cuando un algoritmo puede inferir rasgos sensibles que ni siquiera ella ha revelado? ¿Qué mecanismos de control existen sobre decisiones automatizadas que afectan créditos, diagnósticos o contrataciones?

El enfoque ya no puede limitarse a checklists regulatorios. La IA requiere una gobernanza proactiva, capaz de anticipar riesgos, evitar sesgos algorítmicos y garantizar la trazabilidad y seguridad de los datos en sistemas cada vez más opacos.

Nuevas leyes para nuevos riesgos

En este contexto, empiezan a emerger regulaciones específicas para la IA.

La EU AI Act, por ejemplo, impone prohibiciones a sistemas de alto riesgo como el reconocimiento facial masivo, y exige altos estándares de transparencia. Sin embargo, hoy se está discutiendo en el Parlamento de la UE y en distintos países de la UE si se debe suspender o diferir la entrada en vigencia de la regulación de la IA debido a fuertes criticas relacionadas a posibles frenos a la innovación, a las inversiones y al desarrollo de la economía digital en la UE.

China, por su parte, si bien posee un sistema basado en el control del comportamiento de sus ciudadanos, ha aprobado normas que protegen expresamente los derechos de imagen frente a contenidos generados por IA.

En Estados Unidos, también se avanza con marcos regulatorios específicos. En mayo de 2025, se promulgó el Take It Down Act, una ley federal que penaliza la creación y distribución de imágenes íntimas no consensuadas, incluyendo aquellas generadas mediante IA. Esta normativa obliga a las plataformas en línea a eliminar dicho contenido dentro de las 48 horas posteriores a la notificación por parte de la víctima, marcando un hito en la protección digital de la privacidad.

Además, el No Fakes Act —aún en debate en el Congreso estadounidense— busca prohibir la creación y difusión de réplicas digitales falsas de personas, sin su consentimiento, incluyendo imitaciones de voz, gestos, y apariencia generadas por IA. Su aprobación representaría un paso decisivo en la protección de la identidad frente al avance de los deep fakes. Pero, además, estamos viendo avances vertiginosos en la IA en lo que respecta a la generación de imágenes hiperrealistas. Los modelos actuales son capaces de crear fotografías, retratos e incluso videos con un nivel de detalle, iluminación y expresividad tan alto, que resulta prácticamente imposible para el ojo humano distinguir si se trata de algo real o artificial. Esta capacidad no solo plantea desafíos técnicos o artísticos, sino que abre interrogantes profundos en ámbitos como la ética, el Derecho, la privacidad y la prueba digital. La línea entre lo real y lo simulado se está desdibujando y es cada vez más difusa para los seres humanos, con lo cual también se irán transformando los criterios tradicionales de autenticidad, veracidad y confianza.

Es, podríamos decir, el “Test de Turing” elevado a su máxima expresión, donde ya no solo una maquina aparenta “pensar” como un humano sino también puede “verse” o “sentirse” como tal. Esta evolución plantea desafíos enormes para los sistemas legales y éticos: ¿cómo certificamos la autenticidad de una imagen o un video, de una obra artística? ¿Cómo protegemos la identidad, la dignidad, la verdad en un mundo donde lo artificial ya no parece ser tan artificial sino más real que lo real?

Estas iniciativas reflejan un cambio hacia una regulación más específica y proactiva frente a los desafíos que plantea la IA en materia de privacidad y derechos individuales.

Sistemas de contrapeso necesarios

La recopilación no autorizada de datos, los sesgos algorítmicos, las filtraciones accidentales y las vulnerabilidades ante ciberataques son solo algunos de los riesgos que enfrenta cualquier organización que adopte IA sin un marco sólido de protección de datos. Frente a esto, las mejores prácticas apuntan a:

  • Minimizar la recolección de datos y aplicar técnicas de seudonimización o incluso anonimización.
  • Fortalecer la gobernanza del dato en entornos automatizados.
  • Auditar modelos de IA, sus sesgos, datasets de entrenamiento y asegurar decisiones justas.
  • Garantizar la supervisión humana en todo el proceso de adopción e implementación.
  • Adoptar medidas de seguridad proporcionadas a los riesgos para el desarrollo y uso de sistemas de IA.

La situación en la región

En nuestra región, donde aún se debate una nueva ley de protección de datos en Argentina y donde existen múltiples proyectos de ley de IA en el Congreso Nacional y los marcos regulatorios en Latinoamérica se muestran atomizados, se impone una pregunta clave: ¿estamos preparados para enfrentar los desafíos de la IA desde una perspectiva local y contextualizada? La respuesta, quizás, esté en fomentar un diálogo transversal entre Derecho, tecnología y sociedad civil, promoviendo principios éticos, transparencia y accountability.

Soberanía digital

Desde la perspectiva de los usuarios o titulares de los datos, es fundamental reconocer y ejercer activamente el derecho a decidir cómo compartir, gestionar o ceder nuestra información personal. La autodeterminación informativa no es solo un principio abstracto, sino una herramienta concreta para afirmar nuestra soberanía sobre la identidad digital. Para que esta autodeterminación sea real y efectiva, debemos exigir que se garantice el derecho a la información clara, accesible y completa sobre el uso que se hará de nuestros datos. Solo así podremos tomar decisiones informadas y conscientes, en un entorno donde el control sobre nuestra información sea intransferible.

Expectativa (razonable) vs. Realidad

Uns encuesta realizada por Appdome[1] en 2024 que incluye datos detallados de más de 120.000 consumidores en 12 países, incluyendo Argentina, aborda temas como fraude móvil, privacidad de datos, responsabilidad de los desarrolladores y expectativas de seguridad por tipo de aplicación móvil.

Estos resultados destacan que:

  • 99,5% de los consumidores globales demandan una protección total en las aplicaciones móviles, que incluya la seguridad de datos, integridad de cuentas, inicios de sesión, almacenamiento de datos y protección contra malware y fraudes.
  • 98,8% consideran la privacidad de los datos como “importante” o “críticamente importante”.
  • 90% buscan activamente información sobre seguridad y privacidad antes de utilizar nuevas aplicaciones.
  • 87,4% afirman que la protección en las aplicaciones móviles es igual o más importante que las funcionalidades al decidir usar una aplicación.
  • 24% de los consumidores creen que los desarrolladores no se preocupan por la seguridad de las aplicaciones móviles, lo que representa un aumento del 258% desde 2021.
  • 70,6% han sido víctimas o conocen a alguien que ha sido víctima de fraudes por ingeniería social u otros ataques similares.
  • 69% de los consumidores globales estarían dispuestos a cancelar cuentas y eliminar aplicaciones móviles que no protejan adecuadamente sus datos.
  • 83,5% prefieren que las marcas prevengan proactivamente el fraude móvil en lugar de reembolsar después de que ocurra.

Existe una brecha significativa entre lo que esperamos en términos de seguridad y protección de la privacidad y lo que los proveedores efectivamente nos están ofreciendo. Pero también existe una brecha quizás más sutil y menos visibilizada, que es aquella que se da entre lo que sabemos que nos podría proteger, y lo que no sabemos que nos protege o podría protegernos. Esta segunda distancia es la que podríamos definir como nuestra conciencia de seguridad digital o privacy mindfulness y tiene que ver con el nivel de información, alfabetización tecnológica y comprensión crítica que cada persona posee respecto de lo que está en juego en la era digital.

Esa conciencia no es homogénea ni universal. Está atravesada por factores como la edad, el nivel educativo, el acceso a tecnologías, las políticas públicas en materia de ciberseguridad, el diseño de las plataformas y, en muchos casos, por el ocultamiento deliberado de prácticas de obtención de datos sin autorización.

En este sentido, podemos afirmar que la seguridad y la privacidad no son solo cuestiones técnicas ni simples configuraciones de una app, sino que se trata de cuestiones de índole política y social que requieren tanto algún tipo de regulación como responsabilidad empresarial y, sobre todo, formación ciudadana y políticas públicas orientadas a la protección de los usuarios y consumidores.

La desinformación o la falsa información pueden ser la nueva pandemia en el mundo si no se abordan los riesgos de uso de la IA y su impacto. Al igual que un virus, la desinformación se disemina rápidamente, se adapta a diferentes contextos, y afecta no solo la percepción individual, sino también la confianza social, las instituciones democráticas y la toma de decisiones públicas y privadas. En un contexto donde imágenes, voces y textos pueden ser generados o manipulados por IA con altísima fidelidad y apariencia de realidad, el riesgo de no saber en qué o en quién confiar se vuelve crítico.

Cerrar esa brecha exige no solo que los proveedores de servicios eleven sus estándares de protección, sino también que las personas tengamos herramientas para comprender, exigir y ejercer nuestros derechos en el entorno digital. Porque lo que no se conoce, no se puede defender. Y en materia de privacidad, la falta de conocimiento puede tener costos severos e, incluso, irreversibles.

La innovación responsable es posible. No se trata de poner trabas, sino de avanzar con paso firme, afrontando los riesgos y dejando una huella basada en la ética, la transparencia y la rendición de cuentas. La tecnología puede y debe construirse con propósito.

fuente: inteligencia artificial (IA). Estado de …”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios