Ana Correa disertó sobre sesgos de género y la necesidad de una inteligencia artificial inclusiva

La comunicadora, abogada y activista por los derechos de las mujeres, Ana Correa, brindó una charla en el Centro Judicial de Santa Rosa sobre los sesgos de género y los estereotipos existentes en el contexto de la expansión del uso de la inteligencia artificial. Durante su exposición, Correa enfatizó la importancia de analizar el impacto de los errores de la IA en la brecha digital de género. “Hay que ver qué impacto tienen esos errores en la brecha digital de género”, remarcó, y planteó la necesidad de avanzar hacia una IA inclusiva.

Para abordar esta problemática, Correa desarrolló OlivIA, una herramienta accesible a través de Chat GPT que permite identificar sesgos y errores de género en dicho ecosistema. Según explicó, a OlivIA se le puede realizar la misma consulta que a la plataforma original, pero la diferencia radica en que sus respuestas identifican desigualdades simbólicas o estructurales, evitando una mirada sesgada. “No hay que tenerle miedo a la IA, pero sí usarla con cuidado. Incluso saber de qué estamos hablando cuando hablamos de inteligencia artificial, aunque después la usemos más o menos”, acotó la especialista.

La charla fue organizada por la Oficina de la Mujer y Violencia Doméstica y el Centro de Capacitación. Correa es reconocida por haber formado parte del grupo que organizó la primera marcha de “Ni Una Menos” el 3 de junio de 2015 en Argentina. Además, en 2019 escribió el libro “Somos Belén”, que narra la historia de una joven tucumana condenada por la justicia de su provincia tras sufrir un aborto espontáneo. Este texto fue la base para la película “Belén”, galardonada con varios premios internacionales, incluyendo el Premio Goya 2026 a la mejor película iberoamericana.

Correa profundizó sobre el funcionamiento de la IA generativa, señalando un inconveniente central. “Como sus respuestas se basan en datos disponibles fundamentalmente en internet, no siempre esas respuestas son precisas y muchas veces en esas respuestas aparecen lo que llamamos ‘bucles de retroalimentación’. ¿Por qué? Porque contestan con estereotipos, ya que asocian palabras exclusivamente a hombres o mujeres”, expresó. Como ejemplo, mencionó que la palabra “abogado” suele asociarse a un hombre, mientras que “azafata” se vincula a una mujer.

Respecto a su herramienta, la comunicadora detalló su objetivo: “Con OlivIA intenté no dar respuestas tajantes ni cerradas, sino más bien estimular el debate. A partir de la información que cargué, y que incluye leyes y normativas internacionales, busqué al menos achicar esos márgenes de error”. En su disertación, Correa también se refirió a herramientas digitales que evalúan fundamentos jurídicos y la valoración de pruebas, y enfatizó la necesidad de utilizar la inteligencia artificial para promover la “alfabetización y disminuir la brecha que existe en el acceso al conocimiento”.

fuente: inteligencia artificial inclusiva”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios