
La expansión de la IA abre oportunidades inéditas, pero también plantea dilemas urgentes sobre su uso responsable.
-
Sam Altman, desarrollador del ChatGPT, habló sobre los trabajos que resistirán a la IA y los que serán superados
-
¡Es oficial! Estos son los signos con mejor destreza en los deportes, según la IA

La UNESCO fijó en 2021 la primera norma global sobre ética de la inteligencia artificial, con pilares en derechos humanos, inclusión y sostenibilidad.
La irrupción de la inteligencia artificial en, prácticamente, todos los ámbitos, ha generado, sin duda, un gran impacto en todos los aspectos de nuestras vidas. Diariamente surgen aplicaciones sorprendentes de las tecnologías de IA y, en tanto las empresas encuentren nuevos espacios para aplicarlas, el impacto en la cotidianeidad será aún mayor. En consecuencia, como en tantas otras oportunidades, el avance tecnológico acelerado trae también aparejadas preguntas y escenarios que no pueden ser ignorados. Uno de los más evidentes y, tal vez, menos discutidos en profundidad hoy en día, es el relacionado con la ética y el uso responsable de la IA.
¿Qué es la ética? La Real Academia Española define la ética como “el conjunto de normas morales que rigen la conducta de la persona en cualquier ámbito de la vida”. Este concepto se construye a través de un proceso de reflexión sobre las propias acciones y las causas que las motivan, la internalización de determinadas normas morales y la construcción de una “conciencia moral” que guíe en la toma de decisiones en diversos contextos. Es fácil entender que la ética no es algo que se “inyecte” o se aprenda, sino que es dinámica y evoluciona, basada en las propias experiencias de cada ser y apoyada por la capacidad de reflexionar sobre la propia existencia.
En filosofía se refiere a la qualia como las cualidades subjetivas o sensaciones percibidas en las experiencias personales, las cuales no pueden ser transmitidas completamente por medio de palabras o conceptos objetivos. Los modelos de IA actuales no tienen la capacidad de reflexionar de manera autónoma acerca de sus “experiencias” y, como consecuencia, no pueden generar una “conciencia”. Esta limitación establece un escenario en donde la responsabilidad de definir los valores y principios éticos que los rigen recae definitivamente en las personas y/o compañías que los ponen a disposición de sus usuarios y clientes.
En este sentido, la transparencia en la toma de decisiones de los agentes de IA es fundamental para evaluar el impacto ético y moral que pueden tener en la sociedad. Un sesgo no identificado en un sistema que usa IA puede tener consecuencias que van desde la discriminación hasta un impacto severo en la reputación de las personas o las empresas, inclusive con consecuencias legales para los involucrados. Finalmente, la falta de un marco ético que delimite el uso responsable de esta tecnología puede llevar a escenarios donde la adopción de estas tecnologías se vea impactada negativamente por temor o desconfianza.
La “explicabilidad” adquiere un papel crucial: si no se comprende cómo llegan los sistemas de IA a sus conclusiones, los sesgos no identificados pueden mantenerse ocultos y reproducirse en el tiempo. Esto pone el foco en la ética de quienes diseñan, construyen y ponen en funcionamiento estos sistemas. Los sesgos o intenciones presentes en un agente de IA no son más que el reflejo amplificado de los propios sesgos o valores de las personas involucradas en su desarrollo y uso. Por lo tanto, la ética de cualquier sistema basado en IA depende, en última instancia, del compromiso y la responsabilidad de quienes participan en su creación y aplicación.
Finalmente somos los humanos quienes decidimos usar la IA para tomar decisiones, y eso implica un alto grado de responsabilidad acerca de los resultados obtenidos y las implicancias de esos resultados en su ámbito de aplicación.
En noviembre de 2021 la UNESCO elaboró la primera norma mundial acerca de la ética de la IA. Sus pilares fundamentales son cuatro: los derechos humanos, fomentar sociedades pacíficas, garantizar la diversidad y la inclusión, y fomentar el cuidado del medioambiente y los ecosistemas. Esta norma promueve que la responsabilidad ética y jurídica de la IA debe ser atribuible a personas físicas o jurídicas. Más allá de marcos legales específicos que establecen aspectos esenciales como la protección de datos personales, Argentina se ha alineado con la recomendación de la UNESCO acerca de las definiciones de uso responsable y ético de la IA.
Los gigantes de la tecnología a nivel mundial, principales impulsores del uso masivo de la IA, promueven el uso responsable de estas tecnologías, definiendo principios operativos y recomendaciones acerca del uso de sus plataformas y servicios. Estas definiciones implican la participación de varias áreas de las compañías, que representan las diferentes perspectivas y miradas acerca del uso cotidiano de esta herramienta. Cuanto más diversas estas miradas, más representativos son los principios éticos que se obtienen como resultado del ejercicio.
El gobierno y la gestión de las nuevas tecnologías resultan fundamentales para lograr que la adopción de la IA se desarrolle dentro de un marco ético y responsable. Es fundamental entender que los principios y valores que la guían no son responsabilidad exclusiva de las áreas técnicas; por el contrario, es conveniente abordarlos mediante un trabajo multidisciplinario que incorpore la perspectiva de diversos actores. Más allá del cumplimiento de las normativas legales propias de cada sector, es esencial definir con claridad los valores y principios operativos de cada organización, para que estos se reflejen en los sistemas que la emplean. Así como sucede en la vida humana, estas definiciones requieren ser revisadas y debatidas periódicamente, garantizando así un uso responsable y actualizado de la tecnología disponible.
El desarrollo y uso responsable y ético de la IA sin sesgos, diversa y transparente, que refleje aquellos valores que favorecen una evolución de los negocios, pero con foco en las personas, es un compromiso que debemos asumir y promover como facilitadores de las nuevas tecnologías que ya no son ideas aspiracionales sino realidades cotidianas.
AI Strategy Architect at Ingenia.
—
fuente: inteligencia artificial: transparencia y confianza como valores de negocio”> GOOGLE NEWS