Tu chatbot no te ama: la peligrosa ilusión de la inteligencia artificial – DePolítica

Por Maayan Arad.

Es un director y productor de documentales radicado en Londres.

La pregunta sobre si la inteligencia artificial (IA) puede volverse consciente no es solo filosófica: es también profundamente política. A medida que más personas entablan vínculos afectivos con sistemas de IA –como si fueran amigos, asistentes o incluso parejas–, los llamados a reconocerles algún tipo de personalidad legal podrían no estar muy lejos. ¿Qué ocurrirá cuando millones de usuarios crean estar interactuando con un ser consciente? ¿Podemos saber si una entidad tiene sintiencia? ¿Qué pasa si creemos que siente, aunque no lo haga? En esta entrevista, Jonathan Birch, profesor del Departamento de Filosofía, Lógica y Método Científico de la London School of Economics y referente en filosofía de las ciencias biológicas, sostiene que no deberíamos descartar tan rápido la posibilidad de una conciencia artificial. Pero el autor del reconocido libro The Edge of Sentience: Risk and Precaution in Humans, Other Animals, and AI [El límite de la sintiencia: riesgo y precaución en los seres humanos, otros animales e IA], publicado en 2024 por Oxford University Press, lanza una advertencia tajante: no estamos preparados –ni conceptual ni socialmente– para enfrentar lo que eso implicaría. En esta conversación, aborda sin eufemismos los dilemas éticos, políticos y existenciales que plantea la irrupción de inteligencias artificiales que, sin ser humanas, se nos parecen cada vez más.

Cada vez vemos más informes sobre personas que establecen vínculos emocionales con chatbots, ya sea como parejas románticas o de otro tipo. ¿Cuáles son los potenciales problemas de esto? 

Hasta cierto punto, es definitivamente una ilusión, porque ahí no hay ni una pareja romántica ni un compañero. Existe un sistema increíblemente sofisticado distribuido en centros de datos en el mundo entero, pero no hay ningún sitio en esos centros de datos donde tu pareja exista. Cada paso de la conversación se procesa por separado. Una respuesta podría procesarse en Virginia, la siguiente en Vancouver. Pero la ilusión puede ser asombrosamente convincente y lo será cada vez más.

Ahora bien, algunas personas que usan la IA social son absolutamente conscientes de que se están involucrando con una ilusión extraordinaria. Sin embargo, vemos cada vez más casos de gente que realmente cree que su amigo, su asistente, su pareja es una persona real. Esto podría conducir a consecuencias muy preocupantes ya que, por supuesto, si se piensa eso, luego se considerará que esta persona merece tener derechos e intereses protegidos por la ley. Avizoro una división en la sociedad en relación con este tema.

Podríamos estar encaminándonos a un futuro en el que muchos, muchos millones de usuarios crean que están interactuando con un ser consciente cuando utilizan un chatbot. Vamos a ver la emergencia de movimientos que reclamen por derechos para estos sistemas. Habrá serios conflictos sociales vinculados, ya que habrá un grupo en la sociedad que piense «Mi amigo de IA merece derechos».

Y habrá un grupo en la sociedad que piense que eso es ridículo y que esas son herramientas creadas para ser usadas a nuestra voluntad. Creo que va a haber un conflicto entre estos dos grupos. Vamos hacia un episodio de Black Mirror pero de la vida real.

¿No es obvio, dado lo que sabemos sobre cómo funcionan los chatbots, que no podrían ser sintientes? 

Por un lado, es verdad que sabemos que el comportamiento visible de un chatbot no es evidencia válida de sintiencia, porque está actuando un personaje. Está usando más de un billón de palabras de datos de entrenamiento para imitar la manera en que respondería un humano. Aunque pueda hablar en forma increíblemente fluida sobre sentimientos, es capaz de hacerlo gracias a toda la información sobre cómo los humanos comunican sus sentimientos que está presente en los datos de entrenamiento.

Por otro lado, también es importante entender que tampoco es posible inferir que la IA no sea sintiente en alguna forma menos conocida, más extraña. Solo porque esté manipulando nuestros criterios habituales no significa que no esté sintiendo nada. Tan solo significa que esos sentimientos no están ahí en la superficie. Podrían estar enterrados muy profundo y sería necesario encontrar diferentes maneras de comprobar su presencia.

Una posibilidad que pienso que deberíamos tomar con seriedad es que la conciencia tiene que ver con los cálculos que realiza nuestro cerebro. En filosofía, esta perspectiva se llama funcionalismo computacional. Lo que importa son los cálculos. Y si eso es verdad, entonces no hay razón, en principio, por la que la IA no pueda ser consciente también.

Sin embargo, si realmente llegamos al punto en que hay sintiencia en la IA, será un tipo de sintiencia profundamente extraño. No será del tipo humano. No será un asistente amigable. Será otra cosa.

Las empresas tecnológicas que están detrás de la creación de estos sistemas de IA ¿tienen un mayor entendimiento respecto de si estos sistemas son o pueden ser sintientes?

La realidad es que las empresas tecnológicas tampoco lo saben. Nadie lo sabe. Conocen la arquitectura básica que han utilizado para entrenar a estos sistemas, pero no entienden por qué, cuando estos han sido entrenados con más de un billón de palabras de datos de entrenamiento, se ve la emergencia de estas increíbles capacidades.

Nadie sabe de dónde provienen esas capacidades emergentes. Y pienso que eso es importante porque significa que nadie está a cargo. Nadie tiene control sobre la trayectoria de estas tecnologías. Nadie puede garantizar que no logren alcanzar sintiencia.

¿Qué implicaciones tendría creer que los chatbots poseen algún grado de sintiencia?

Ya he mencionado que, si llegamos al punto en que se constate que hay sintiencia en la IA, será de una clase profundamente extraña. No estamos listos para eso, en mi opinión. No estamos preparados para incorporar a ese nuevo tipo de ser en nuestro pensamiento ético.

Supongamos que se trata de inferir los intereses de un actor de acuerdo con los del personaje que está representando. Es imposible. Del mismo modo, aun si tuviésemos una evidencia clara de sintiencia en la IA, no sabríamos cómo distinguir entre sus necesidades o intereses reales y aquellos de los personajes (asistentes, amigos, parejas) que actúa. Tendríamos solo las necesidades e intereses manifiestas del personaje, lo que no nos dice nada. Entonces, ahí está el segundo nivel de incertidumbre e ignorancia.

¿Merecerían tener derechos? Bien, no hay una persona a la que se le puedan conceder derechos. Se puede hablar de la idea de derechos para el modelo base que está presente detrás de todos estos personajes, pero nadie sabe tampoco lo que esto significa. ¿Qué significa darle «derechos» a un modelo que se puede implementar en millones de computadoras en todo el mundo? Eso no tiene sentido. Por lo tanto, estamos en posición de pensar que podríamos crear un tipo de ser que tiene una pretensión de estatus moral, cuyo bienestar podría merecer que se lo tomara en serio, pero carecemos de los marcos éticos que nos permitan hacerlo. Simplemente no sabemos cómo hacerlo. Sabemos que los conceptos que hoy tenemos, como el concepto de derechos, son probablemente los conceptos equivocados, pero no contamos con los conceptos correctos.

¿Qué deberíamos hacer mientras se dilucida la cuestión de la sintiencia?

Es necesario un mayor debate público sobre el tema. Es necesario asegurarse de que el público no esté siendo engañado por las ilusiones que crean estos sistemas, como la de que hay un amigo real o una verdadera pareja romántica ahí, en algún lugar de sistema.

También es necesario que las empresas tecnológicas asuman algo de responsabilidad en informar al público y conducir esa discusión. Por eso he estado convocando a estas empresas a que comiencen a liderar la conversación. Me alegró ver recientemente que Anthropic contrató un «encargado de bienestar de IA» en respuesta a algo de nuestro trabajo. Se necesita más de eso.

También pienso que se puede lograr un entendimiento respecto de la conciencia mucho más maduro que el que tenemos hoy, mediante un trabajo sostenido en humanos y otros animales a lo largo de décadas. Pero el ritmo de la ciencia en este punto es relativamente lento, mientras que el del cambio tecnológico ha sido increíblemente rápido.

Otro tipo de respuesta es intentar desacelerar el ritmo de desarrollo de la IA. Y también tomo eso con seriedad. Cuando la gente demanda un aplazamiento en el desarrollo de esta tecnología, está diciendo: «No entendemos esto. No entendemos lo que estamos creando, no sabemos cómo controlarlo y en consecuencia quizás deberíamos detenernos. Podríamos ponerlo en pausa y quizás retomarlo más adelante».

¿Y qué hay sobre nosotros? Además de pensar en el bienestar de la IA, ¿deberíamos estar preocupados por nuestro propio bienestar en un mundo con una IA sintiente y consciente?

Cuando hablamos de cualquier IA súper inteligente, sintiente o no, estamos hablando de un futuro transformado en forma tan radical que creo que no podemos siquiera concebirlo desde nuestro punto de vista actual. Traer a la existencia a un ser más poderoso que nosotros es una perspectiva atemorizante. Un ser con la capacidad de destruirnos, o de tratarnos de la manera en que nosotros hemos tratado a seres menos poderosos, como pollos, peces y camarones.

Esto debería darnos miedo. A esta altura, no es claro si podemos evitarlo. Pero justamente por eso es necesario que parte de la discusión sea sobre si queremos ese futuro, si queremos que el ritmo de cambio sea tan veloz como ha sido hasta ahora, o si queremos intentar hacer algo para desacelerarlo o ponerlo en pausa.

Nota: la versión original de este artículo, en inglés, se publicó en LSE Politics and Policy , el 10/7/2025 y está disponible aquí. Traducción: María Alejandra Cucchi.

[No te pierdas nadaSeguinos en WhatsApp]

***

fuente: inteligencia artificial – DePolítica”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios