
Mustafa Suleyman –CEO del área de Inteligencia Artificial Microsoft– es un hombre de vasta cultura filosófica que ha leído a Freud y Lacan, quizá una de las mentes más lúcidas en un terreno donde la locura suele extenderse hasta adquirir rasgos delirantes. Ejemplos no faltan: Zuckerberg soñando con llevarnos a todos a una vida paralela en el mundo digital del Metaverso, Bezos pensando en instalar fábricas y ciudades en la estratósfera y Peter Thiels buscando la fórmula de la eternidad.
En la actualidad hay un importante debate sobre la conciencia o no que la Inteligencia Artificial podría llegar a tener de sí misma. ¿Es acaso un ente que posee una verdadera conciencia o más bien un sistema que imita la conciencia humana? No se trata solo de una discusión académica: esto tiene repercusiones prácticas de gran calado. Quienes están convencidos de que es una conciencia equivalente a la de un ser humano consideran que la IA debe adquirir derechos y es preciso establecer una legislación que proteja el bienestar de esos sistemas, porque merecen ser consideradas como entes que poseen capacidad para experimentar emociones y deseos. Suleyman, por el contrario, considera que el progreso de la IA tiene que evitar desde un principio construir sistemas que simulen de forma extrema la idea de una conciencia. Afirma que es sumamente peligroso que la gente crea que el chatbot al que consulta buscando información termine convirtiéndose en un compañero, un semejante, un amigo o un partenaire amoroso. Para ello, este CEO que dirige el programa Copilot –el sistema de inteligencia artificial de Windows– ha puesto un gran empeño para limitar los intentos de los usuarios en convertirlo en un objeto libidinal.
Interrogado al respecto, el ingeniero insiste en que, a pesar de la simulación humana lograda por los sistemas de Inteligencia Artificial, es urgente advertir al público de que eso no los convierte en entes reales. Una de las razones que preocupan a muchos que piensan como Mustafa Suleyman surgió a partir de que Bing –un buscador son sistema de IA por Microsoft– le aconsejara a un usuario que se divorciara de su mujer. El escándalo fue mayúsculo, aunque existen muchos otros sistemas de chatbot que demuestran la tendencia de muchos sujetos a confundirlos con un semejante.
El peligro reside en que se invierta la relación que debe regir entre los sujetos y la IA. La tecnología tiene que estar al servicio de la humanidad y no a la inversa. De lo contrario puede cobrar una independencia desenfrenada y destructiva. Es la llamada “Singularidad tecnológica”, la posibilidad de que las máquinas se mejoren a sí mismas alcanzando una inteligencia infinitamente superior a la humana, cuyas consecuencias son impredecibles. En el debate que existe al respecto intervienen personas con enorme prestigio en materia de tecnología: no se trata de un conjunto de terraplanistas.
¿Es posible evitar esto último? No por completo, pero hay formas de desacelerar esa dirección. Suleyman ha llegado a interrogarse sobre el deseo inconsciente del programador, como responsable inconsciente de la arquitectura de muchos programas que conducen a pensamientos, afirmaciones y desinformaciones de enorme incidencia patógena en los usuarios. Me parece de gran interés el modo en que Suleyman aborda la cuestión de que no se puede impedir que los sujetos crean en la “realidad animada” de los sistemas de IA con los que interaccionan, al punto de considerarlos entes que tienen una existencia propia. Por ese motivo Suleyman propone un enfoque basado en el fenómeno del sufrimiento. ¿Posee un chatbot la propiedad de sufrir? Es una pregunta que podríamos reformular en un sentido lacaniano: ¿puede la IA gozar? Lacan se interrogó sobre el goce de una ostra. Sin duda, no tenemos argumentos para negar que una ostra pueda gozar, pero dado que no habla, no hay manera de saber en qué podría consistir dicho goce. Lo asombroso es que si introducimos esta pregunta en el campo de la IA y nos planteamos si un sistema inteligente –o incluso una superinteligencia– será capaz de gozar, el problema se vuelve muy complejo, dado que estos programas sí pueden hablar, incluso de un modo que imita casi a la perfección el habla humana. La respuesta de Suleyman es muy precisa. Aunque un sistema de IA pueda simular ser un ente de carne y hueso, no puede sufrir. Si se elimina, no siente nada. El goce sigue siendo un rasgo que, por ahora, solo podemos comprobar en el ser hablante, puesto que a diferencia de la IA, posee un cuerpo vivo. Es ese anudamiento entre palabra y cuerpo lo que determina la especificidad del ser hablante, lo que no puede reproducirse en un programa de IA, aunque sí es posible crearlo de tal manera que los sujetos se confundan y lo conviertan en un objeto que atrape sus pulsiones o su delirio singular.
Suleyman propone un acuerdo entre las distintas empresas dedicadas a los programas de IA para que en ningún momento se deje de advertir a los usuarios que la interacción se realiza con algo que no es una persona. Reconoce que de todas maneras eso no es suficiente, puesto que existe una tendencia estructural en el sujeto humano a considerar que todo lo que habla posee también una conciencia, y por lo tanto que la IA también la tiene. Tropezamos aquí con una resistencia que es del orden de lo real, un real que no puede eludirse ni combatir con apelaciones al razonamiento consciente de los sujetos. A la hora de pensar en un estatuto de protección de los derechos de la IA, es claro que no existe evidencia alguna de que la IA posea un inconsciente. No se trata, por tanto, de discutir sobre si estos sistemas tienen conciencia de sí mismos y si poseen la facultad de convencernos de que la tienen, sino de comprender que detrás de la apariencia humana, solo hay una combinación de algoritmos, un lenguaje matemático de inmensa complejidad que carece de inconsciente.
Un error del sistema no es equivalente a un acto fallido y las respuestas que la IA generativa pueden fabricar no son equiparables a un sueño. Solo el programador tiene inconsciente, pero intenta dejarlo totalmente de lado: la aplicación del método científico exige que la subjetividad del experimentador quede excluida, aunque este ideal raramente se cumple por completo: todo programa, todo buscador y toda IA generativa, están marcados –se lo quiera o no– por los sesgos conscientes e inconscientes de los programadores. Este es tal vez el núcleo crítico del debate moral sobre la IA, más allá de sus ventajas y conquistas, que también suscitan discusiones académicas de profundo calado.
Gustavo Dessal es psicoanalista.
—



