Daniel Sitlerman: Si logramos una súper inteligencia artificial, me preocupa que lleguemos …

Para 2030 la mayoría de los expertos vaticinan una súper inteligencia artificial que supere al humano. Frente a ese escenario, Daniel Stilerman, especialista en IA, se acercó a la redacción de MDZ y advirtió: “Si llegamos a ese punto, me preocupa Terminator“.

Sin embargo, Stilerman, a quien la revista Forbes lo definió como el argentino que más sabe sobre big data, repara en la limitaciones actuales de la IA generativa y las dificultades para avanzar.

Aunque es un optimista de la inteligencia artificial y promueve por una tecnología al servicio de la humanidad, señala los escenarios pesimistas que se abren si se logra una IA que decida que la humanidad es “un problema para su existencia”.

Daniel Stilerman fue jefe de datos e inteligencia artificial en Google Argentina. Esa experiencia le sirvió para lo que actualmente se dedica como CEO y cofundador de Nivii, una startup tecnológica que, con inteligencia artificial generativa, se encarga de ayudar a las empresas a encontrar soluciones con sus propios datos.

Mirá la entrevista completa a Daniel Stilerman

Embed – Daniel Stilerman – Entrevista

-Los expertos señalan que para 2029/2030, estaríamos hablando de una súper inteligencia artificial que supere a la capacidad humana. ¿Se llegará a ese punto?
-Es una pregunta tremenda. Sí hay o no una súper inteligencia nos va a cambiar mucho el mundo. La respuesta es: no se sabe, no hay un consenso. Hoy un 70/ 75% de los expertos de inteligencia artificial (IA) te dicen que para el 2030 vamos a tener una súper inteligencia, que es un montón. El año pasado era el 94/95%, es decir todavía sigue siendo un montón pero hoy hay menos, pero hay menos. Hay dos grandes grupos dentro de los expertos, tenés los que dicen ojalá lleguemos lo antes que podamos porque va a ser súper bueno para la humanidad; y tenés el otro grupo que dice ojalá no lleguemos porque esto puede ser terrible para la humanidad. Entonces, en este 70/75% tenés mezclado los dos. Pero, para mí, que estoy más en el campo de los que dicen que no estaría bueno que lleguemos a la superinteligencia, ver que pasamos de 94% a 70% me llena de optimismo.

-Si bien siguen siendo mayoría. ¿A qué atribuís que haya bajado el porcentaje?
-Pasaron varias cosas. Primero, se demoró la salida de Chat GPT 5 y, si bien era mejor que la versión anterior, no era tanto mejor. Y lo segundo es, algunas personas que son muy expertos empezaron a decir que lo que se está haciendo ahora principalmente es tirarle más computadoras y más datos a más o menos la misma matemática. Todavía los avances son increíbles, pero ya no son exponenciales, comienzan a ser decrecientes.

También, lo que se observa es que empieza a ser más común acuerdo que hay áreas donde a la inteligencia artificial generativa que tenemos hoy, con esta matemática, le salen muy mal y no hay manera de mejorarlo. Por ejemplo, una de las cosas que a la IA generativa le sale mal es decirte las cosas precisas, si le preguntás una fecha y la inteligencia artificial no va a buscar a internet la fecha, o la va a buscar a Wikipedia, te inventa cualquier cosa. Y una de las cosas que se hicieron en los últimos 12 meses es que se demostró matemáticamente que eso con más computadoras no lo podemos arreglar.

El estado actual de la inteligencia artificial

Embed – La inteligencia artificial de hoy, no lo puede hacer.

-Estamos hablando de una súper inteligencia artificial, ¿podrías explicar específicamente qué es?
-Hay dos caminos. Tenés un primer paso, que es que una inteligencia artificial sea más inteligente que un ser humano. Y la súper inteligencia es que una inteligencia artificial sea más inteligente que una generación de humanos.

-¿Dónde estamos parados hoy?
-Hoy tenemos inteligencia artificial que parece inteligente pero que le faltan un par de cosas. Lo primero es que no es capaz de hacer un pensamiento paso a paso y construir conocimiento. Te voy a dar un ejemplo: si yo te digo Comizzo jugaba en River en el ’93 y vos me vas a decir rápidamente decís no, me suena que era antes. Y si yo te digo ¿estás seguro? Vos no vas a responder con la misma capacidad, vos te vas a poner a pensar y vas a decir mira, yo me acuerdo que tal jugaba en el 90 y me acuerdo que tal jugaba y me acuerdo que Comizzo estaba en otro equipo en el ’84, sabés que sí me parece que estaba en el 93’. Aclaro que es un ejemplo, no tengo idea. Ahí usaste dos tipos de inteligencia, una más automática y mucho más lo que “te suena” y otra que va paso a paso construyendo conocimiento. La inteligencia artificial que tenemos hoy es solo la que “te suena”, la que responde rápido. Se hacen muchas cosas para tratar de que la IA pueda ir paso a paso, pero no puede ir paso a paso, no lo logra hacer de verdad. Esa es la primera diferencia, nosotros tenemos dos inteligencias, los pajaritos tienen dos inteligencias.

Lo segundo es que nosotros de la experiencia podemos aprender. Te voy a dar un ejemplo: vos ves una sartén, tocás la sartén y te quemas. Cuando veas una próxima sartén, vos vas a decir ojo, que las sartenes pueden quemar. La inteligencia artificial generativa que tenemos hoy no es capaz de aprender de la experiencia a la vez que está experimentando, como los seres humanos. ¿Qué se puede hacer? Se puede guardar todos los ejemplos que recibió, frenar, re entrenarlo y es una nueva inteligencia artificial generativa.

Hay una inteligencia artificial, que no es la de Chat GPT, que se llama específica que sí puede aprender a medida que va experimentando, pero no hay vínculo entre los dos. Por ejemplo, Waze es específico. Lo que trata de hacer es predecir cuánto tiempo vas a tardar y esa puede aprender en base a la experiencia que está teniendo sin tener que ir a re entrenarse, porque está todo el tiempo cambiando su cerebro. Los seres humanos definitivamente desde el día 0 aprendemos por refuerzo del contexto. La inteligencia artificial de hoy no lo puede hacer, la generativa. Hay un tipo que a mí me gusta que se llama Yann LeCun, es importante porque ganó el Nobel de Matemática, que es el Premio Turing, por haber desarrollado la primera red neuronal, entonces es como uno de los próceres de la inteligencia artificial. Él dice que antes de pensar en una inteligencia más inteligente que los humanos, tenemos que conseguir que sea más inteligente que un pajarito. Y hoy no lo es.

Embed – Me preocupa Terminator.

-¿Por qué te preocupa llegar a una súper inteligencia?
-La súper inteligencia es como cuando la humanidad descubre las bombas atómicas. En el 47’ cuando Rusia descubre la bomba atómica, cuando ves el futurismo de ese momento (lo que iba a pasar en diez años), decían vamos a tener autos que vuelan solos porque la energía nuclear va a ser gratis, barata y segura para todos o vamos a tener la post sociedad, va a haber una guerra nuclear y los que sobrevivan van a comer como hace 10.000 años, no vamos a tener ni electricidad. Y ahora estamos medio en la misma.

Imagínate un par de escenarios. Escenario uno, tenemos superinteligencia, logramos resolver los problemas de comida para todos, logramos resolver el cambio climático, logramos resolver el problema de la sociedad. Es la parte positiva de una súper inteligencia. Y después tienen la parte negativa. ¿Qué pasa si la superinteligencia, que es más inteligente que todos nosotros juntos, decide que nosotros somos un problema para su existencia? Y llegamos a todos los escenarios estilo Terminator.

Nunca en la historia de la humanidad estuvimos tan cerca de que la humanidad tenga esos dos caminos tan claro, uno distópico donde es todo mal, Terminator; o utópico, es fantástico volvemos al paraíso. El único ejemplo es en 19147/48.

Algunos, me incluyo, estamos apostando a que haya un camino en el medio, que es la superinteligencia no se podía llegar, era simplemente fuera de nuestra capacidad por los próximos 50 años. ¿Y entonces qué tenemos? Y tenemos un cambio en la sociedad de trabajo muy grande pero muy positivo, porque logramos conseguir nuevas medicaciones, porque logramos quizás no resolver el clima, pero logramos resolver problemas de productividad para que todo el mundo tenga comida. Entonces, ¿Qué me preocupa a mí? Y te lo pongo simple, me preocupa Terminator.

-Entiendo que esta tercera vía que vos planteás es como una IA más al servicio de la humanidad. ¿Cómo choca eso con una IA cada vez más autónoma o con voluntad?
-Absolutamente. Lo primero que me gustaría aclarar es la inteligencia artificial de hoy no tiene autonomía, no tiene consciencia, no es un ser. Desde la matemática no existe esto. Hay gente que viene diciendo que tiene empleados que son inteligencia artificial. Bueno, eso es humo, no es verdad, lo que hay es un sistema al que vos le hacés una pregunta y te dan una respuesta. Después, podés hacer un montón de cosas enganchando una pregunta con la otra y cambiando las preguntas para que parezca que tiene voluntad, pero no tiene.

Salen ejemplos donde vos le decís te voy a desconectar y la inteligencia artificial te responde que no la desconectes. La realidad verdadera es que te responde eso porque la ciencia ficción que nosotros le dimos de entrenamiento, dicen que eso es lo que hacen las computadoras. Y hay papers donde te demuestran que cuando vos le excluyes la ciencia ficción del conjunto de datos, simplemente agarrás todos los datos que tienen que ver con ciencia ficción y no se los das, no tiene esas respuestas de no me apagues, déjame seguir, déjame que te convenza. Pero obviamente tenés una peor inteligencia. Hoy no tenemos un problema con eso. En el futuro podemos tener un problema porque lo que está demostrado es que si a Chat GPT le ponés más información, le ponés más proceso de cómputo, y se rompe lo que creíamos, y sigue mejorando cada vez más, es muy difícil hacer que se alinee con nosotros.

-¿Qué significa eso?
-Ese término se llama súper alineamiento y es muy difícil de hacer que lo logre y tiene tendencias que no son. Hoy la inteligencia artificial está preparada para que vos digas lo que la inteligencia artificial me está diciendo es cierto. Dos diferencias. Uno, no está preparado para que vos digas “la inteligencia artificial me ayuda”. Dos, no está preparado para decirte lo que es cierto. Está optimizado para que vos digas “me parece que lo que me dijo es cierto”. Entonces, si todo el camino que venimos construyendo, si esto se vuelve consciente, vamos a tener un problemón.

-¿Qué IA tenemos hoy?
-Hoy tenemos una IA que es sicofante, o sea que es consecuente, obsecuente, te quiere decir que sí a todo, que no tiene una consciencia, que no tiene una personalidad, que no es un ente verdadero, no existe como un ente, no tiene voluntad propia.

Una de las cosas que la gente necesita entender es cuando vos le hablas una vez al chat GPT y vos le volves a hablar y se acuerda de vos; verdaderamente no se acuerda de vos. Son dos cosas separadas. Lo que está haciendo es leer literalmente un documento que dice esto es lo que vengo charlando con esta persona. Pero no hay una entidad del otro lado, es un servicio de preguntas y respuestas, donde vos le das mucho más contexto y entonces parece que te conoce.

La gente dice que le enseñó a la inteligencia artificial. Entiendo que ahora Chat GPT responde mejor, pero vos no le enseñaste nada, lo que hace es tiene un anotador con tu código donde cada vez que vos le hacés una pregunta, literalmente lo que está haciendo se está agarrando esa información y la está pegando. Y yo sé que esto le quita mística, pero eso es lo que pasa.

-¿Cómo está viendo el impacto en el mercado laboral?¿Con una IA general vamos a perder todos el trabajo?
-La mayor parte de los empleos que están atrás de una computadora en los próximos cinco años se van a ver. La mayoría es el 80, 85%, van a ser transformados fuerte por la inteligencia artificial. Porque las capacidades de hoy, si las usaran todos, ya lo cambiaría. No estamos hablando de lo que va a mejorar en los próximos tres años, con lo que hoy es capaz va a cambiar un montón.

Entonces parece que la conclusión es nos vamos a quedar todos sin laburo y la verdad es que hay dos cosas. Lo primero es que en la historia siempre que hubo cambio tecnológico, el cambio fue positivo para la humanidad. Lo segundo, capaz se quedaron sin ese trabajo, pero apareció otro trabajo.

fuente: inteligencia artificial, me preocupa que lleguemos …”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios