
En plena era dorada de la inteligencia artificial, donde las promesas tecnológicas acaparan titulares y capital, la historia de Builder.ai emerge como un ejemplo paradigmático de cómo el marketing puede eclipsar la realidad operativa de una empresa. Fundada en 2016 por el emprendedor Sachin Dev Duggal, la startup británica captó la atención global con una propuesta tan atractiva como engañosa: crear una app sería “tan fácil como pedir una pizza”, gracias a un asistente virtual de IA llamado Natasha.
La narrativa era irresistible. Builder.ai se presentaba como una plataforma de desarrollo sin código (“no-code”), impulsada por inteligencia artificial, capaz de ensamblar aplicaciones como si fueran piezas de Lego. Natasha, su supuesto cerebro artificial, prometía transformar ideas en aplicaciones funcionales en tiempo récord. El modelo atrajo inversores de peso, entre ellos Microsoft, que no solo invirtió capital sino también integró su tecnología en el ecosistema de Builder.ai.
Pero el 20 de mayo pasado, la empresa se declaró en bancarrota, con deudas que superan los 115 millones de dólares y tras haber alcanzado una valuación de 1.500 millones. Lo que parecía una historia de éxito impulsada por IA resultó ser un caso de ingeniería financiera, marketing agresivo y una enorme dependencia del trabajo humano oculto.
Natasha no era IA
La revelación más contundente surgió de una auditoría interna y filtraciones de empleados: Natasha no era una inteligencia artificial funcional. Detrás de la interfaz, las tareas eran enviadas a un equipo de más de 700 desarrolladores en la India que ejecutaban a mano cada paso del proceso. Incluso tareas automatizables, como las estimaciones de costos o cronogramas, se realizaban con software tradicional o intervención humana.
Lo que se vendía como automatización avanzada era, en realidad, una operación de externalización encubierta a gran escala. Esta dinámica recuerda otros escándalos recientes, como el de la startup Nate, donde supuestos procesos de IA eran realizados por trabajadores humanos desde Filipinas.
Señales ignoradas
Ya en 2019, un artículo del Wall Street Journal advertía que Builder.ai dependía más de desarrolladores humanos que de algoritmos. Antiguos empleados describieron un entorno caótico, con entregas manuales, código defectuoso y soluciones difíciles de mantener. Sin embargo, las advertencias fueron minimizadas y algunos críticos internos, como el exdirector Robert Holdheim, terminaron despedidos tras denunciar que la tecnología era “una ilusión”.
El verdadero colapso comenzó en 2024, cuando la firma financiera Viola Credit, que había prestado 50 millones de dólares, embargó 37 millones tras descubrir irregularidades contables. En paralelo, las autoridades de la India congelaron fondos adicionales en medio de una investigación por lavado de dinero. Las pesquisas apuntan a contratos ficticios con la empresa india VerSe Innovations, utilizados para inflar ingresos hasta un 300% y seducir a nuevos inversores.
Según la auditoría, Builder.ai reportaba ingresos anuales de 220 millones de dólares, pero en realidad facturaba apenas 50. La diferencia, clave para sostener su estatus de “unicornio”, era una construcción artificial sobre datos falsificados.
El caso Builder.ai no es solo una historia de fraude. Es también un síntoma de una industria donde la retórica de la IA, muchas veces vacía, encuentra eco en fondos de inversión que priorizan la narrativa sobre la verificación técnica. Microsoft, que había destacado a Builder.ai como socio estratégico en 2023, terminó siendo uno de los grandes damnificados del engaño. (DIB)
—