Builder.ai: La startup que engañó a Microsoft y Google prometiendo IA, pero usaba 700 programadores humanos
- Redacción IT NOW
- 5 jun
- 3 Min. de lectura
La empresa convenció a ambos gigantes de invertir cientos de millones y alcanzó estatus de unicornio antes de que saliera a la luz uno de los mayores casos de "AI washing" del sector.

La historia de Builder.ai podría haber sido la de una revolución tecnológica. Fundada en Londres en 2016 por el emprendedor británico-indio Sachin Dev Duggal, la compañía prometía democratizar el desarrollo de aplicaciones gracias al poder de la inteligencia artificial. Su mensaje era simple pero atractivo: cualquier persona, sin conocimientos técnicos, podía crear una aplicación móvil o web tan fácilmente como pedir una pizza, gracias a una plataforma impulsada por IA. Sin embargo, tras una investigación de The Wall Street Journal, el relato cayó estrepitosamente: la supuesta IA no era más que una fachada detrás de la cual trabajaban en secreto más de 700 programadores humanos, en su mayoría ubicados en India.
La gran simulación
Builder.ai afirmaba haber desarrollado un asistente virtual llamado "Natasha", una inteligencia artificial que conversaba con los clientes y coordinaba automáticamente la creación del software solicitado. En la práctica, sin embargo, muchos chats eran atendidos por empleados que respondían manualmente mientras fingían ser un sistema de IA. Incluso las decisiones técnicas más simples, como las que prometían automatización o uso de modelos generativos, se ejecutaban con trabajo humano intensivo. Lo más grave: muchos de estos programadores no sabían que sus tareas formaban parte de un proyecto que vendía sus servicios como inteligencia artificial avanzada.
Según las fuentes consultadas por el Wall Street Journal, Builder.ai simulaba automatización para atraer clientes e inversores, incluyendo el uso de herramientas que sugerían generación automática de código, pero que eran alimentadas con scripts escritos por humanos. Internamente, empleados señalaron que "Natasha no era IA, era solo gente con un guion". Un sistema de tickets interno ocultaba esta estructura, manteniendo la ilusión de que todo estaba siendo procesado por una máquina inteligente.
Un engaño millonario con respaldo de gigantes
La magnitud del engaño creció junto con la popularidad de Builder.ai. En 2023, Microsoft invirtió 250 millones de dólares en la empresa, que fue valorada en más de 1.000 millones de dólares. También firmó un acuerdo estratégico con la startup para integrar su tecnología en el ecosistema de Azure y Copilot. Google, por su parte, se involucró a través de su división de inteligencia artificial, y promovió a Builder.ai como un caso ejemplar de implementación de IA generativa.
Este respaldo de grandes tecnológicas contribuyó a blindar la reputación de la empresa, permitiéndole atraer más clientes y aliados institucionales. Incluso se presentó en eventos de renombre, como el Mobile World Congress (MWC), donde su CEO afirmó que Builder.ai era capaz de automatizar más del 80% del desarrollo de software. La realidad, según los informes filtrados, distaba mucho de esa cifra: la mayoría de los productos se construían como en cualquier agencia tradicional de desarrollo.
Condiciones laborales, presión y cultura tóxica
El núcleo de la operación era una red de programadores distribuidos principalmente en India, muchos de los cuales trabajaban bajo presión constante, sin saber exactamente cómo se presentaba su trabajo al exterior. La estructura interna era hermética, y el trato hacia empleados y colaboradores se deterioró a medida que la empresa crecía. Algunos exempleados relataron que fueron obligados a seguir rutinas de trabajo que imitaban la eficiencia de una IA, generando una cultura laboral tóxica donde se privilegiaba la ilusión de automatización sobre la realidad técnica.
Además, Builder.ai utilizaba mensajes de marketing y comunicación que daban a entender que no se requería intervención humana significativa, lo que también generaba conflictos legales y éticos relacionados con publicidad engañosa y potencial violación de normativas de protección al consumidor.
¿IA o IA washing?
El caso de Builder.ai se suma a una creciente lista de empresas que practican el "AI washing": inflar o falsificar el uso de inteligencia artificial para atraer inversión, posicionarse en el mercado o vender productos. En un contexto donde la IA genera un enorme entusiasmo —y temor— a nivel global, las empresas buscan legitimidad y ventaja competitiva afirmando que usan tecnologías que en realidad no implementan o que apenas entienden.
Lo que Builder.ai vendía como un sistema de desarrollo de software autónomo y revolucionario era, en los hechos, un modelo tradicional de outsourcing, camuflado bajo una estética futurista. La línea entre la innovación genuina y el fraude comienza a desdibujarse cuando se invierten cientos de millones de dólares en base a promesas sin sustento técnico.
Este escándalo obliga a repensar la manera en que se auditan y validan las capacidades reales de las startups tecnológicas, especialmente en sectores tan opacos como la inteligencia artificial. Las grandes tecnológicas, los inversores de capital de riesgo y hasta los reguladores tendrán que establecer mecanismos más rigurosos para verificar que las empresas no vendan humo disfrazado de código.




Comentarios