L’incroyable start-up valorisé 1.5 milliard qui a dupé Microsoft : 700 employés indiens simulaient l’IA

Présentée comme une étoile montante de l’intelligence artificielle, la start-up britannique Builder.ai s’est effondrée début mai 2025 après des révélations fracassantes ! Derrière son assistant virtuel “révolutionnaire”, pas d’algorithmes, mais 700 employés indiens déguisés en IA. Retour sur une affaire aux ramifications internationales.

Une fausse intelligence artificielle devenue licorne

La montée en puissance de l’intelligence artificielle ces dernières années a transformé le paysage technologique mondial. Sur ce marché en pleine effervescence, l’entreprise Builder.ai s’était forgée une réputation solide. Fondée à Londres, elle prétendait offrir des services de développement logiciel automatisé grâce à une IA nommée Natasha, capable de coder des applications à la demande à partir d’instructions textuelles.

Avec une valorisation estimée à 1,5 milliard de dollars – soit environ 1,38 milliard d’euros – et un financement colossal de 455 millions de dollars (près de 420 millions d’euros) de la part de Microsoft, tout semblait indiquer que Builder.ai représentait une avancée majeure dans le secteur.

Mais derrière ce succès apparent, une réalité beaucoup plus sombre se dessinait : aucune intelligence artificielle ne fonctionnait réellement en arrière-plan. À la place, l’entreprise employait en secret près de 700 développeurs et ingénieurs informatiques basés en Inde pour réaliser manuellement les tâches attribuées à l’IA.

Le site web propose de lancer son application en 6 étapes seulement !

Une opération montée de toutes pièces pendant près de 8 ans !

Les premiers soupçons ont émergé en interne, mais c’est un rapport explosif de Binance qui a révélé l’ampleur de la fraude. Selon plusieurs employés, la supercherie aurait débuté dès 2017, transformant Builder.ai en simple façadier d’un service humain maquillé en intelligence artificielle.

Chaque projet confié à Natasha était en réalité traité par des équipes en Inde, sous des délais stricts et une organisation digne d’un centre de production offshore. Grâce à des délais de réponse courts et une communication bien huilée, l’illusion d’une IA performante et réactive était maintenue avec habileté.

  • Des interfaces sophistiquées permettaient de cacher l’intervention humaine.
  • Des réponses standardisées simulaient un comportement algorithmique.

Cette stratégie, bien que risquée, a permis à la start-up de gravir les échelons du monde tech jusqu’à séduire les plus grands noms, y compris Microsoft.

La société a confirmé son insolvabilité sur Linkedin :

Des chiffres falsifiés pour séduire les investisseurs

L’arnaque ne s’est pas arrêtée aux aspects techniques. Pour attirer toujours plus de financements, Builder.ai aurait falsifié ses chiffres de ventes entre 2021 et 2024. Selon les révélations de Bloomberg, plusieurs lignes comptables présentaient des montants identiques d’une année sur l’autre, un indice troublant dans un secteur où chaque mission a un coût spécifique.

Ces pratiques douteuses ont permis à l’entreprise de présenter une croissance artificielle et de booster sa valorisation, dans un marché où les investisseurs misent gros sur les promesses technologiques.

Bloomberg affirme également que l’entreprise indienne VerSe aurait été mêlée à cette manipulation. Son vice-président a catégoriquement rejeté les accusations, qualifiant ces révélations de « mensongères ». Malgré ces démentis, la suspicion reste forte autour des acteurs ayant collaboré avec Builder.ai.

Natasha : un produit phare qui n’a jamais existé

Le cœur de la communication de Builder.ai reposait sur Natasha, une IA censée révolutionner la création logicielle. Promettant de transformer un simple brief en application mobile ou web fonctionnelle, elle s’adressait autant aux développeurs indépendants qu’aux PME en quête de rapidité.

Les démonstrations publiques et les présentations aux investisseurs étaient impressionnantes. Mais selon plusieurs sources internes, Natasha n’a jamais été fonctionnelle. Les réponses étaient en fait préparées par des humains via un back-office complexe, sans aucune automatisation réelle.

  • Pas d’algorithme d’apprentissage automatique
  • Pas de traitement du langage naturel
  • Pas de génération de code automatisée

Tout reposait sur un travail manuel minutieux, orchestré pour passer inaperçu. Cette découverte a porté un coup fatal à la réputation de l’entreprise, qui reposait entièrement sur l’illusion d’un produit technologique de pointe.

La chute rapide d’une licorne technologique

Lorsque l’affaire éclate début mai 2025, le choc est immédiat dans l’écosystème tech. En quelques jours, Microsoft retire son soutien, les investisseurs se désengagent, et la société perd toute crédibilité. Le 3 mai, Builder.ai annonce officiellement sa mise en faillite.

Dans un communiqué, l’entreprise évoque « des décisions passées et des défis historiques » ayant mis une pression insoutenable sur sa situation financière. Une manière détournée de reconnaître que son modèle reposait sur une base frauduleuse depuis plusieurs années.

Des procédures judiciaires sont désormais envisagées. Plusieurs anciens employés prévoient de déposer plainte, et des enquêtes sont ouvertes à la fois au Royaume-Uni et en Inde. La participation de partenaires comme VerSe et l’implication indirecte de Microsoft dans le financement posent de nombreuses questions sur les méthodes de due diligence dans les investissements technologiques.

Les leçons d’un scandale mondial dans l’intelligence artificielle

L’affaire Builder.ai soulève des interrogations profondes sur la manière dont sont évaluées les jeunes pousses technologiques. Dans un marché où l’IA est devenue un argument de vente imparable, la tentation de tricher pour séduire est forte.

La start-up londonienne n’est peut-être que la partie émergée de l’iceberg. Alors que des milliards d’euros sont injectés dans la recherche et le développement, la frontière entre l’innovation réelle et la simple mise en scène devient floue.

Pour les investisseurs comme pour les utilisateurs, cette affaire constitue un signal d’alarme. L’intelligence artificielle n’est pas qu’un effet de mode : elle suppose un socle technologique réel, des compétences avancées et une éthique solide. Le mirage de Builder.ai montre que l’apparence ne suffit pas à garantir la performance.

En exposant les failles d’un système trop crédule, ce scandale marque un tournant dans la course à l’innovation. Le marché ne tolérera plus aussi facilement les promesses sans preuves. Et il est probable que d’autres révélations secouent bientôt l’univers de la tech.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *