95% des projets d’IA ne génèrent aucun ROI : pourquoi ?

À l’heure où l’IA est perçue comme une révolution qui laissera sur le carreau tous ceux qui ne l’adoptent pas, une étude récente du MIT publiée en juillet 2025 vient sérieusement tempérer cette perception : 95% des projets pilotes d’IA générative n’ont aucun impact mesurable sur le compte de résultat des entreprises.

Ce constat, issu du rapport « The GenAI Divide: State of AI in Business 2025 » mené par le projet NANDA du MIT Media Lab, s’appuie sur l’analyse de plus de 300 initiatives publiques d’IA, 150 entretiens avec des dirigeants et 350 enquêtes auprès d’employés. Malgré des investissements estimés entre 35 et 40 milliards de dollars aux États-Unis, seuls 5% des organisations réussissent à intégrer l’IA de manière significative dans leurs opérations.

On pourrait, à tort, déduire de ce rapport que l’IA n’est qu’une bulle. Au contraire, cette étude offre une meilleure compréhension des domaines dans lesquels l’IA apporte une véritable valeur ajoutée, et des projets qui à l’inverse sont voués à l’échec. Ce rapport, et mon expérience au sein de NeoLegal, permettent de dégager 7 erreurs à éviter dans le choix de vos projets d’IA.

Cet article a initialement été publié sur le blog de NeoLegal

Utiliser un LLM alors que le problème est déterministe

Le premier problème ne réside pas dans les capacités des modèles d’IA, mais dans leur mise en pratique. Si vous avez demandé aux premières versions de ChatGPT de résoudre des calculs arithmétiques, vous avez remarqué que l’IA s’en sortait bien avec « 2 + 2 », mais commençait à divaguer face à des calculs plus complexes.

Pourquoi cette différence ? Parce que les LLM sont des systèmes prédictifs. Ils proposent la réponse la plus probable sur la base de leurs données d’apprentissage. Si « 2 + 2 = 4 » a été vu des millions de fois dans leurs données d’entraînement, les calculs plus complexes deviennent beaucoup plus rares. L’IA ne calcule pas, elle prédit ce qui devrait venir après le « = ». C’est toute la différence.

Cette limitation structurelle peut désormais être contournée grâce à des protocoles comme le MCP (Model Context Protocol), qui permettent aux IA d’invoquer des outils spécialisés pour des tâches précises comme les calculs arithmétiques. Mais le problème de fond demeure : les IA sont non déterministes (les réponses ne sont jamais strictement identiques d’une exécution à l’autre), et ne devraient pas être utilisées seules pour des problèmes déterministes (qui n’acceptent qu’une — et une seule — solution correcte).

Malheureusement, « quand on a un marteau, tout ressemble à un clou », et l’IA est le marteau de notre époque.

Ignorer la nature des erreurs commises par les IA

On excuse trop souvent les erreurs des IA en rappelant que les humains en font également. C’est évidemment vrai. La fréquence des erreurs des IA est un point clé, mais leur nature est encore plus déterminante. Une IA peut produire un texte remarquable contenant une erreur grossière qu’un humain n’aurait jamais faite, même distrait ou fatigué.

Imaginez-vous à une terrasse en été. Vous commandez un café, le serveur vous apporte la facture. Vous réalisez qu’il y a un écart de 1 €. C’est agaçant, mais ça arrive. Une IA aurait aussi pu commettre une erreur sur le montant, mais elle n’aurait eu aucun problème à vous facturer 10 000 €. Ou 0,001 €. Ou -47 €.

Dans les deux cas, on a techniquement « une simple erreur de montant ». Mais l’une défie toute logique humaine élémentaire, tout sens des ordres de grandeur, tout bon sens. Un humain, même en se trompant, reste dans un corridor de vraisemblance. L’IA, elle, peut sortir complètement des rails.

C’est exactement ce type d’incohérence que l’on retrouve dans les hallucinations des modèles d’IA générative. Chez Deloitte, récemment, c’est le moment où l’IA s’est mise à citer des textes de loi fictifs avec la même assurance qu’elle citait les vrais.

NeoLegal s’est heurté à ce type de problématique avec l’extraction des données depuis les liasses fiscales des entreprises par IA. Le résultat était souvent presque correct. Mais ce « presque » impliquait une relecture attentive par un humain, relecture qui s’avérait aussi coûteuse qu’une saisie manuelle des chiffres… Les gains de productivité n’ont été permis qu’en complétant l’extraction réalisée par le LLM par une vérification de cohérence automatique, afin de signaler à l’humain les liasses contenant des montants incohérents, que ce soit à cause d’une extraction incorrecte ou d’une erreur dans le document.

Surestimer les gains potentiels, sous-estimer les conséquences des erreurs

Dans le choix de projets d’IA pour votre entreprise, vous devez prendre en compte les gains potentiels, mais surtout — et c’est trop souvent négligé — les conséquences d’une erreur de l’IA. Cette équation risque/bénéfice devrait guider chacune de vos décisions.

La traduction automatique de textes illustre l’équilibre recherché. Aussi difficile que ce soit à entendre pour les traducteurs professionnels, l’IA brille dans ce domaine avec une qualité difficilement critiquable. Les traductions générées sont remarquables, à des coûts défiant tout concurrence humaine.

Imaginez maintenant deux scénarios :

Scénario 1 : Votre ado a écrit son premier roman de fantasy et l’a publié gratuitement sur Amazon en auto-édition. En parent fier de votre rejeton, vous pourriez vous appuyer sur ChatGPT pour le traduire dans 40 langues et faire profiter le monde entier de sa créativité. Financièrement, ça n’aurait pas été envisageable il y a quelques années. Ça l’est aujourd’hui grâce à l’IA. Et le risque posé par une erreur de traduction ne vous empêchera pas de dormir.

Scénario 2 : Vous utilisez la même stratégie pour traduire les conditions de rachat de votre société par un groupe étranger. Soudain, vos nuits risquent d’être nettement moins paisibles. Une erreur de traduction sur une clause financière ou juridique peut coûter des millions. Un traducteur humain — qui s’appuiera d’ailleurs sur l’IA pour le gros du travail — devient un investissement non négociable.

Récemment, Deloitte a démontré les conséquences d’une mauvaise évaluation des risques posés par l’IA. Le cabinet a dû faire marche arrière sur un projet pour le gouvernement australien après que de nombreuses incohérences ont été découvertes dans un rapport : citations inexactes, références à des textes de loi fictifs, statistiques non vérifiables. Le cabinet a dû reconnaître publiquement avoir utilisé une IA générative sans révision scrupuleuse du rapport produit, et rembourser 440 000 $ au gouvernement.

Le problème traité par le cabinet n’était a priori pas déterministe (il y a théoriquement une infinité de rapports corrects), l’IA aurait donc dû briller, mais certains aspects étaient déterministes — les textes de lois référencés existent ou n’existent pas, il n’y a pas de zone grise. Ces éléments factuels auraient dû déclencher une vérification humaine systématique. Mais cette vérification systématique aurait probablement gommé les gains de productivité offerts par l’IA…

Cibler les ventes et le marketing au lieu de l’opérationnel

Un domaine frappé de plein fouet par l’IA est celui du copywriting et de la rédaction de contenus professionnels — articles de blog, descriptions de produits, posts sur les réseaux sociaux. Le contenu généré est de très bonne qualité, et les conséquences potentielles d’une erreur souvent minimes. L’article que vous lisez est d’ailleurs écrit en collaboration avec une IA, qui transcrit mes notes vocales, résume les points clés, propose une structure et une mise en valeur qui m’auraient pris beaucoup plus de temps.

Je le fais. Vous le faites. Tout le monde le fait. Parce que produire du contenu de qualité était chronophage, coûteux, et que l’IA a compressé ces coûts de façon spectaculaire. Fin 2024 déjà, plus de la moitié des longs posts sur LinkedIn étaient générés par IA.

La visibilité sur internet grâce aux blogs et posts sur les réseaux sociaux ayant été une des clés du succès dans la décennie précédente, on veut croire que grâce à l’IA, on pourra enfin avoir sa part du gâteau. C’est compréhensible, mais c’est une illusion.

Selon le rapport du MIT Media Lab, et c’est ce que je constate aussi en entreprise, la majorité des investissements en IA sont faits sur des projets liés aux ventes et au marketing, typiquement pour accroître la génération de contenus mettant en valeur l’entreprise et ses produits. Ce sont des projets plus « faciles », plus compréhensibles par la hiérarchie, moins risqués à vendre en interne.

Et pourtant, ce sont précisément ces projets qui ne génèrent aucun ROI.

Pourquoi ? Parce que l’IA a créé un déséquilibre fondamental : produire du contenu est devenu moins coûteux que de le consommer. Il vous faut 30 secondes pour demander à ChatGPT de rédiger un article de 1500 mots. Mais il vous faudra 5 à 10 minutes pour le lire. Et c’est là tout le problème.

Dans ces conditions, pourquoi écumer les tréfonds d’internet à la recherche d’une réponse dont la forme et le fond nous satisfont, quand une IA peut produire exactement ce dont nous avons besoin, à la demande, sur mesure ? C’est précisément ce qui motive l’adoption massive de ChatGPT et Claude au détriment des moteurs de recherche classiques.

Si vous continuez à produire du contenu, il devrait être à destination des IA plutôt que des humains. Optimisez pour être la source que Claude ou ChatGPT citeront dans leurs conversations avec vos clients potentiels. C’est un changement de paradigme complet, mais c’est là que se trouve la valeur.

Pendant ce temps, mettre l’IA au service de vos processus opérationnels peut sembler plus risqué et complexe, mais c’est là que se trouve le vrai retour sur investissement.

Se limiter à des IA génériques quand des outils spécialisés sont nécessaires

Un chiffre interpelle dans l’étude : 83% des chatbots LLM génériques (comme ChatGPT) semblent réussir en phase pilote. C’est impressionnant. Le problème ? Au moment de l’industrialisation, ils montrent leurs limites.

Ce phénomène est frustrant mais fréquent dans la mise en pratique des IA, même hors projets d’entreprise. Les succès obtenus rapidement pour — presque — résoudre un problème donnent l’illusion qu’avec juste un peu plus d’effort, en perfectionnant le prompt, en ajoutant quelques exemples, la solution sera rapidement opérationnelle.

Le principe de Pareto appliqué au développement nous dit que 20% de l’effort donne 80% du résultat, et que les 20% manquants nécessiteront 80% du travail total. Avec l’IA, c’est potentiellement pire : vous ne savez pas si vous pourrez atteindre les 100%, peu importe les efforts investis.

Et vous n’y arriverez certainement pas en vous concentrant uniquement sur des prompts de plus en plus complexes et sophistiqués.

Il existe des outils spécifiques pour dépasser les limites des IA génériques : fine-tuning, RAG (Retrieval-Augmented Generation), agents spécialisés, etc. Mais acquérir ces compétences et les garder à jour dans un domaine qui évolue d’une semaine à l’autre n’est pas un investissement pertinent si ce n’est pas votre cœur de métier.

Vous faire accompagner par des sociétés dont c’est l’expertise maximise la probabilité de réussite de vos projets, et sera probablement in fine moins coûteux qu’une équipe interne qui tâtonne.

Ne pas se faire accompagner par des experts

Les 5% de projets générant un ROI ont un point commun frappant : ils sont majoritairement tournés vers des processus opérationnels. Automatisation de tâches répétitives, amélioration de la prise de décision, optimisation de flux de travail, analyse prédictive.

Ces projets sont plus complexes que ceux ciblant les ventes et le marketing. Ils nécessitent une compréhension fine de vos processus métier, des compétences techniques pointues en IA, et la maîtrise de technologies et d’outils qui évoluent à une vitesse vertigineuse. Développer une expertise interne en IA, c’est se spécialiser dans un domaine qui n’a probablement rien à voir avec le cœur de métier de votre entreprise.

De la même manière que les entreprises n’envisagent plus d’écrire leur propre traitement de texte ou de développer en interne leur propre ERP, elles ont tout intérêt à faire appel à des experts dont l’IA est précisément le métier.

Les coûts peuvent sembler élevés au départ, mais les bénéfices sont multiples :

Doublement du taux de réussite : selon l’étude du MIT, le taux de réussite atteint 67% quand le projet est piloté par des entités externes, contre seulement 33% quand il est piloté en interne. Ce seul facteur justifie l’investissement.

Préservation du cœur de métier : vos ressources et votre personnel ne sont pas détournés des activités principales de l’entreprise. Vos équipes restent concentrées sur ce qu’elles font de mieux.

Rapidité d’exécution : les projets sont réalisés plus vite par des experts qui ont déjà résolu des problèmes similaires, et les bénéfices sont donc récupérés plus rapidement.

Ignorer les expérimentations du terrain

L’étude du MIT révèle un phénomène aussi fascinant qu’ironique : l’émergence d’une véritable « économie parallèle de l’IA ». Tandis que les initiatives officielles d’IA stagnent dans 95% des entreprises, plus de 90% des employés utilisent des outils d’IA personnels — ChatGPT, Claude, Perplexity — dans leur travail quotidien, souvent à l’insu complet des départements informatiques et de la direction.

Le paradoxe est saisissant : cette adoption « clandestine » génère un meilleur retour sur investissement que les projets officiels à plusieurs millions de dollars. Pourquoi ? Parce qu’elle répond à de véritables besoins opérationnels identifiés par les utilisateurs eux-mêmes, sans passer par des comités, des phases pilotes, des validations en cascade.

Ce Shadow AI est une mine d’or d’informations pour votre entreprise. Être à l’écoute de vos équipes vous permettra à la fois de retirer efficacement les bénéfices de l’IA, tout en encadrant son utilisation pour éviter les risques majeurs, en particulier la diffusion d’informations confidentielles à des tierces parties qui peuvent les exploiter comme bon leur semble — ou pire, les intégrer dans leurs modèles d’entraînement.

Soyez particulièrement attentifs aux « early adopters » de l’IA dans votre entreprise. Ce sont des signaux précieux. Ils ont su identifier les bénéfices que l’IA pouvait apporter à leur travail, souvent de manière créative et inattendue.

Attention : ces mêmes personnes pourraient être les premières à freiner une adoption collective officielle. Un comportement surprenant, mais profondément humain : celui de vouloir conserver pour soi l’avantage conféré par ces outils. Quand vous êtes le seul de votre équipe à terminer vos rapports deux fois plus vite, ça se remarque positivement. Quand tout le monde a accès au même outil, votre avantage disparaît.

Conclusion : 7 conseils pour sélectionner vos projets d’IA

L’étude du MIT ne signale pas la fin de l’IA en entreprise. Elle marque plutôt la fin de l’ère de l’expérimentation aveugle, du « il faut faire de l’IA parce que tout le monde en fait ». Le fossé se creusera entre les leaders capables d’intégrer stratégiquement l’IA et ceux qui accumuleront les projets pilotes sans impact réel.

Le contraste entre les 95% de projets sans ROI et les 5% qui réussissent permet d’identifier 7 points d’attention pour que vous investissiez dans les projets d’IA avec le meilleur retour sur investissement potentiel :

  1. Sélectionnez des problèmes non déterministes : l’IA brille quand le problème à traiter a une infinité de solutions possibles. Un problème avec une seule solution valable est un red flag.
  2. Estimez les conséquences des erreurs des IA : ne vous laissez pas hypnotiser par les gains de productivité potentiels. Évaluez la viabilité du projet si les erreurs des IA se rendent en production, ou s’il faut absolument les détecter et les corriger avant.
  3. Concentrez-vous sur le back-office : privilégiez des projets pour l’opérationnel plutôt que les ventes et le marketing. Les projets ventes/marketing ont tendance à utiliser l’IA pour résoudre des problèmes que l’IA elle-même a rendus obsolètes.
  4. Appuyez-vous sur une expertise externe : faites confiance à des spécialistes pour doubler vos chances de succès. Le surcoût initial est largement compensé par l’amélioration du taux de réussite.
  5. Ne vous limitez pas aux IA génériques : ne déployez pas d’outils génériques en espérant qu’ils s’adaptent magiquement à vos besoins. Adaptez l’IA à vos processus métier spécifiques.
  6. Soyez attentif aux expérimentations des opérationnels : les projets avec le plus d’impact viennent du terrain, pas des salles de conseil. Soyez à l’écoute du Shadow AI, encadrez-le, mais ne le tuez pas.
  7. Impliquez les experts dès le début : le taux de réussite double quand des experts externes pilotent le projet. C’est un investissement qui se rentabilise rapidement.

En somme, vos projets échoueront si vous considérez l’IA comme la solution magique que trop de marchands de bonheur promettent. A l’inverse, si vous traitez l’IA comme n’importe quel outil, en tenant compte de ses forces, de ses limites, et des problèmes qu’elle peut traiter, vous aurez une stratégie qui fera la différence entre le succès de votre entreprise et l’échec de celles qui continueront à dépenser des millions dans des projets voués à échouer.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *