- Gartner prévoit qu'environ 30 % des projets d'IA générative seront abandonnés après le pilote d'ici la fin de 2025. Les modes d'échec sont constants d'une étude à l'autre.
- Le BCG constate que seulement 26 % des entreprises franchissent l'étape du pilote pour générer de la valeur à grande échelle. Les 74 % restants demeurent dans le « piège de l'expérimentation ».
- Les programmes qui survivent partagent trois traits opérationnels : sélection par les cas d'usage en premier, discipline d'évaluation dès la première semaine, et conception pilotée par les opérateurs.
Le communiqué de Gartner publié en juillet 2024 a officialisé le constat : au moins 30 % des projets d'IA générative seront abandonnés après le pilote d'ici la fin de 2025. Les raisons citées — qualité des données insuffisante, contrôles du risque inadéquats, coûts qui dérapent, valeur d'affaires floue — n'étaient pas des surprises. Ce qui était nouveau, c'était la précision du mode d'échec.
L'étude du BCG d'octobre 2024 est allée plus loin. En sondant des entreprises de plusieurs secteurs, elle a constaté que seulement 26 % ont développé les capacités nécessaires pour aller au-delà des pilotes d'IA et capter de la valeur à grande échelle. Les trois quarts restants sont coincés dans ce que le BCG appelle le « piège de l'expérimentation » : pilotes en boucle, présentations qui s'accumulent, outils en bac à sable, sans aucun changement mesurable dans le travail des opérateurs.
Le patron des programmes qui survivent
D'une étude à l'autre, les survivants partagent trois traits opérationnels.
i. Les cas d'usage sont choisis avant les outils
Les programmes qui réussissent partent d'une friction que l'opérateur peut nommer : classification de factures, examen de contrats, résumé d'appels clients, extraction de données dans des documents non structurés. Le modèle et la plateforme sont choisis après que le cas d'usage est défini. Dans les programmes bloqués, l'ordre est inversé : quelqu'un achète Copilot ou GPT, puis l'équipe se met à chercher des problèmes à résoudre.
ii. L'évaluation est intégrée dès la première semaine
Les déploiements d'IA qui réussissent exécutent des suites de tests automatisés — exactitude, détection d'hallucinations, comportement sur les cas limites — dès la première itération. Le rapport McKinsey 2024 sur l'état de l'IA montre que les organisations qui investissent dans les cadres d'évaluation passent du pilote à la production beaucoup plus souvent que les autres. Sans évaluation, l'IA est de l'espoir. Avec, c'est de l'ingénierie.
iii. Les opérateurs sont dans la boucle de conception
La recherche du BCG est explicite : les initiatives IA conçues conjointement avec les opérateurs dont le travail va changer génèrent significativement plus de valeur que les déploiements descendants. La raison est simple. L'adoption est l'étape limitante. Si l'opérateur ne fait pas confiance à la sortie de l'IA, ou si elle est plus lente que le travail manuel, le déploiement échouera quel que soit le modèle sous-jacent.
Ce que les données ne disent pas
Aucune des recherches publiées ne soutient que l'IA est un mauvais investissement. Au contraire — la mise à jour McKinsey 2024 trouve que 72 % des organisations utilisent maintenant l'IA dans au moins une fonction d'affaires, en hausse depuis 55 % l'année précédente. L'adoption n'est plus la question. La question est de savoir si un programme donné fait partie des 26 % qui captent la valeur ou des 74 % qui n'y arrivent pas.
La méthodologie qui place un programme dans les 26 % n'a rien d'exotique. C'est la même discipline d'opération qui fait réussir les programmes numériques non IA depuis vingt ans : diagnostiquer d'abord, concevoir avec l'opérateur, mesurer par rapport à la base, livrer en production, puis itérer.
SOURCES · Gartner, « Hype Cycle for Generative AI », juillet 2024 · BCG, « Where's the Value in AI? », octobre 2024 · McKinsey, « The State of AI in Early 2024 », mai 2024