Les 5 erreurs des dirigeants qui veulent « mettre de l'IA partout »
Diluer le budget IA sur 12 cas d'usage à la fois est la garantie de ne livrer aucun ROI. Voici comment on priorise — et pourquoi 80 % des projets IA échouent en 2026.
Diluer le budget IA sur 12 cas d'usage à la fois est la garantie de ne livrer aucun ROI. Voici comment on priorise — et pourquoi 80 % des projets IA échouent en 2026.
Depuis 18 mois, je vois la même scène se rejouer dans les bureaux des dirigeants de PME et d'ETI françaises : un comité de direction enthousiasmé par une démo ChatGPT, qui décide en 30 minutes de "lancer un grand chantier IA transverse". Six mois plus tard, ils m'appellent. Quatre cas d'usage attaqués en parallèle, aucun en production, des équipes démotivées, un budget consommé à 60 %, et la conviction grandissante que "l'IA, finalement, c'est pas pour nous".
Le problème n'est jamais l'IA. C'est la méthode.
Voici les 5 erreurs structurelles que je vois revenir, et comment on les corrige.
Le piège classique : on lit un article du Harvard Business Review, on demande à son DAF, sa DRH, son DSI et son directeur commercial d'identifier "leurs cas d'usage IA". Résultat : 18 chantiers en feuille Excel, tous à priorité moyenne, tous lancés en parallèle.
Pourquoi ça ne marche pas : chaque cas d'usage demande un cadrage, une intégration, une formation, un suivi. Multiplier par 18 = aucune profondeur sur aucun. Les projets terminés en pilote ne passent jamais en production.
La correction : choisir un seul chantier prioritaire pour les 12 premières semaines. Critères de sélection : ROI mesurable, périmètre limité (1-2 équipes max), faisabilité technique haute, sponsor identifié. Le reste attend. Vous ne dirigez pas une fanfare — vous tirez un fil.
J'ai vu un comité de direction valider la fin d'un projet IA en se basant sur un sondage interne : "78 % des collaborateurs trouvent l'outil utile". Aucun KPI sur le temps économisé, le taux de conversion, la qualité de sortie. Aucune baseline. Aucun moyen de défendre l'investissement face au CFO.
Pourquoi ça ne marche pas : la satisfaction est un signal faible. Les gens disent qu'ils aiment un outil parce qu'ils sont polis, pas parce qu'il crée de la valeur.
La correction : pour chaque chantier, définir avant le début :
Si vous ne pouvez pas définir ces 4 éléments en 30 minutes, le chantier n'est pas mûr. Reportez-le.
"On a souscrit à ChatGPT Team pour 50 personnes. Maintenant qu'est-ce qu'on en fait ?" — entendu textuellement deux fois ce trimestre.
Pourquoi ça ne marche pas : un outil sans cadre d'usage, sans templates, sans formation = chacun fait ses propres prompts approximatifs, génère du contenu inégal, et finit par retourner à Word + Outlook au bout de 3 semaines. Le coût de licence court, le ROI ne décolle jamais.
La correction : la séquence est toujours méthode → outil → licence, jamais l'inverse :
Une équipe formée sur 3 prompts solides bat une équipe non formée avec accès à GPT-5.
Le jour où une IA enverra un devis avec une erreur de virgule à votre meilleur client, vous comprendrez pourquoi je martèle ce point en cadrage. La promesse "on automatise tout" est commercialement séduisante, opérationnellement désastreuse.
Pourquoi ça ne marche pas : les LLM hallucinent. Pas souvent, mais c'est arrivé sur 100 % des projets que j'ai vus. La vraie question n'est pas "est-ce que ça arrivera ?" mais "que se passe-t-il quand ça arrive ?".
La correction : sur chaque workflow critique (devis, facturation, communication client, décision RH, support technique), prévoir :
L'IA augmente la productivité de l'humain — elle ne remplace pas son jugement sur les décisions critiques.
L'erreur la plus subtile : prendre un processus inefficace, plaquer de l'IA dessus, et constater… qu'on a un processus inefficace plus rapide.
Exemple vécu : un client voulait "automatiser la qualification de leads avec l'IA". Le processus actuel ? Les commerciaux remplissaient un Google Sheet partagé, puis le directeur commercial le retraitait manuellement le lundi. On a passé une semaine à automatiser cette étape, jusqu'à ce qu'un commercial pose la question : "Pourquoi on remplit le Google Sheet, déjà ?". Personne n'avait la réponse. Le process avait été créé en 2019 pour résoudre un problème qui n'existait plus.
Pourquoi ça arrive : automatiser un mauvais processus est plus visible et plus gratifiant que questionner la pertinence du processus lui-même.
La correction : avant chaque chantier IA, 3 questions à se poser :
Souvent, la meilleure automatisation est l'arrêt pur et simple.
L'IA est un amplificateur, pas une stratégie. Les dirigeants qui réussissent leur transformation IA en 2026 ne sont pas ceux qui ont signé avec le plus gros cabinet ou acheté le plus de licences. Ce sont ceux qui ont :
Le reste — le choix entre Claude et GPT-4, les benchmarks MMLU, le débat open-source — est du bruit. Ce qui compte, c'est ce que vous livrez en mois 3.
Si vous reconnaissez votre entreprise dans une de ces 5 erreurs, c'est le bon moment pour faire un point. L'audit Elvarys (30 minutes, gratuit, pas d'engagement) repart toujours avec un livrable concret : 3 cas d'usage priorisés, leur ROI estimé, et un plan de cadrage 12 semaines. Vous ne payez que si vous décidez de continuer avec nous.
30 minutes avec le fondateur, gratuit, sans engagement. Vous repartez avec 3 cas d'usage priorisés et chiffrés.
Cas concrets : opt-out d'entraînement, hébergement souverain, traçabilité des prompts. Ce qu'on documente déjà chez nos clients.
Les classements de modèles changent tous les mois. Pour votre activité, ce n'est pas le score MMLU qui compte — c'est la stack de validation autour.