Stéphane Tonnelier
Vigilance IA

Sortir des 70 % d'échec ne dépend pas de la technologie — ça dépend des garde-fous qu'on pose avant.

80 % des projets IA échouent (RAND 2024). 60 % n'ont généré aucune valeur matérielle fin 2025 (BCG). 80 % des entreprises ne voient aucun impact sur leur bottom line malgré les millions investis (McKinsey 2024). La cause n'est presque jamais technique. Elle est dans le pilotage, la gouvernance, la supervision métier et la culture de sortie. Voici les garde-fous que je mets en place systématiquement.

5 erreurs qui tuent la majorité des projets

Pas des risques techniques. Des erreurs de pilotage et de gouvernance.

Chaque erreur ci-dessous est documentée par des cas réels (Zillow, NYC MyCity, etc.) et vérifiée sur le terrain. Chaque erreur a un remède court et applicable.

1

Aucun membre du CODIR n'utilise au quotidien l'IA (ou au moins un LLM en mode chat)

Un dirigeant qui n'a jamais vu un modèle halluciner, refuser de répondre ou produire un résultat désastreux ne peut pas arbitrer sérieusement quand son programme dérape.

Remède

CODIR qui utilise 2 outils IA en parallèle, 15 min / jour, 2 semaines, avec journal de bord et confrontation collective semaine 2.

2

Le cas d'usage est choisi avant l'audit data

90 % des projets IA découvrent 3-6 mois après le lancement que les données sont fragmentées, incomplètes ou non conformes. « Les limites du modèle sont les limites des données qui l'alimentent. »

Remède

Audit data formel en 10 jours avec 5 points d'inspection par source : inventaire, accessibilité, qualité, conformité DPO, plan B.

3

Aucun superviseur métier ne relit les sorties quotidiennement

Un système IA en production ressemble plus à un employé junior qu'à un logiciel classique. Sans relecture quotidienne, les hallucinations et dérives s'accumulent invisiblement. Zillow Offers a perdu 881 M$ pour cette raison.

Remède

Un superviseur métier nommé (pas un rôle), 15-30 min / jour, journal écrit 3 lignes, pouvoir d'arrêter le projet.

4

La DSI pilote le projet sans sponsor métier engagé

La valeur d'un outil IA n'est pas dans l'outil, elle est dans le changement de processus qu'il impose. Sans directeur métier qui signe un engagement d'usage, le projet est livré techniquement impeccable mais reste 95 % non utilisé.

Remède

Contrat d'engagement sponsor métier signé en 1 page : usage + refonte process + KPI + droit de sortie à 3 mois + copie CODIR.

5

Aucun plan de sortie écrit avant le lancement

Sans un document qui précise « si indicateur X < seuil Y pendant Z semaines, on décide A/B/C », les équipes masquent les signaux faibles par peur de remonter les dégradations. NYC MyCity a conseillé illégalement ses utilisateurs pendant des mois avant qu'on n'arrête le chatbot.

Remède

Plan de sortie écrit 1 page avant le lancement. Conditions d'arrêt, décisions alternatives, responsable désigné, revue mensuelle.

Shadow AI — le problème qu'aucune interdiction ne résout

58 % des dirigeants français considèrent l'IA comme un enjeu de survie (Bpifrance 2025), mais seulement 43 % ont une stratégie IA formellement écrite. L'écart de 15 points, c'est exactement la zone où prolifèrent le Shadow AI, ses fuites PII et ses non-conformités RGPD / AI Act.

Remède

Fournir un cadre officiel meilleur que le Shadow IT : outils mis à disposition, prompts validés, règles d'usage documentées, sponsor métier responsable du périmètre. Une interdiction pure pousse juste le problème sous le tapis.

AI Act & RGPD

Conformité pensée dès le cadrage — jamais en rattrapage après coup.

L'AI Act est entré en application. Certains usages sont interdits depuis février 2025. D'autres deviennent haut risque selon les arrêtés. Prévoir le budget conformité et l'audit de biais dès le cadrage évite les mauvaises surprises coûteuses.

Classification du risque dès le cadrage

Faible, limité, élevé ou inacceptable. Le classement décide du niveau d'audit, de documentation, de supervision. À faire AVANT le premier POC — pas en rétro-conformité après coup.

RGPD + AI Act intégrés au P&L

Certains use cases basculent du risque limité au risque élevé selon les arrêtés d'application. Prévoir un buffer 10-15 % sur le P&L pour couvrir les mises en conformité tardives.

Audits de biais obligatoires sur haut risque

RH, crédit, santé, justice, éducation — l'AI Act impose des audits de biais documentés. À anticiper dans les contrats avec les équipes responsables (recrutement, scoring, relations clients).

Usages interdits depuis février 2025

Reconnaissance d'émotions au travail / école, notation sociale, manipulation subliminale, identification biométrique temps réel. Jamais livrés, jamais même en POC.

Sécurité IA — en collaboration avec la DSI

Je ne remplace pas votre DSI. Je travaille avec elle.

La sécurité IT de votre entreprise, c'est la DSI qui la tient. Mon rôle sur un programme IA : appliquer les best practices IA qui complètent la posture sécurité existante, en amont du déploiement et en continu — pour protéger vos données, éviter les fuites, et garder la main sur ce que font les modèles.

Protection des données sensibles

Je définis avec votre DSI et vos équipes sécurité ce qui peut entrer dans un prompt, ce qui ne peut pas, et comment classer les données. Règles d'usage claires, formations courtes, outils validés côté entreprise.

Prévention des fuites

Je pose les garde-fous pour éviter que des données confidentielles sortent vers des modèles publics : sandbox interne, anonymisation des prompts, règles par métier, revue périodique avec la DSI.

Fiabilité et quality gate métier

Je mets en place avec les équipes métier une relecture des sorties sensibles avant publication. Fallback d'un modèle à l'autre en cas de défaillance, remontée rapide des anomalies, arrêt programmé si la qualité se dégrade.

Traçabilité des décisions automatisées

Journalisation de ce que fait l'IA, qui l'a déclenché, avec quelle version du modèle. Revue trimestrielle avec la DSI et l'AI Act Officer pour renforcer la posture et corriger les dérives.

Workflow IA vs Agent IA

Dans 9 cas sur 10, un workflow bien conçu bat un agent autonome.

La hype pousse à « déployer un agent IA » avant d'avoir posé les bases. En pratique, la grande majorité des automatisations en entreprise se traitent mieux avec un workflow déterministe — plus rapide à livrer, plus prévisible, plus facile à piloter.

Workflow IA — 90 % des cas d'entreprise

Scénario défini à l'avance, une ou plusieurs étapes IA au milieu. Logique hybride : règles déterministes + probabiliste ciblé. Adapté à la quasi-totalité des automatisations métier (support, ventes, back-office, contenu).

  • Livrable en semaines, pas en mois
  • Pilotable par les équipes métier
  • ROI mesurable dès le premier sprint

Agent IA — 10 % des cas, après maturité

Système autonome qui décide des actions, outils et itérations. Puissant mais beaucoup moins déterministe — donc plus risqué en production. À réserver aux cas où la variabilité justifie le risque, et jamais comme point d'entrée d'un programme IA.

  • Gouvernance dédiée obligatoire (voir ci-dessous)
  • Rollback et plan de continuité exigés
  • Jamais en écriture directe dès le départ

Gouvernance des agents autonomes

Règle « assist → act » — jamais l'écriture en un seul saut.

Les agents IA qui écrivent dans les systèmes source (envoi emails client, création devis, modification CRM, transaction financière) sont la prochaine génération d'incidents graves. Je les traite comme des mises en production sensibles, avec jalons et rollback.

Assist avant act

Tout agent commence en mode assist : lecture seule, il suggère mais n'écrit rien. Ouverture des écritures (email client, devis, CRM) autorisée seulement après 30 jours en assist avec taux d'erreur détectée < 2 %.

Sobre, observable, réversible

Scope borné à un workflow précis. Logs structurés, métriques, journal des décisions. Rollback < 5 min, snapshots avant action, plan de continuité sans agent. Les trois contraintes sont imposées à tout agent en production.

Passage assist → act = jalon de risque

Pas une évolution technique — une décision formelle du CODIR avec seuil de qualité démontré sur historique et mécanisme de rollback vérifié. Toujours deux préalables non négociables.

Un programme IA qui stagne, ou un lancement en 2026 ? Parlons-en.

Un premier échange de 20-30 minutes pour comprendre votre contexte, répondre à vos questions, et voir ensemble si un vrai cadrage (audit data, interviews, engagement COMEX) a du sens. Ni démo commerciale, ni diagnostic bouclé en 20-30 minutes — juste de quoi décider si on creuse ou pas.

Disponible immédiatement · TJM à partir de 1 000 EUR HT

Mission cadrée

Cadrage, POC ciblé, choix de stack, pilote 90 jours.

Direction de programme

Mission au forfait jour / TJM, 3 à 6 mois embedded.

Conseil ponctuel

Demi-journée ou journée — second regard, audit, dé-risque.