L’intelligence artificielle n’est plus un sujet d’innovation. C’est un sujet de gouvernance. Trois cas récents illustrent comment des opportunités IA mal encadrées peuvent se transformer en crises réputationnelles, juridiques ou stratégiques alors qu’elles auraient pu être au contraire des Game Changers
Deloitte : l’IA générative au cœur d’un scandale gouvernemental
L’opportunité est ici de gagner en productivité dans la rédaction d’un rapport pour le gouvernement australien sur une nouvelle politique publique. Le problème est que ce rapport, partiellement rédigé par IA, contenait des erreurs factuelles et des références fictives. Les fonctionnaires du gouvernement s’en sont rendu compte avec les conséquences lourdes : remboursement partiel du contrat, perte de crédibilité, durcissement réglementaire. Les vrais motifs du scandale sont l’absence de règle sur la validation humaine et sur les déclarations d’usage de l’IA. C’est aussi un flou sur la place de la productivité dans la recherche de performance.
Volkswagen : freinages fantômes liés aux systèmes IA embarqués
Dans le cas du constructeur, l’opportunité est l’avantage compétitif qu’apporte l’innovation. Les nouveaux systèmes avancés d’aideà la conduite intègrent des modules d’IA (perception, fusion de capteurs, détection d’obstacles, apprentissage du comportement) pour renforcer la sécurité des passagers. Le problème est venu des centaines de cas de freinages intempestifs liés entre autres à des capteurs mal recalibrés. Lesremontées des clients ont entrainé une enquête nationale et un audit interne a été déclenché. Les causes sont liées à une gouvernance algorithmique insuffisante : l’IA embarquée nécessite une surveillance continue, ce qui la distingue des bugs informatiques classiques. Personne, dans la chaine de gouvernance, n’avait alerté sur le fait suivant : un remplacement de pare-brise ou un accrochage mineur peut perturber le système d’IA
Mediahuis : IA en embuscade et atteinte à la crédibilité éditoriale
Pour Mediahuis, comme pour la plupart des groupes de presse européens, l’IA représente une opportunité très rationnelle d’accroitre la productivité éditoriale, de personnaliser l’information sur ses plateformes et d’expérimenter de nouveaux formats. Le problème est venu de l’intégration de contenus générés par IA dans plusieurs de ses journaux sans mention explicite. Les lecteurs ont découvert l’usage de l’IA par des fuites et non par la transparence du groupe. Résultat : accusations de tromperie, atteinte à la crédibilité éditoriale, sentiment de trahison exprimé par les rédactions. Il s’explique par un manque de challenge de la stratégie IA : la filiale technologique Mediahuis TPS avait obtenu le feu vert de la direction générale pour alimenter l’édition de contenus entrainés par le travail journalistique des 30 rédactions du groupe sans qu’elles soient consultées
Ce que disent ces événements des Conseils :
Les Conseils n’ont pas perçu la manière dont la responsabilité, le risque et la valeur ont évolué dans un monde dominé parl’IA. Historiquement, les conseils d'administration supervisaient la technologie comme une question d’exécution : déléguée, réversible et à portée limitée. L’IA rompt ces trois hypothèses. Le risque s’accumule en dehors de la supervision formelle. L’IA comprime les organisations. L’IA dilate les registres et la portée des risques. Où est le pilote dans cette nouvelle donne, sinon au plus haut niveau ?
L’impératif catégorique du Haut Comité de Gouvernement d’Entreprise
Dans son rapport de décembre 2025, le Haut Comité de Gouvernement d’Entreprise alerte :
“Dans ce contexte de transformation à la fois très rapide et multiforme, les Conseils doivent promouvoir une gouvernance responsable de l’IA structurée et alignée avec la stratégie et les objectifs sociaux et environnementaux.”
Ce message est sans ambiguïté : les administrateurs doivent se saisir du sujet IA. Non pas comme une compétence technique, mais comme un enjeu stratégique, éthique et systémique. Gouverner l’IA, c’est anticiper la valeur créée et les risques, préserver l’humain, et aligner lesusages avec la raison d’être de l’entreprise. C’est savoir poser les bonnes questions.
Conseils : faites un saut Kantien pour reprendre le contrôle !
Pour répondre à ces enjeux, nous avons conçu, Armand Jiptner et Olivier Jochem, expert en gouvernance des Conseils d’administration, une formation de haut niveau que nous coanimons.
Une formation en 4 volets, où les 4 questions de la philosophie d’Emmanuel Kant nous viennent en aide. L’architecture même de la Raison humaine :
1. Comprendre collectivement l’IA au sein du Conseil (que puis-je savoir?)
2. Intégrer l’IA dans les missions de stratégie et de contrôle du Conseil (que dois-jefaire ?)
3. Proposer une gouvernance “augmentée” du Conseil en matière d’IA (que m'est-il permis d'espérer ?)
4. Préserver l’humain dans les décisions IA, en cohérence avec la Loi Pacte et l’IA Act (qu'est-ce que l'Homme?)
Ce que vous y gagnez :
· Une approche globale : du fonctionnement des systèmes d’IA aux enjeux de gouvernance etde stratégie
· Une personnalisation à votre organisation : vision stratégique IA, gouvernance, risques etopportunités
· Des séquences actives : cas pratiques, simulations de comités, exercices dequestionnement stratégique
L’IA transforme la donne. Il est temps que les Conseils s’en saisissent avec lucidité, méthode… et ambition


