Le 23 septembre 2025, sur la scène Bang de Big 2025, Jacques Pommeraud, président‑directeur général du groupe Inetum, a pris la parole sur un thème aussi simple qu’explosif : la vérité face à l’intelligence artificielle. Loin de l’enthousiasme naïf comme des discours anxiogènes, son intervention a posé une question centrale pour toutes les organisations : comment continuer à faire confiance à l’IA tout en prenant au sérieux ses limites, ses biais et ses dérives possibles ?
En pointant trois grands risques –biais algorithmiques, hallucinations génératives et détournements malveillants– il a insisté sur l’urgence de repenser la manière dont les entreprises conçoivent, évaluent et gouvernent leurs systèmes d'intelligence artificielle. Son message : l’IA peut être un formidable levier de performance, à condition d’être utilisée avec lucidité, transparence et responsabilité.
Ce billet propose de revenir sur les enseignements clés de cette intervention et de les traduire en pistes concrètes pour les dirigeant·e·s, DSI, CDO et équipes métiers qui souhaitent tirer le meilleur de l’IA, sans sacrifier la fiabilité ni la confiance.
Pourquoi parler de « vérité » à l’ère de l’IA générative ?
Les systèmes d’IA – en particulier l’IA générative – produisent des textes, des images, des décisions et des recommandations avec une fluidité impressionnante. Cette fluidité donne une illusion de vérité : ce qui est bien rédigé, bien présenté, semble spontanément fiable.
Or, comme l’a rappelé Jacques Pommeraud, l’IA ne « sait » rien au sens humain du terme. Elle calcule des probabilités, elle corrèle, elle extrapole, mais elle ne distingue pas spontanément le vrai du faux, le juste de l’injuste, le légal de l’illégal.
C’est précisément pour cela que la notion de vérité redevient stratégique :
- Pour les entreprises, la vérité se traduit par la qualité des données, la robustesse des modèles, mais aussi la sincérité des promesses faites aux clients, aux employés, aux partenaires et aux régulateurs.
- Pour les décideurs, elle implique une capacité à questionner les résultats de l’IA plutôt qu’à les entériner par défaut.
- Pour la société, elle conditionne la confiance accordée aux technologies, aux marques et aux institutions.
Autrement dit, la question de la vérité n’est pas philosophique seulement : c’est une question de performance, de réputation et de conformité.
Les trois grands risques soulignés : biais, hallucinations, détournements
Pendant son intervention, Jacques Pommeraud a posé le décor en rappelant trois familles de risques que les organisations ne peuvent plus se permettre d’ignorer.
1. Les biais algorithmiques : quand le passé se fige dans les modèles
Les modèles d’IA apprennent à partir de données historiques. Si ces données sont déséquilibrées, incomplètes ou porteuses de discriminations (genre, origine, âge, territoire, etc.), l’IA va reproduire et amplifier ces biais.
Pour une entreprise, cela peut se traduire par :
- des recommandations commerciales biaisées qui excluent certains segments de clientèle ;
- des modèles de scoring qui défavorisent systématiquement certains profils ;
- des algorithmes RH qui filtrent des candidatures de manière discriminatoire.
Au‑delà du risque d’image ou de conformité, le biais est aussi un risque business: il fausse la lecture des marchés, limite l’accès à certains talents et dégrade la qualité des décisions.
2. Les hallucinations génératives : quand l’IA « invente » avec assurance
Les systèmes d’IA générative sont capables de produire des réponses parfaitement structurées… mais parfois totalement inexactes. On parle alors d’hallucinations: l’IA « comble les vides » en générant des contenus plausibles, mais faux, ou en mélangeant des informations réelles et erronées.
Dans un contexte professionnel, ces hallucinations peuvent :
- introduire des erreurs dans des analyses financières, techniques ou juridiques ;
- alimenter des documents internes ou externes contenant des contre‑vérités ;
- induire en erreur des collaborateurs qui ne remettent pas en cause la sortie de l’outil.
Le danger majeur : la forme convaincante du résultat masque son manque de fiabilité. D’où l’importance d’une posture sceptique, au cœur du message de Jacques Pommeraud.
3. Les détournements malveillants : quand l’IA devient un outil d’attaque
Enfin, l’IA peut être utilisée à des fins malveillantes : génération de contenus frauduleux, facilitation du phishing, automatisation de tentatives d’intrusion, création de faux profils, manipulation de l’information, etc.
Pour une entreprise, cela se traduit par :
- une surface d’attaque élargie (par exemple via des assistants connectés à des systèmes internes) ;
- de nouveaux vecteurs de fraude, difficiles à détecter à l’œil nu ;
- un risque de désinformation autour de la marque, de ses produits ou de ses dirigeants.
Face à ces enjeux, la gouvernance de l’IA ne peut plus se limiter à la performance technique.Elle doit intégrer la cybersécurité, la protection des données et la gestion de la réputation.
Réhabiliter le « je ne sais pas » : une posture sceptique et transparente
Au cœur de l’intervention de Jacques Pommeraud se trouve une idée forte : accepter que l’IA – et même les experts – puissent dire « je ne sais pas ».
Pourquoi est‑ce si important ? Parce que, dans beaucoup d’entreprises, la pression pour aller vite et pour répondre à tout crée un biais culturel : mieux vaut une réponse approximative que pas de réponse du tout. Avec l’IA générative, ce réflexe est amplifié : l’outil répond toujours, même quand il n’a aucune base solide.
Réhabiliter le « je ne sais pas », c’est :
- autoriser les systèmes d’IA à remonter une absence de réponse ou un degré d’incertitude lorsque les données sont insuffisantes ou contradictoires ;
- encourager les équipes à questionner les résultats, à demander des preuves, à confronter l’IA à d’autres sources ;
- institutionnaliser le doute méthodique comme un réflexe de qualité, non comme un frein à l’innovation.
Cette posture sceptique ne ralentit pas l’entreprise ; au contraire, elle évite des décisions coûteuses basées sur des informations erronées et renforce la crédibilité des cas d’usage IA qui passent l’épreuve de la vérification.
Ancrer la technologie dans des valeurs explicites
Autre point clé souligné par Jacques Pommeraud : les choix techniques ne sont jamais neutres. Choisir un modèle, un jeu de données, un cas d’usage prioritaire ou un mode de déploiement, c’est déjà exprimer des valeurs – parfois sans les nommer.
Pour reprendre le contrôle, il est essentiel de :
- formuler clairement les valeurs de l’organisation en matière d’éthique, d’inclusion, de respect de la vie privée, de transparence ;
- traduire ces valeurs en critères opérationnels pour les projets IA : quels risques sont acceptables, lesquels ne le sont pas, quelles populations doivent être protégées en priorité, quels usages sont proscrits ;
- associer les parties prenantes (métiers, juridique, RH, sécurité, représentants des collaborateurs, parfois clients et partenaires) à cette réflexion.
Aligner l’innovation algorithmique sur des valeurs explicites n’est pas un luxe.C’est ce qui permet de construire des solutions IA utiles, acceptées et durables– plutôt que des expérimentations brillantes mais impossibles à déployer à grande échelle.
Quatre piliers concrets pour mieux gouverner l’IA
L’intervention de Jacques Pommeraud plaide pour une gouvernance exigeante de l’IA, mais résolument tournée vers l’action. Voici quatre piliers concrets qui synthétisent cet esprit et que toute organisation peut adapter à sa réalité.
Pilier 1 : validation systématique des sources et hygiène de la donnée
Sans données de qualité, pas d’IA fiable. Cela suppose de :
- cartographier les sources de données utilisées par les systèmes d’IA (internes, partenaires, données publiques, contenus générés) ;
- documenter l’origine et les limites de chaque source : période couverte, biais éventuels, degré de mise à jour ;
- mettre en place des règles de validation des informations critiques (données réglementaires, données de santé, données financières, etc.) avant qu’elles ne soient utilisées pour l’entraînement ou l’inférence ;
- prévoir des mécanismes de correction rapide en cas de données erronées détectées a posteriori.
Cette hygiène de la donnée réduit les biais, limite les hallucinations et augmente la valeur business des modèles en les ancrant dans une réalité robuste.
Pilier 2 : audits réguliers des modèles et de leurs usages
Un modèle IA qui n’est jamais audité devient une boîte noire. Pour reprendre la main, il est utile de :
- programmer des audits périodiques des modèles critiques (décisionnels, prédictifs ou génératifs) : qualité des résultats, dérives, nouveaux biais apparus dans le temps ;
- analyser les usages réels (et pas seulement les cas d’usage prévus) : détournements, contournements, surdépendance des équipes à certains outils ;
- tester les modèles sur des scénarios sensibles: populations vulnérables, cas limites, situations rares mais à fort impact ;
- impliquer des profils pluridisciplinaires dans les audits : data scientists, métiers, conformité, cybersécurité, représentants des utilisateurs.
Résultat : une IA plus maîtrisée, plus explicable, donc plus facilement défendable auprès des clients, des régulateurs et des collaborateurs.
Pilier 3 : formation des équipes et culture de la responsabilité
La fiabilité de l’IA ne repose pas uniquement sur les algorithmes. Elle dépend tout autant de la manière dont les humains les utilisent. D’où l’importance de :
- former largement les équipes aux forces et limites de l’IA (biais, hallucinations, bonnes pratiques de vérification, sécurité des données) ;
- développer une culture du contrôle humain: la décision finale, surtout lorsqu’elle a un impact fort (client, santé, carrière, finance), doit rester assumée par une personne identifiée ;
- valoriser les comportements responsables: signalement d’anomalies, refus de s’en remettre aveuglément à une recommandation IA, remontée de cas d’usage à risque ;
- intégrer l’IA dans les parcours de formation managériale, pour que les responsables d’équipe sachent encadrer ces nouveaux outils.
Une organisation qui investit dans ces compétences ne se contente pas de limiter les risques : elle libère le plein potentiel de l’IA en donnant aux équipes confiance et discernement.
Pilier 4 : politiques claires de responsabilité et de supervision humaine
Enfin, pour restaurer la confiance, Jacques Pommeraud insiste sur la nécessité de politiques explicites de responsabilité. Concrètement, cela signifie :
- définir qui est responsable de quoi dans la chaîne IA : conception, données, déploiement, supervision, réponse en cas d’incident ;
- documenter les cas d’usage autorisés, limités ou interdits au sein de l’organisation ;
- prévoir des procédures d’escalade en cas de doute sur un résultat ou sur un comportement du système ;
- maintenir un droit de regard humain sur les décisions les plus sensibles, avec un pouvoir de validation, de correction ou de veto.
Ces politiques ne sont pas là pour freiner l’innovation, mais pour offrir un cadre clair qui sécurise les équipes, les clients et les partenaires. Dans ce cadre, l’IA devient un allié fiable plutôt qu’une boîte noire intimidante.
Visualiser les enjeux : risques IA et réponses recommandées
Pour synthétiser cette approche, il est utile de mettre en regard les principaux risques et les réponses de gouvernance correspondantes.
| Risque IA | Conséquence potentielle | Réponse recommandée |
|---|---|---|
| Biais algorithmiques | Décisions injustes, discrimination, perte d’opportunités business | Hygiène de la donnée, audits d’équité, définition de valeurs et de garde‑fous |
| Hallucinations génératives | Erreurs factuelles, décisions erronées, perte de confiance | Validation des sources, formation des utilisateurs, acceptation du « je ne sais pas » |
| Détournements malveillants | Fraudes, cyberattaques, atteintes à la réputation | Politiques d’usage, contrôle d’accès, supervision humaine et cybersécurité renforcée |
Transformer ces principes en avantage compétitif
La force du message porté sur la scène Bang à Big 2025 est qu’il ne se limite pas à un discours de prudence. En réalité, les organisations qui intègrent tôt ces bonnes pratiques prennent une longueur d’avance.
Concrètement, une entreprise qui adopte une gouvernance exigeante de l’IA peut :
- accélérer ses déploiements, car chaque nouveau cas d’usage s’inscrit dans un cadre clair déjà validé ;
- mieux convaincre ses clients avec un discours transparent sur la manière dont l’IA est utilisée et contrôlée ;
- renforcer l’engagement des collaborateurs, en leur proposant des outils puissants mais encadrés, et en reconnaissant leur rôle central dans la supervision ;
- réduire les incidents (erreurs, controverses, atteintes à la réputation) tout en augmentant la valeur tirée des projets IA ;
- anticiper les exigences réglementaires plutôt que de les subir, en alignant dès maintenant pratiques internes et attentes des autorités.
Dans cette perspective, la vérité n’est pas une contrainte morale, mais un levier de compétitivité durable. Les entreprises qui en font un pilier de leur stratégie IA deviennent plus résilientes, plus crédibles et plus attractives.
Feuille de route 90 jours : par où commencer pour mieux gouverner l’IA ?
Vous souhaitez traduire en action les enseignements de l’intervention de Jacques Pommeraud ? Voici une proposition de feuille de route sur trois mois, à adapter à la taille et à la maturité de votre organisation.
Jours 1 à 30 : clarifier le cadre
- Faire l’état des lieux des cas d’usage IA existants (ou en projet) dans l’entreprise : outils, données, utilisateurs, impacts ;
- Identifier les zones de risque: décisions à fort impact, données sensibles, dépendance à des fournisseurs externes ;
- Rassembler un petit groupe de travail pluridisciplinaire (métiers, IT, data, juridique, RH, cybersécurité) ;
- Poser les premières valeurs et principes directeurs: transparence, équité, supervision humaine, sécurité, droit au doute.
Jours 31 à 60 : structurer la gouvernance
- Rédiger des lignes directrices IA simples et actionnables pour les équipes (ce qui est encouragé, ce qui est encadré, ce qui est proscrit) ;
- Définir les rôles et responsabilités: qui valide un nouveau cas d’usage, qui suit les incidents, qui peut autoriser un déploiement à l’échelle ;
- Lancer un premier audit ciblé sur un projet IA prioritaire pour identifier rapidement des améliorations possibles ;
- Préparer un plan de formation adapté à chaque population (dirigeants, managers, utilisateurs, experts techniques).
Jours 61 à 90 : déployer et améliorer en continu
- Mettre en œuvre des garde‑fous concrets: messages d’alerte en cas de contenu non vérifié, workflows de validation, journalisation des interactions IA ;
- Lancer les premières sessions de formation avec des exemples concrets de biais, d’hallucinations et de bonnes pratiques ;
- Instaurer une boucle de retour d’expérience: collecte des retours utilisateurs, revue régulière des incidents, partage des bonnes pratiques ;
- Communiquer en interne sur la démarche : objectifs, bénéfices, premières réussites, prochaines étapes.
En trois mois, sans tout révolutionner, une organisation peut ainsi poser les bases d’une gouvernance de l’IA plus lucide, plus responsable et plus créatrice de valeur.
Conclusion : une IA plus vraie, pour une innovation plus utile
À Big 2025, sur la scène Bang, l’intervention de Jacques Pommeraud a mis des mots clairs sur un enjeu que beaucoup pressentent sans toujours l’adresser : nous entrons dans une ère où l’IA répond à tout, mais où la rareté se déplace vers ce qui est réellement fiable, explicable et aligné sur nos valeurs.
Adopter une posture sceptique, réhabiliter le « je ne sais pas », exiger la transparence, ancrer les choix techniques dans des valeurs explicites, mettre en place des pratiques rigoureuses de validation, d’audit, de formation et de responsabilité : autant de leviers qui ne brident pas l’innovation, mais l’élèvent.
Les entreprises qui font ce choix transforment l’IA en un atout stratégique durable :
- plus de performance, car les décisions sont mieux informées ;
- plus de confiance, car les usages sont maîtrisés et assumés ;
- plus de sens, car l’innovation reste au service de l’humain et des objectifs de l’organisation.
En définitive, parler de vérité à propos de l’IA, comme l’a fait Jacques Pommeraud, ce n’est pas opposer technologie et éthique. C’est au contraire reconnaître que la puissance des algorithmes prend toute sa valeur lorsqu’elle est guidée par la lucidité, la transparence et la responsabilité. C’est cette combinaison qui permettra aux entreprises de faire de l’IA un moteur de progrès réel – pour leur activité, pour leurs équipes et pour la société.
