À Big 2025, sur la scène emblématique du Bang, Jacques Pommeraud, président-directeur général du groupe Inetum, est intervenu autour du thème « Vérité » appliqué à l’intelligence artificielle. Selon le résumé officiel de la session, il a mis en lumière trois risques majeurs de l’IA —biais algorithmiques, hallucinations et usages malveillants— tout en appelant à une posture sceptique et responsabilisante dans les organisations.
Au-delà de la conférence, ces messages sont précieux pour toutes les entreprises qui déploient aujourd’hui des solutions d’IA générative ou prédictive. Ils offrent un cadre simple pour aborder la gouvernance, l’éthique, la sécurité et la vérification des sources dans vos propres projets.
Ce guide propose de traduire ces recommandations en leviers concrets, actionnables et porteurs de valeur pour votre organisation.
1. Pourquoi parler de « vérité » quand on parle d’IA ?
Les systèmes d’IA modernes, en particulier les modèles génératifs, excellent à produire des textes, des images ou des réponses plausibles. Mais le caractère plausible d’une sortie ne garantit en rien sa vérité.
Cette tension est au cœur de la réflexion proposée à Big 2025 : dans un monde où l’IA peut produire en quelques secondes des contenus convaincants, la responsabilité des organisations est de ne pas confondre vraisemblance et réalité.
Concrètement, cela signifie :
- Accepter que l’IA puisse se tromper, parfois de façon spectaculaire.
- Refuser l’automatisme qui consisterait à faire confiance « par défaut » à une réponse bien formulée.
- Remettre au centre le rôle humain de contrôle, de jugement et d’arbitrage.
Parler de vérité, c’est donc rappeler que l’IA n’est pas un oracle, mais un instrument puissant qui doit rester piloté, cadré et vérifié.
2. Trois grands risques contemporains de l’IA
Le résumé de l’intervention de Jacques Pommeraud met en avant trois familles de risques, aujourd’hui au cœur des préoccupations des dirigeants comme des experts.
2.1. Les biais algorithmiques
Un biais algorithmique survient lorsque les résultats d’un modèle d’IA favorisent systématiquement certains profils, comportements ou décisions, de manière injustifiée ou discriminatoire.
Ces biais peuvent provenir :
- Des données d’entraînement, qui reflètent des inégalités ou des déséquilibres existants.
- De la façon dont les variables sont sélectionnées et pondérées.
- Des objectifs d’optimisation choisis (par exemple, maximiser un taux de clics plutôt que la qualité de l’information).
Pour une organisation, les conséquences peuvent être lourdes :
- Décisions perçues comme injustes (recrutement, scoring, tarification, accès à un service).
- Atteinte à l’image de marque et perte de confiance des clients, partenaires ou collaborateurs.
- Risques juridiques et réglementaires croissants autour de la non-discrimination et de la transparence.
La bonne nouvelle est qu’une démarche structurée de contrôle des biais peut devenir un avantage compétitif: vous démontrez votre sérieux, votre sens de l’équité et votre capacité à maîtriser vos technologies.
2.2. Les hallucinations des modèles d’IA
Les « hallucinations » désignent les réponses fausses, inventées ou non sourcées produites par un modèle, parfois avec une grande assurance. Les systèmes d’IA générative peuvent ainsi :
- Citer des références inexistantes.
- Inventer des chiffres ou des faits.
- Attribuer des propos à la mauvaise personne ou déformer une information.
Sans garde-fous, ces hallucinations peuvent entraîner :
- La diffusion d’informations erronées en interne ou auprès de vos clients.
- Des décisions pilotées par de « faux » indicateurs.
- Des contenus marketing ou des documents métiers inexacts, voire diffamatoires.
La vigilance face aux hallucinations ne doit pas vous faire renoncer à l’IA, mais vous encourager à mettre en place des processus systématiques de vérification.
2.3. Les usages malveillants de l’IA
L’IA peut aussi être utilisée à des fins intentionnellement nuisibles :
- Génération de contenus frauduleux ou trompeurs (phishing, faux documents, deepfakes).
- Automatisation et amplification de cyberattaques.
- Manipulation de l’opinion via des campagnes massives de désinformation.
Pour les organisations, l’enjeu est double :
- Se protéger contre ces attaques visant leurs collaborateurs, leurs systèmes ou leur réputation.
- Encadrer strictement leurs propres usages de l’IA pour éviter toute dérive, même involontaire.
Là encore, l’angle proposé à Big 2025 consiste à conjuguer vigilance et responsabilité, plutôt que peur ou rejet.
3. Adopter une posture sceptique : un réflexe gagnant
Au cœur du message de Jacques Pommeraud figure l’idée d’une posture sceptique: ne pas prendre pour argent comptant ce que produit un système d’IA, même lorsqu’il semble sûr de lui.
Concrètement, cela peut se traduire par de nouveaux réflexes dans vos équipes :
- Questionner systématiquement la provenance des informations générées.
- Vérifier les sources dès que l’on utilise un contenu d’IA pour communiquer, décider ou publier.
- Comparer les résultats de l’IA avec des données internes fiables, des bases de référence ou des avis d’experts.
- Documenter les cas où l’IA s’est trompée, afin d’améliorer les prompts, les paramètres ou les garde-fous.
Loin de ralentir vos projets, cette posture devient un accélérateur de performance :
- Vous réduisez le risque d’erreurs coûteuses ou de crises réputationnelles.
- Vous augmentez la qualité globale des livrables produits avec l’IA.
- Vous développez une culture interne de discernement technologique, précieuse pour tous vos futurs projets numériques.
4. Réhabiliter le « je ne sais pas » : un levier de performance collective
L’un des points forts de l’intervention, tel que souligné dans le résumé officiel, est l’appel à réhabiliter le « je ne sais pas ». Cette idée va à contre-courant d’une culture d’entreprise parfois obsédée par la réponse immédiate, la certitude et la rapidité.
Dans un environnement où l’IA peut générer instantanément des réponses, la tentation est grande de confondre vitesse et justesse. Or savoir dire « je ne sais pas » est stratégique à plusieurs titres :
- Prévenir les décisions hâtives fondées sur des informations non vérifiées.
- Encourager la curiosité et la recherche de sources complémentaires, humaines ou documentaires.
- Désamorcer la pression à tout automatiser et maintenir un espace de jugement humain.
Pour une organisation, cela peut se traduire par :
- Des formations qui valorisent le doute raisonnable et la remontée de signaux faibles.
- Des processus de validation qui autorisent un temps d’investigation avant engagement.
- Une communication managériale qui normalise le fait de suspendre son jugement en attendant des vérifications.
Réhabiliter le « je ne sais pas », c’est en réalité professionnaliser l’usage de l’IA: on ne renonce pas à la technologie, on l’intègre dans un cycle décisionnel plus robuste.
5. Ancrer l’IA dans des valeurs explicites
Le résumé de la session insiste également sur la nécessité de se baser sur ses propres valeurs. C’est un point essentiel pour passer d’un usage opportuniste de l’IA à une stratégie durable et digne de confiance.
Concrètement, ancrer l’IA dans des valeurs explicites signifie :
- Définir clairement les principes qui guideront vos choix (respect des personnes, équité, transparence, sobriété, etc.).
- Les traduire en règles opérationnelles: quels types de données utiliser ou non, quels cas d’usage accepter, quels scénarios refuser.
- Les rendre visibles pour vos équipes, vos clients et vos partenaires.
Quelques exemples de décisions inspirées par les valeurs :
- Refuser l’utilisation de données sensibles pour certains profils de clients, même si cela pourrait améliorer un score prédictif.
- Exiger une relecture humaine de tout contenu sensible généré par IA (juridique, médical, RH, information financière).
- Communiquer de manière transparente lorsque vous utilisez l’IA dans une interaction avec un utilisateur.
Plus vos valeurs sont explicites, plus il est simple de construire des règles de gouvernance et des processus d’audit cohérents.
6. De la vigilance à l’action : 6 chantiers prioritaires pour une IA responsable
À partir des axes mis en avant à Big 2025 — risques, scepticisme constructif, valeur du « je ne sais pas », ancrage dans les valeurs — il est possible de dégager six chantiers prioritaires pour toute organisation qui souhaite déployer l’IA de façon responsable et performante.
6.1. Structurer une gouvernance de l’IA
La gouvernance est le socle. Elle permet de passer d’initiatives dispersées à une stratégie cohérente.
- Identifier un référent IA ou un comité dédié, qui coordonne les projets et arbitre les cas sensibles.
- Cartographier les cas d’usage existants et envisagés dans l’organisation.
- Définir des règles de validation pour tout nouveau projet (données utilisées, risques, bénéfices attendus, plan de contrôle).
6.2. Renforcer la sécurité et la protection des données
Les projets d’IA manipulent souvent des données stratégiques. La sécurité ne peut pas être un sujet secondaire.
- Limiter l’exposition de données sensibles dans les outils d’IA, en particulier lorsqu’ils sont externes.
- Mettre en place des politiques d’accès claires : qui peut utiliser quoi, dans quel cadre.
- Auditer régulièrement les flux de données liés à vos projets IA.
Une IA bien sécurisée contribue à renforcer la confiance globale dans vos systèmes d’information et votre marque.
6.3. Institutionnaliser la vérification des sources
Pour répondre au risque d’hallucinations et à la question de la vérité, la vérification des sources doit devenir un réflexe institutionnalisé.
- Exiger que chaque contenu important généré par IA soit relaté à des sources vérifiables (données internes, publications reconnues, textes réglementaires, etc.).
- Encourager les équipes à citer clairement les références utilisées, même en interne.
- Formaliser une étape de relecture humaine pour les documents à risque (clients, régulateurs, médias, partenaires).
6.4. Former les équipes à un usage critique de l’IA
La meilleure gouvernance du monde restera théorique si les équipes ne sont pas à l’aise avec les outils et les enjeux.
- Proposer des formations pratiques pour comprendre ce que l’IA sait faire, ne sait pas faire et comment elle peut se tromper.
- Inclure des modules sur les biais, les hallucinations et les usages malveillants dans vos parcours de sensibilisation.
- Partager régulièrement des retours d’expérience internes: succès, erreurs, bonnes pratiques.
Des collaborateurs formés deviennent vos meilleurs alliés pour détecter les dérives et identifier de nouveaux cas d’usage vertueux.
6.5. Mettre en place des indicateurs et des audits réguliers
Une IA responsable se pilote dans la durée. Il est utile de suivre quelques indicateurs simples :
- Taux d’erreurs identifiées dans les contenus générés par IA.
- Nombre de cas de biais détectés et corrigés.
- Temps gagné grâce à l’IA sur certains processus, mis en regard de la qualité obtenue.
Des audits périodiques permettent de vérifier l’alignement entre vos valeurs, vos règles de gouvernance et la réalité des pratiques.
6.6. Communiquer de façon transparente
Enfin, la transparence est un puissant moteur de confiance :
- Informer vos collaborateurs lorsque certains outils internes intègrent de l’IA.
- Expliciter à vos clients, quand c’est pertinent, l’usage fait de l’IA dans vos services.
- Mettre en avant vos engagements (contrôle humain, respect des données, lutte contre les biais) comme un argument différenciant.
7. Une checklist pratique pour vos projets IA
Pour passer à l’action, vous pouvez utiliser une checklist inspirée des messages clés de l’intervention de Jacques Pommeraud.
Avant de lancer un projet IA
- Avons-nous clairement défini l’objectif métier et les bénéfices attendus ?
- Quelles données seront utilisées ? Sont-elles pertinentes, de qualité et légalement exploitables ?
- Quels sont les risques potentiels (biais, erreurs, atteintes à la vie privée, usage malveillant) ?
- Comment ce projet s’aligne-t-il avec nos valeurs explicites?
Pendant le développement et les tests
- Testons-nous le modèle sur des cas limites et des scénarios sensibles ?
- Avons-nous prévu une relecture humaine pour les décisions ou contenus critiques ?
- Documentons-nous les erreurs et biais détectés pour améliorer le système ?
- Les collaborateurs concernés sont-ils formés à l’utilisation et aux limites de l’outil ?
Au moment du déploiement
- Les règles de vérification des sources sont-elles claires et connues ?
- Un responsable du suivi et de l’amélioration continue est-il identifié ?
- Communiquons-nous de manière transparente sur l’usage de l’IA auprès des utilisateurs concernés ?
- Acceptons-nous que, dans certains cas, la meilleure réponse reste « je ne sais pas », en attendant une vérification humaine ?
8. Transformer les risques de l’IA en avantage compétitif
L’intervention de Jacques Pommeraud à Big 2025 ne se limite pas à alerter sur les dangers de l’IA. Elle suggère une voie positive : celle d’une adoption lucide, ancrée dans la vérité, la responsabilité et les valeurs.
Pour les organisations qui s’engagent dans cette voie, les bénéfices sont multiples :
- Crédibilité renforcée: vous apparaissez comme un acteur qui maîtrise ses technologies, plutôt que comme un suiveur aveugle des effets de mode.
- Confiance durable: clients, partenaires et collaborateurs apprécient la transparence, la prudence raisonnable et la clarté des règles.
- Performance accrue: en évitant les erreurs grossières, les biais non contrôlés et les crises réputationnelles, vous sécurisez les gains de productivité et d’innovation liés à l’IA.
- Capacité d’adaptation: une culture de vigilance et de scepticisme constructif vous prépare mieux aux évolutions réglementaires et technologiques à venir.
Adopter l’IA en gardant la « vérité » en ligne de mire, c’est donc faire le choix d’une innovation responsable et pérenne. Vous profitez pleinement des apports de l’intelligence artificielle, tout en protégeant ce qui fait la valeur profonde de votre organisation : la confiance, la qualité de vos décisions et la cohérence de vos engagements.
9. En résumé : les grands enseignements à retenir
- L’IA est puissante, mais elle ne garantit pas la vérité : il faut distinguer contenu plausible et contenu vérifié.
- Les principaux risques actuels sont les biais, les hallucinations et les usages malveillants.
- Une posture sceptique, loin de freiner l’innovation, sécurise et renforce vos projets IA.
- Réhabiliter le « je ne sais pas » protège vos décisions et nourrit une culture d’apprentissage.
- Des valeurs explicites servent de boussole pour arbitrer les cas d’usage acceptables.
- Une gouvernance claire, la vérification des sources, la sécurité des données et la formation des équipes sont les piliers d’une IA responsable.
En vous inspirant de ces principes, vous pouvez faire de l’intelligence artificielle non pas un sujet d’angoisse, mais un accélérateur de performance, aligné sur vos valeurs et digne de la confiance de toutes vos parties prenantes.
