En octobre 2025, un événement majeur a secoué le monde du conseil et de l’audit : un cabinet international de premier plan a dû rembourser partiellement un contrat gouvernemental de 440 000 dollars australiens (environ 291 000 euros) après qu’un rapport stratégique ait été découvert truffé d’erreurs générées par intelligence artificielle. Citations inventées, références académiques fictives, décisions de justice inexistantes : les « hallucinations » de l’IA ont compromis l’intégrité d’un audit critique pour un gouvernement.
Pour les dirigeants, DSI et RSSI, cet incident constitue un signal d’alarme sur les risques de l’utilisation abusive de l’IA dans les processus critiques. Au-delà du scandale médiatique, cette affaire révèle des enjeux fondamentaux : comment intégrer l’IA dans les processus d’audit cybersécurité et de gouvernance sans compromettre la fiabilité ? Quelles garanties exiger de vos prestataires ? Comment éviter que votre propre organisation ne tombe dans les pièges de la surutilisation de l’IA ? Analysons ensemble les conséquences de la surutilisation de l’IA et les bonnes pratiques à adopter.
Anatomie d’un incident majeur d’audit
Le contexte : un rapport stratégique pour un gouvernement
Le contrat portait sur l’évaluation d’un système automatisé de sanctions appliqué aux demandeurs d’emploi dans le cadre d’un dispositif d’aide sociale. Ce rapport de 237 pages devait fournir une analyse rigoureuse de la conformité juridique, de l’efficacité opérationnelle et des impacts sociaux d’un système informatique sensible.
Ce type de mission illustre parfaitement les attentes légitimes vis-à-vis des prestataires MSSP audit et gouvernance : objectivité, rigueur scientifique, validation des sources et expertise humaine approfondie. La conformité réglementaire cybersécurité exige ce niveau d’exigence, particulièrement dans les secteurs sensibles.
La découverte : des anomalies impossibles à ignorer
Les premières anomalies ont été identifiées par un chercheur universitaire australien, Chris Rudge, qui a remarqué que le rapport attribuait à certains de ses collègues des publications qu’ils n’avaient jamais produites. Cette découverte initiale a déclenché un examen plus approfondi révélant l’ampleur du problème.
Le rapport contenait au moins vingt erreurs majeures distinctes :
• Des citations attribuées à des chercheurs pour des articles jamais publiés
• Des références à des travaux universitaires totalement inexistants
• Une citation inventée attribuée à un juge fédéral dans une décision de justice
• Des sources déformées sans rapport avec le contexte analysé
Ces erreurs n’étaient pas de simples coquilles ou imprécisions mineures. Il s’agissait d’inventions pures, caractéristiques des « hallucinations » produites par les grands modèles de langage génératif lorsqu’ils tentent de combler leurs lacunes en créant du contenu plausible mais faux.
Comprendre les « hallucinations » de l’IA
Qu’est-ce qu’une hallucination d’IA ?
Les « hallucinations » désignent la tendance des modèles d’intelligence artificielle générative à produire des informations factuellement incorrectes mais présentées de manière convaincante. Ce phénomène découle du fonctionnement même de ces systèmes : ils génèrent du texte en prédisant statistiquement les mots les plus probables, sans véritable compréhension du contenu ni capacité de vérification factuelle.
Concrètement, lorsqu’une IA générative ne dispose pas de l’information demandée, elle ne répond pas « je ne sais pas ». Elle génère plutôt un contenu plausible qui semble répondre à la question, créant des références, des citations ou des faits cohérents en apparence mais totalement fictifs.
Ces erreurs dues à l’IA sont particulièrement dangereuses car elles présentent tous les attributs de la crédibilité : formatage académique correct, ton professionnel, structure argumentative logique. Sans vérification humaine experte, elles passent facilement inaperçues, surtout dans des documents volumineux.

Pourquoi ces erreurs sont-elles systémiques ?
Les hallucinations ne sont pas des bugs occasionnels mais une caractéristique intrinsèque des grands modèles de langage actuels. Plusieurs facteurs les expliquent :
• Les limites des données d’entraînement : les modèles sont entraînés sur d’immenses corpus de textes, mais ne peuvent pas connaître tous les documents existants, particulièrement les publications récentes, spécialisées ou confidentielles.
• L’absence de compréhension sémantique : l’IA manipule des patterns linguistiques sans comprendre réellement le sens. Elle peut générer des phrases grammaticalement parfaites mais factuellement absurdes.
• La pression à répondre : optimisés pour fournir des réponses complètes et fluides, ces modèles privilégient la génération de contenu plausible plutôt que l’admission d’ignorance.
• Le manque de mécanismes de vérification : contrairement à un humain qui peut douter, rechercher et valider, l’IA génère du texte sans processus intégré de fact-checking.
Ces limitations structurelles imposent une vigilance absolue dans tout usage professionnel de l’IA, particulièrement pour des missions critiques comme un audit cybersécurité ou une revue de sécurité informatique.
Les conséquences multidimensionnelles de l’incident
Impact réputationnel et commercial
Pour toute organisation prestataire de services intellectuels, la leçon est claire : l’utilisation abusive de l’IA peut détruire en quelques jours une réputation construite pendant des décennies. Les conséquences de la surutilisation de l’IA dépassent largement le coût financier immédiat du remboursement.
Implications contractuelles et juridiques
Le gouvernement australien a exigé et obtenu un remboursement partiel du contrat, correspondant au dernier versement prévu. Bien que le montant exact n’ait pas été divulgué, il représente une fraction des 440 000 dollars australiens facturés initialement.
Cette sanction financière soulève des questions juridiques importantes :
• Quelle est la responsabilité contractuelle d’un prestataire utilisant l’IA sans divulgation ?
• Les erreurs générées par l’IA peuvent-elles être considérées comme une faute professionnelle ?
• Comment qualifier juridiquement la livraison d’un rapport contenant des références fictives ?
Le gouvernement australien envisage désormais d’introduire des clauses contractuelles spécifiques encadrant l’usage de l’IA dans tous les marchés publics. Ces clauses pourraient exiger :
• Une divulgation préalable de tout usage d’IA dans la prestation
• Une traçabilité complète des passages générés automatiquement
• Une obligation de validation humaine systématique
• Une responsabilité contractuelle claire en cas d’erreurs liées à l’IA
Cette évolution préfigure probablement une tendance plus large. Les donneurs d’ordre, publics et privés, intégreront progressivement ces exigences dans leurs appels d’offre et contrats de prestation intellectuelle.
Bonnes pratiques pour un usage responsable de l’IA
Principe 1 : L’IA comme assistant, jamais comme expert autonome
L’erreur fondamentale dans l’incident analysé réside dans le fait de laisser l’IA produire du contenu critique de manière largement autonome. La philosophie d’usage doit être radicalement différente.
L’IA comme outil de productivité : utiliser l’IA pour accélérer des tâches répétitives, structurer des contenus, générer des brouillons ou suggérer des formulations. Ces usages exploitent les forces de la technologie (rapidité, volume) tout en reconnaissant ses limites.
La supervision humaine experte comme garde-fou : tout output d’IA destiné à un usage professionnel critique doit être revu, validé et, si nécessaire, corrigé par un expert humain. Cette validation ne se limite pas à une relecture rapide mais inclut une vérification approfondie de la véracité factuelle.
La traçabilité des contributions : dans les processus d’audit cybersécurité ou de contrôle interne sécurité, documenter précisément quelles parties ont été assistées par IA et comment elles ont été validées. Cette traçabilité facilite les audits ultérieurs et renforce la crédibilité.
L’expertise humaine pour les jugements : les décisions critiques, les analyses nuancées et les recommandations stratégiques doivent rester du domaine exclusif de l’expertise humaine. L’IA peut informer ces décisions, jamais les prendre.
Principe 2 : Vérification systématique des sources et références
Les hallucinations d’IA se manifestent fréquemment par l’invention de sources, comme dans l’incident australien. Des processus de vérification rigoureux deviennent indispensables.
Accès direct aux sources primaires : ne jamais se contenter d’une référence de seconde main. Consulter directement l’article, le jugement ou le document original cité. Cette diligence permet de détecter non seulement les sources inventées mais aussi les citations déformées ou sorties de contexte.
Documentation des vérifications : dans le cadre d’une revue de sécurité informatique ou d’un audit, documenter le processus de vérification des sources. Cette documentation démontre la rigueur méthodologique et facilite les audits externes.
Principe 3 : Adapter l’usage au niveau de criticité
Tous les usages de l’IA ne présentent pas les mêmes risques. Une approche nuancée adapte le niveau de supervision à la criticité du contenu produit.
Contenus à faible criticité : pour des communications internes informelles, des brouillons préliminaires ou des supports de brainstorming, l’IA peut être utilisée plus librement avec une supervision allégée.
Contenus à criticité moyenne : pour des documents de travail, des analyses préliminaires ou des synthèses internes, l’IA peut assister la production mais avec une validation systématique par un expert.
Contenus à haute criticité : pour des rapports d’audit, des analyses juridiques, des recommandations stratégiques ou tout document engageant la responsabilité de l’organisation, l’usage de l’IA doit être strictement encadré avec validation exhaustive.
Contenus interdits à l’IA : certains domaines devraient proscrire totalement l’usage d’IA générative autonome : reporting sécurité réglementaire, conformité normes GRC, analyses médico-légales, expertises judiciaires. Dans ces cas, l’expertise humaine doit rester exclusive.
Cette gradation permet d’exploiter les bénéfices de productivité de l’IA tout en protégeant les processus critiques contre ses limitations.
Conclusion : L’intelligence humaine reste irremplaçable
L’incident d’octobre 2025 en Australie restera comme un cas d’école illustrant les dangers de l’utilisation abusive de l’IA dans les processus professionnels critiques. Un cabinet international de premier plan, disposant de ressources considérables et d’une expertise reconnue, a dû rembourser un contrat gouvernemental après avoir livré un rapport contenant des erreurs grossières générées par intelligence artificielle.
Les conséquences de la surutilisation de l’IA dépassent largement le coût financier immédiat : impact réputationnel majeur, remise en question de la confiance, évolution probable du cadre réglementaire et contractuel. Pour toute organisation, cet événement constitue un signal d’alarme sur les risques d’une adoption précipitée ou mal encadrée de l’IA générative.
Les erreurs dues à l’IA ne sont pas des bugs occasionnels mais des caractéristiques inhérentes aux technologies actuelles. Les « hallucinations » des grands modèles de langage exigent une vigilance constante et une supervision humaine experte. L’IA peut être un formidable outil de productivité, mais elle ne peut en aucun cas remplacer le jugement, l’expertise et la responsabilité professionnelle humaine dans les domaines critiques.

