web statistic

ChatGPT détourné pour truquer les notes de frais : la technique « tellement… » qui a sidéré les entreprises

Julie K.
6 Min de lecture

Comment les directions techniques contre-attaquent

Les services IT déploient des systèmes hybrides humains-IA pour traquer les fraudes. La blockchain certifie désormais l’origine des factures, tandis que des algorithmes analysent les « empreintes stylistiques » des documents. « On identifie les répétitions de tournures ou les choix lexicaux typiques de ChatGPT », explique Élodie Martin, cheffe de la cybersécurité chez FinTech Group.

Des startups comme Alan Turing Solutions proposent des formations choc aux contrôleurs. Leurs modules immersifs simulent des attaques en temps réel, avec reconstitution de fausses notes générées par IA. « En trois sessions, nos équipes détectent 80 % des fraudes de test », affirme le responsable formation d’un grand groupe bancaire. Parallèlement, des audits surprises ciblent désormais les dépenses récurrentes (taxi, restauration, essence).

Le débat éthique qui secoue le monde de l’IA

Les créateurs de ChatGPT dénoncent un détournement contraire à leur charte éthique, tout en reconnaissant l’impossibilité technique de filtrer tous les usages frauduleux. La Commission européenne planche sur un règlement spécifique aux IA génératives, exigeant notamment des « traces auditables » dans les contenus créés par logiciel. « L’outil n’est pas coupable, mais il oblige à repenser nos garde-fous », tempère une porte-parole d’OpenAI.

Le philosophe des technologies Marc Aurèle Lenoir y voit un tournant civilisationnel : « Cette affaire pose la question de l’automatisation de la confiance. Jusqu’où déléguer notre jugement à des machines conçues pour tromper… d’autres machines ? ». Face à ce cas d’école, 43 % des entreprises interrogées envisagent de limiter drastiquement l’accès aux IA génératives, préférant sacrifier un gain de productivité pour préserver leur capital confiance.