L'IA est à la fois une nouvelle surface d'attaque et un accélérateur de menaces pour les cybercriminels. L'ANSSI l'a documenté en février 2026 : la fenêtre d'ignorance se ferme. Pour les entreprises qui intègrent de l'IA dans leurs SI, l'audit de sécurité n'est plus optionnel.
Un rapport cosigné par 16 agences nationales
En février 2025, l'ANSSI a publié « Développer la confiance dans l'IA par une approche par les risques cyber », cosigné par les agences de cybersécurité du Royaume-Uni, du Canada, de l'Allemagne, de la Pologne, des Pays-Bas, de la Corée du Sud et de neuf autres pays. Ce document est le fruit d'une collaboration avec la CNIL, l'INRIA, le LNE et le PEReN — une coalition inédite entre régulateurs, chercheurs et acteurs industriels.
En février 2026, l'ANSSI a complété cette publication par une synthèse de 12 pages sur les menaces liées à l'IA générative, dressant un panorama des risques observés en 2025. Ce document est devenu le référentiel de fait pour toute organisation intégrant des briques d'IA dans ses systèmes d'information.
La dualité fondamentale : cible et arme
L'ANSSI aborde la cybersécurité de l'IA sous un double angle. D'un côté, les systèmes d'IA constituent une nouvelle surface d'attaque — avec leurs propres vulnérabilités, distinctes de celles des systèmes d'information traditionnels. De l'autre, l'IA générative est déjà utilisée par les attaquants pour amplifier et sophistiquer leurs opérations. Cette dualité — l'IA comme cible et l'IA comme arme — définit le paysage de menaces en 2026.
Les trois types d'attaques spécifiques aux systèmes IA
Les attaques par empoisonnement (data poisoning). Ces attaques visent à altérer les données d'entraînement pour modifier le comportement du modèle. Un attaquant peut injecter des données biaisées dans un modèle de scoring crédit pour fausser ses recommandations de façon indétectable. L'ANSSI note que la multiplication de contenus fallacieux générés par IA sur Internet pourrait polluer les données d'entraînement des modèles futurs à grande échelle.
Les attaques par extraction. Ces attaques cherchent à récupérer des données sensibles mémorisées par le modèle. Un LLM entraîné sur des données internes d'entreprise peut, dans certaines conditions, restituer des informations confidentielles à un utilisateur malveillant via des prompts habilement construits. Ce type d'attaque est documenté et reproductible.
Les attaques par évasion. Ces attaques modifient les données d'entrée de façon imperceptible pour tromper le système. Un modèle de détection de fraude peut être amené à valider une transaction suspecte, ou un système de reconnaissance d'images à classer incorrectement un objet — avec des conséquences potentiellement graves dans des contextes critiques.
« Google a révélé en janvier 2025 que son modèle Gemini avait été exploité entre 2023 et 2024 par des opérateurs liés à au moins dix groupes liés à l'Iran, vingt à la Chine, neuf à la Corée du Nord et trois à la Russie. »
Rapport ANSSI, synthèse février 2026Les cas documentés en 2025 : la menace n'est plus théorique
Le rapport ANSSI de février 2026 documente précisément comment les groupes malveillants exploitent déjà l'IA générative. Les usages identifiés comprennent la création de campagnes de phishing multilingues sophistiquées, la génération de code malveillant polymorphique plus difficile à détecter, la fabrication de faux profils et de faux sites web à l'apparence légitime, et la production de deepfakes pour l'usurpation d'identité.
L'ANSSI note l'émergence de scripts générés dynamiquement par des LLM à l'exécution, rendant chaque instance unique et extrêmement difficile à détecter par les outils traditionnels de signature. 63 % des organisations ont subi une cyberattaque sur leur chaîne d'approvisionnement logicielle au cours des deux dernières années.
L'ANSSI anticipe l'évolution rapide des menaces vers les systèmes d'IA agentiques — ces agents autonomes capables de planifier, décider et exécuter des actions sans supervision humaine constante. L'OWASP GenAI Security Project a publié en 2026 le référentiel des risques critiques spécifiques à ces systèmes. Si votre organisation envisage de déployer des agents IA, ce référentiel est un passage obligé.
Les dix recommandations clés pour les entreprises
L'ANSSI structure ses recommandations autour de trois niveaux d'action — utilisateurs, développeurs, décideurs. Pour les entreprises qui intègrent de l'IA dans leurs processus, les préconisations prioritaires sont : ajuster le niveau d'autonomie des systèmes IA en maintenant une validation humaine à chaque étape critique ; cartographier l'ensemble de la chaîne d'approvisionnement (composants matériels, logiciels, modèles pré-entraînés et jeux de données) ; recenser et limiter les interconnexions entre systèmes IA et SI existants ; mettre en place une maintenance et une supervision continues associées à une veille technologique et réglementaire régulière ; réaliser des audits de sécurité réguliers spécifiques aux systèmes IA ; et s'appuyer sur les référentiels existants — guide ANSSI d'avril 2024, OWASP Top 10 for LLM Applications, OWASP Top 10 for Agentic Applications 2026.
Avant d'intégrer un quelconque outil d'IA dans votre système d'information, réalisez une analyse de risques spécifique prenant en compte ces nouvelles menaces. Le guide ANSSI de sécurité pour l'IA générative et la synthèse de février 2026 sont vos documents de référence. Si vous déployez des solutions d'IA connectées à Internet ou à des données sensibles, l'audit de sécurité IA n'est plus optionnel : c'est une nécessité opérationnelle et, dans certains secteurs, une obligation réglementaire.