En 2025, l’intelligence artificielle (IA) s’impose comme un levier clé de transformation dans le domaine de la cybersécurité. Si elle amplifie considérablement les capacités défensives des entreprises, elle alimente également une nouvelle génération de cybermenaces plus complexes, plus rapides et plus difficiles à détecter. Cette analyse s’appuie sur les derniers rapports d’ESET (Threat Report H2 2024 : en anglais) et UpGuard (janvier 2025), en explorant les deux versants de cette évolution technologique : l’IA comme menace et l’IA comme rempart.
L’IA au service des cyberattaques : un tournant critique
Les cybercriminels exploitent désormais l’intelligence artificielle pour industrialiser leurs attaques et contourner les défenses traditionnelles. Selon ESET, l’IA a profondément modifié la nature des attaques par ingénierie sociale, notamment via les deepfakes et les modèles de langage génératif (LLM).
Exemples de tactiques émergentes :
- Contournement d’authentification : des deepfakes vocaux ou vidéo sont utilisés pour passer des vérifications biométriques ou tromper des collaborateurs.
- Fraudes BEC (Business Email Compromise) : des IA imitent des dirigeants pour manipuler des employés et détourner des fonds ou soutirer des données sensibles.
- Arnaques d’usurpation d’identité : certaines attaques utilisent des LLM entraînés sur des données volées pour simuler des conversations crédibles, particulièrement dans des cas de « kidnapping virtuel ».
- Influences frauduleuses : création de faux comptes d’influenceurs pour promouvoir des escroqueries en ligne, surtout autour des cryptomonnaies.
- Désinformation automatisée : Celle-ci génère des contenus manipulés à grande échelle, renforçant les campagnes de désinformation.
- Cracking automatisé de mots de passe : grâce à l’IA, la puissance de calcul est exploitée pour tester rapidement des milliards de combinaisons.
Selon Cybersecurity Ventures, les coûts liés à la cybercriminalité mondiale pourraient atteindre 10 500 milliards de dollars d’ici fin 2025, un chiffre alimenté en partie par ces nouvelles pratiques automatisées.
L’IA comme outil de défense : l’intelligence au cœur de la résilience
Face à ces menaces, l’IA représente également une avancée stratégique pour les défenseurs. D’après les analyses d’UpGuard (janvier 2025), l’IA permet de détecter, contenir et anticiper les attaques plus rapidement que les approches traditionnelles.
Les usages clés de l’IA en cybersécurité :
- Analyse prédictive : les modèles d’IA croisent données historiques et comportements réseau en temps réel pour identifier les vulnérabilités et anticiper des menaces comme les ransomwares ou le phishing.
- Détection et réponse automatisée : les systèmes de détection intelligente filtrent les faux positifs, s’adaptent en continu et alertent les équipes dès qu’un comportement suspect est identifié.
- Gestion des vulnérabilités : des plateformes IA scannent des millions de pages et de dispositifs pour repérer les failles, notamment les vulnérabilités dites « zero-day ».
- Surveillance réseau et endpoints : les outils de type EDR (Endpoint Detection and Response) fondés sur l’IA analysent les flux de données et assurent une protection en temps réel contre les compromissions.
- Formation assistée par IA : des copilotes IA aident les équipes IT à prendre des décisions plus rapidement, en résumant les alertes et en proposant des actions de remédiation priorisées.
ESET note également que l’IA génère des données synthétiques pour améliorer la détection, automatise la classification des menaces et renforce les opérations de sécurité (SecOps).
Enjeux éthiques et réglementaires : un cadre encore flou
L’usage de l’IA en cybersécurité soulève des questions majeures en matière de confidentialité et de conformité. Une enquête citée par Infosecurity Magazine en décembre 2024 révèle que 20 % des entreprises britanniques ont exposé accidentellement des données sensibles via des outils d’IA générative.
Problèmes soulevés :
- Fuites de données sensibles : entraînement de modèles IA sur des données médicales, biométriques ou financières sans consentement ni chiffrement suffisant.
- Flou réglementaire : aux États-Unis, la réglementation peine à suivre l’évolution des modèles IA, laissant un vide juridique exploité par des groupes malveillants.
- En Europe, l’AI Act (Acte sur l’intelligence artificielle) de l’UE reste en cours de finalisation. Il prévoit la mise en place de codes de conduite et de responsabilités partagées entre développeurs et exploitants d’IA, mais les modalités d’application concrètes posent encore débat (Shoosmiths, Welivesecurity).
L’intelligence artificielle transforme en profondeur le paysage de la cybersécurité. Menace amplifiée et rempart puissant, elle oblige les entreprises à repenser leur stratégie de défense, leur gouvernance de la donnée et leur conformité réglementaire. Pour résister aux nouvelles vagues d’attaques, l’enjeu n’est plus d’intégrer l’intégrer — mais de la maîtriser.
Rester informé, structurer des politiques de sécurité robustes, auditer régulièrement ses systèmes et renforcer les capacités humaines face à ces outils sont désormais des réflexes essentiels pour toute entreprise