Cyberattaques en forte croissance : +131% d’emails frauduleux en 2025   selon une étude de Hornetsecurity

Cyberattaques en forte croissance : +131% d’emails frauduleux en 2025 selon une étude de Hornetsecurity

Dans une année marquée par l’accélération des menaces, le sixième rapport annuel sur la cybersécurité de Hornetsecurity révèle que les acteurs malveillants ont adopté l’automatisation, l’intelligence artificielle et l’ingénierie sociale à une vitesse sans précédent, tandis que les défenseurs s’efforçaient d’adapter leurs programmes de gouvernance, de résilience et de sensibilisation.

L’analyse de plus de 6 milliards d’emails traités chaque mois (soit 72 milliards annuellement) confirme que l’email reste un vecteur constant d’attaques informatiques en 2025. Les emails contenant des malwares augmentent de 131% par rapport à l’année précédente, accompagnés d’une hausse des arnaques par email (+34,7%) et du phishing (+21%).

Les acteurs malveillants ont pu créer des contenus frauduleux encore plus convaincants grâce à l’IA générative, plus de trois quarts des RSSI (77%) identifiant le phishing généré par l’IA comme une menace sérieuse et émergente. Néanmoins, les équipes de défense rattrapent leur retard : 68% des organisations ont investi cette année dans des capacités de détection et de protection assistées par IA contre ce type de menaces.

« L’IA est à la fois un outil et une cible, et les vecteurs d’attaque se développent plus rapidement que beaucoup ne le réalisent. Il en résulte une course aux armements où les deux parties utilisent le machine learning. D’un côté, l’objectif est de tromper ; de l’autre, de défendre et de prévenir. Les attaquants utilisent de plus en plus l’IA générative et l’automatisation pour identifier les vulnérabilités, concevoir des appâts de phishing plus convaincants et orchestrer des intrusions en plusieurs étapes avec une supervision humaine minimale. » affirme Daniel Hoffman, CEO d’Hornetsecurity.

Les menaces émergentes de l’IA en cybersécurité : fraudes à l’identité, deepfakes et plus encore 

Le potentiel de mauvaise utilisation de l’IA est devenu une caractéristique déterminante du paysage des menaces,61% des RSSI estimant que l’IA accroît le risque de ransomware. Parmi les préoccupations majeures figurent la fraude à l’identité, utilisant l’IA pour générer des documents et des identifiants ; le clonage vocal et les vidéosdeepfake pour usurper des utilisateurs ; l’empoisonnement de modèles, où des données malveillantes corrompent des systèmes IA internes ; et le mauvais usage par les employés d’outils IA publics.

Ces technologies émergentes brouillent la frontière entre activité légitime et malveillante, rendant les contrôles de sécurité traditionnels moins efficaces, surtout lorsque les cybercriminels cherchent à compromettre la confiance plutôt qu’à forcer l’accès.

Le déficit de compréhension de l’IA au niveau de la direction 

Même si les entreprises renforcent leurs capacités de récupération, beaucoup risquent de protéger un objectif obsolète. La prochaine vague d’attaques vise une cible moins tangible mais plus puissante : la confiance.  Les RSSI soulignent un large écart dans la compréhension des risques liés à l’IA au sein des directions cette année.

Certains rapportent que leurs cadres n’ont « aucune réelle compréhension » du rôle de l’IA dans ces attaques. La réponse médiane indique toutefois qu’il existe une certaine sensibilisation, mais que les progrès sont inégaux et varient fortement d’une entreprise à l’autre. Pour l’avenir, la résilience, portée par un changement culturel plutôt que par la prévention seule, définira le succès en cybersécurité en 2026.

« Les résultats de notre rapport montrent que les efforts internes de sensibilisation à la sécurité doivent évoluer au rythme de l’adoption de l’IA. Peu de conseils d’administration réalisent des simulations de crise cyber, et les guides opérationnels restent l’exception plutôt que la règle. Alors que la désinformation générée par l’IA et le chantage via deepfakes deviennent plus courants, une culture de sécurité basée sur la préparation, soutenue par une sensibilisation à l’IA et à ses possibilités, devra être au centre des priorités en 2026. »  déclare Daniel Hoffman, CEO d’Hornetsecurity.

Pour lire le rapport complet sur la cybersécurité, y compris les prévisions pour 2026, cliquez ici.

CATEGORIES