Avec l'IA, il devient désormais plus facile d'orchestrer et d'automatiser des cyberattaques. Elles deviennent plus rapides à mettre en oeuvre et plus difficiles à arrêter. L'époque où l'on pouvait repérer instantanément un courriel frauduleux grâce à une mauvaise grammaire sont révolus. Le phishing alimenté par l'IA permet aux attaquants de générer des messages convaincants, adaptés à des individus spécifiques, et de lancer des campagnes à grande échelle. Il peut également s'appuyer sur la génération de faux contenus vidéo ou audio pour un ciblage plus précis.Une autre tactique consiste à lancer des attaques coordonnées par déni de service distribué (DDoS). Au cours du seul premier semestre 2023, 7,9 millions d'attaques DDoS ont frappé des sites web dans le monde entier, soit une moyenne de près de 44 000 par jour, ce qui représente une augmentation de 31 % par rapport à la même période en 2022. S'adapter à ce nouveau paysage des menacesLa nature réactive des mesures de sécurité traditionnelles ne fait pas le poids face à l'agilité et à la sophistication des attaques basées sur l'IA. Les défenseurs doivent donc adopter une approche holistique qui intègre des menaces, tout en favorisant une culture de vigilance et de résilience au sein de leur organisation. Les attaques par IA exploitent souvent des informations d'identification ou des données compromises comme point d'entrée. Il faut ainsi renforcer les pratiques de sécurité essentielles, notamment la gestion des identités, les contrôles d'accès et le chiffrement des données. Le maintien d'une posture de sécurité robuste, d'une réponse efficace aux incidents et de solutions de sauvegarde fiables sont plus que jamais essentiels.Une course aux armements cyber en pleine mutationFace à ces attaques automatisées et intelligentes à grande échelle, l'analyse, les règles et les signatures manuelles sont rapidement dépassées. Les approches de sécurité fondées sur l'intelligence artificielle et l'apprentissage automatique peuvent détecter dynamiquement les anomalies et les menaces émergentes avec une plus grande sophistication que les méthodes conventionnelles. L'IA permet une surveillance continue, une réponse rapide, des correctifs et des mises à jour automatisés bien au-delà capacités humaines. Pour garder une longueur d'avance sur les attaquants, les fournisseurs de cloud et de sécurité font rapidement progresser les contrôles de sécurité natifs de l'IA. Un tout nouveau mondeFace à des données adverses conçues pour les tromper, les modèles d'IA doivent s'avérer robustes. Les systèmes d'IA défensifs doivent donc être formés sur les bonnes données, avec des pratiques transparentes et éthiques. L'apprentissage auto-supervisé peut analyser des quantités massives de données non étiquetées pour détecter des anomalies et des menaces potentielles. Les modèles de causalité vont au-delà des corrélations pour comprendre la relation de cause à effet dans les incidents de sécurité, ce qui permet de prédire les attaques et d'en identifier les causes profondes. Toutefois, l'adoption des technologies d'IA pour la cyberdéfense doit s'accompagner de cadres éthiques solides, d'une surveillance stricte et d'un engagement à protéger la vie privée et l'intégrité des données.Un écosystème de défense collaboratifEn favorisant les partenariats avec des pairs de l'industrie, des agences gouvernementales et des experts en cybersécurité, les défenseurs peuvent tirer parti de l'intelligence collective, partager les meilleures pratiques et améliorer leur résilience face aux menaces alimentées par l'IA. Le programme de recherche Horizon Europe de l'Union européenne, doté d'un investissement de 95,5 milliards d'euros, illustre cette approche collaborative.Deux initiatives, MANOLO et CyclOps soulignent l'importance de pratiques transparentes et éthiques en matière de données. MANOLO s'attache à garantir que les modèles d'IA sont formés à partir de données fiables et de haute qualité, tandis que CyclOps s'attaque au défi de la gouvernance des données, en promouvant une collecte et une gestion responsables des données. L'accent mis sur les données montre que les cadres éthiques pour l'IA reposent sur des engagements solides en matière de protection de la vie privée, d'intégrité des données et d'utilisation des bonnes données pour former les modèles.L'intersection de l'IA et de la cybersécurité présente à la fois des défis et des opportunités sans précédent pour les défenseurs. Ce n'est que par un effort conjoint d'anticipation, d'adaptation et d'innovation que les défenseurs pourront atténuer efficacement les risques posés par les adversaires qui exploitent l'IA à des fins malveillantes et assurer l'avenir numérique des générations futures.* George Gardon, Global Lead Portfolio Manager for Cybersecurity Services et Raul Salagean, Global Deputy Product Director Cloud and Application Security chez Eviden Sur le même thème Voir tous les articles Cybersécurité Cybersécurité : l'UE cherche à harmoniser la certification des [...] Par Clément Bohic le 14 nov. 2024 MITRE ATT&CK : les dernières techniques intégrées à la matrice [...] Par Clément Bohic le 12 nov. 2024 Des proxys aux backdoors, la logithèque de MITRE ATT&CK s'étend Par Clément Bohic le 12 nov. 2024 La XRD peut-elle remplacer les SIEM dans les SOC ? Par Alain Clapaud le 12 nov. 2024 Le machine learning pour des mots de passe robustes : [...] Par Clément Bohic le 7 nov. 2024
Your new post is loading...