L’intersection de l’IA et de la cybersécurité est un sujet de préoccupation croissante dans l’industrie, en particulier sur la façon dont l’IA peut être utilisée pour atténuer les attaques et neutraliser les menaces. De nombreuses parties prenantes acceptent le fait que l’IA peut également être une force du mal. Selon BCG, plus de 90% des professionnels de la cybersécurité aux États-Unis et au Japon s’attendent à ce que les attaquants commencent à utiliser l’IA pour lancer des attaques. Et cela est en fait déjà en train de devenir une réalité.
L’IA présente de grandes opportunités pour les cyber-attaquants, leur permettant d’augmenter les attaques en termes de vitesse, de volume et de sophistication dans des proportions massives. D’après Alejandro Correa Bahnsen de Cyxtera, les attaques basées sur l’IA peuvent contourner les systèmes de détection traditionnels plus de 15% du temps – alors qu’une attaque de phishing moyenne (sans IA) ne peut détecter les attaques que 0,3% du temps. Un exemple est #SNAP_R.
Défendre l’IA avec l’IA: les solutions basées sur l’IA aux cybermenaces de nouvelle génération
Pour faire face à cette menace croissante, il est important de noter que l’offensive basée sur l’IA nécessite des défenses basées sur l’IA. Autrement dit, les deepfakes peuvent tromper les systèmes de sécurité et une authentification plus élevée basée sur l’IA doit être appliquée. Etc.
Les organisations ne font que comprendre les risques de l’intelligence artificielle. Il est pertinent que les entreprises agissent le plus rapidement possible pour protéger leurs systèmes contre ces attaques. WannaCry a introduit un tout autre niveau de sophistication pour les cyber-attaques – et maintenant plus l’IA? Cela ne devrait pas être autorisé.
Risques de l’IA dans la conduite de cyberattaques
1. Évolutivité
Lors de la conférence Black Hat 2016, des chercheurs chevronnés ont lancé un programme automatisé de spear-phishing. Le spear phishing, en général, demande beaucoup de travail et prend du temps; en fonction de la portée de l’attaque. L’attaquant doit probablement collecter de grandes quantités d’informations sur ses cibles pour une ingénierie sociale efficace. Ces chercheurs ont démontré comment la science des données et l’apprentissage automatique peuvent être utilisés pour automatiser et faire évoluer les attaques de spear phishing.
2. Usurpation d’identité
Il y a des mois, les experts du Dawes Center for Future Crime ont classé deepfakes comme le menace de crime IA la plus grave. Il n’est pas difficile de comprendre pourquoi. Les deepfakes sont un outil de désinformation, de manipulation politique et de tromperie. De plus, les acteurs malveillants peuvent utiliser les deepfakes pour usurper l’identité de contacts de confiance et compromettre les e-mails professionnels (phishing vocal) pour mener des fraudes financières. Et le pire, c’est qu’ils sont difficiles à détecter.
La possibilité de deepfake ridiculise la biométrie vocale et l’authentification. Et ces deepfakes conduiront les gens à se méfier des preuves audio et visuelles, qui ont longtemps été des sources de justification infalsifiables.
3. Détection-évasion
L’intoxication des données est l’une des façons dont l’IA peut être utilisée pour échapper à la détection. En ciblant et en compromettant les données utilisées pour former et configurer des systèmes intelligents de détection des menaces, par exemple, en rendant le système étiquetant évidemment les spams comme sûrs, les attaquants peuvent se déplacer de manière plus furtive et plus dangereuse.
La recherche montre que l’empoisonnement à seulement 3% d’un ensemble de données peut augmenter la possibilité d’erreur jusqu’à 91%. L’IA peut être utilisée à la fois pour échapper aux attaques et s’adapter aux mécanismes défensifs.
4. Sophistication
Tous les points ci-dessus soulignent comment l’IA améliore les attaques. Les attaques d’IA sont pires en raison de l’automatisation et de l’apprentissage automatique. L’automatisation brise la limite de l’effort humain tandis que l’apprentissage automatique permet aux algorithmes d’attaque de s’améliorer par expérience et de devenir plus efficaces, que les attaques réussissent ou non.
L’adaptabilité signifie que les attaques basées sur l’IA ne deviendront que plus fortes et plus dangereuses à moins que des contre-innovations plus fortes pour la résistance ne soient développées.
Utiliser l’IA pour se défendre contre l’IA
A. Apprentissage automatique pour la détection des menaces
En défendant l’IA avec l’IA, l’apprentissage automatique entre en jeu pour aider à automatiser la détection des menaces, en particulier avec les nouvelles menaces contre lesquelles les systèmes antivirus et pare-feu traditionnels ne sont pas équipés pour se défendre. L’apprentissage automatique peut réduire de 50% à 90% les cas de faux positifs, une menace sérieuse dans la détection des menaces traditionnelles (cybersécurité intelligencedotcom).
Contrairement aux outils de détection de la génération précédente, qui sont basés sur les signatures, l’apprentissage automatique peut surveiller et consigner les modèles d’utilisation du réseau parmi les employés d’une organisation et alerter les superviseurs lorsqu’il observe un comportement anormal.
Apparemment, 93% des SOC utilisent désormais l’intelligence artificielle et les outils d’apprentissage automatique pour la détection des menaces. Plus les données sont générées et les cyber-attaques plus sophistiquées, les professionnels de la sécurité devront améliorer leurs capacités de défense et de détection grâce à un apprentissage automatique supervisé et non supervisé.
B. Amélioration de l’authentification via l’IA
Une authentification faible est le moyen le plus courant par lequel les acteurs malveillants obtiennent un accès non autorisé aux points de terminaison. Et comme on le voit avec deepfakes, même l’authentification biométrique ne semble plus infaillible. L’IA augmente la sophistication des défenses en ajoutant le contexte aux exigences d’authentification.
Les outils d’authentification basée sur les risques utilisent la biométrie comportementale basée sur l’IA pour identifier les activités suspectes et empêcher la compromission des points finaux. Ensuite, l’authentification va au-delà de la vérification des utilisateurs à l’intelligence en temps réel. La RBA, également appelée intelligence adaptative, évalue des détails tels que les informations de localisation, l’adresse IP, les informations sur l’appareil, la sensibilité des données, etc. pour calculer un score de risque et accorder ou restreindre l’accès.
Par exemple, si une personne se connecte toujours via un ordinateur au travail les matins de travail et à une occasion, essaie de se connecter via un appareil mobile dans un restaurant le week-end, cela peut être un signe de compromis et le système signalera dûment ce.
Avec un modèle de sécurité RBA intelligent, il ne suffit pas de connaître le mot de passe d’un système pour un attaquant.
En plus de cela, les systèmes d’authentification basés sur l’IA commenceront à mettre en œuvre l’authentification continue, tout en utilisant toujours l’analyse comportementale. Au lieu d’une seule connexion par session, qui peut être attaquée à mi-chemin, le système fonctionne en continu en arrière-plan pour authentifier l’utilisateur en analysant l’environnement et le comportement de l’utilisateur à la recherche de modèles suspects.
C. L’IA dans la prévention du phishing
L’amélioration de la détection des menaces est un moyen par lequel l’IA peut être utilisée pour empêcher les attaques de phishing par e-mail et activez également la sécurité lors de l’utilisation de sites Web de torrent pour télécharger des contenus multimédias. Il peut aussi le faire avec une simple analyse comportementale. Supposons que vous receviez un e-mail prétendument du PDG, l’intelligence artificielle peut analyser le message pour repérer des modèles qui ne correspondent pas au mode de communication du PDG réel.
Des fonctionnalités telles que le style d’écriture, la syntaxe et le choix des mots peuvent révéler des contradictions, vous empêcher de tomber dans le piège et parcourir et télécharger en toute sécurité.
L’IA peut également analyser les métadonnées des e-mails pour détecter les signatures modifiées, même si l’adresse e-mail semble correcte. Il scanne également les liens et les images pour vérifier leur authenticité. Contrairement aux outils anti-hameçonnage traditionnels qui bloquent les e-mails malveillants via des filtres facilement contournables, l’IA relève le défi directement contre le cœur des e-mails d’hameçonnage: l’ingénierie sociale.
Ce qui rend les attaques d’ingénierie sociale difficiles à surmonter, c’est qu’elles sont d’ordre psychologique plutôt que technologique. Jusqu’ici, l’intelligence humaine pure et le scepticisme avaient été des outils pour les surmonter. Désormais, l’IA a renforcé la prévention, étendant l’appréhension au-delà des limites humaines.
En reconnaissant des modèles qui ne sont pas immédiatement évidents pour les êtres humains, l’IA peut déterminer quand un e-mail est malveillant, même s’il ne contient aucun lien ou code suspect. Et il le fait à grande échelle en utilisant l’automatisation.
D. Analyse prédictive
L’avantage ultime de l’IA en cybersécurité est la capacité de prédire et de mettre en place des défenses contre les attaques avant qu’elles ne se produisent. L’IA peut aider les surveillants humains à maintenir une visibilité complète sur l’ensemble de l’infrastructure réseau d’une organisation et à analyser les points de terminaison pour détecter d’éventuelles vulnérabilités. À l’ère du travail à distance et des politiques BYOD où les services informatiques trouvent de plus en plus difficile la sécurité des terminaux, l’IA peut rendre leur travail beaucoup plus facile.
L’IA est notre meilleur pari contre les vulnérabilités zero-day, nous permettant de créer rapidement des défenses intelligentes avant que ces vulnérabilités ne soient exploitées par des acteurs malveillants. La cybersécurité de l’IA est en train de devenir une sorte de système immunitaire numérique pour nos organisations, de la même manière que les anticorps humains deviennent des offensives lancées par le système contre des substances étrangères.
Conclusion
L’année dernière, certains chercheurs australiens ont contourné le célèbre antivirus Cylance AI sans utiliser la méthode courante d’empoisonnement des ensembles de données. Ils ont simplement étudié le fonctionnement de l’antivirus et créé une solution de contournement universelle. L’exercice a appelé à remettre en question la pratique de quitter les ordinateurs pour déterminer ce à quoi il faut faire confiance et a également suscité des sourcils quant à l’efficacité de l’IA pour la cybersécurité.
Cependant, plus important encore, cette recherche souligne le fait que l’IA n’est pas une solution miracle et que la surveillance humaine reste nécessaire pour lutter contre les cybermenaces avancées. Ce que nous savons, c’est que l’effort humain à lui seul avec les outils de cybersécurité existants ne suffit pas pour surmonter la prochaine génération de cybermenaces, alimentée par l’IA.
Nous devons utiliser l’IA comme meilleure attaque et défense contre l’IA.
L’article Défendre l’IA avec l’IA: les solutions basées sur l’IA aux cybermenaces de nouvelle génération est apparu en premier sur zimo news.