Quelle bonne sécurité informatique AI ressemble aujourd’hui

L’intelligence artificielle (IA) révolutionne la cybercriminalité et l’industrie de la sécurité est en train de se rattraper. L’IA défensive peut aider à se protéger contre l’IA offensive, mais les experts avertissent que la criminalité IA évolue si rapidement que même les logiciels de sécurité dotés d’IA ne suffisent pas à l’arrêter – et les stratégies de verrouillage des données telles que le «zero trust» pourraient être la seule voie à suivre. Lorsque nous avons exploré l’état de la sécurité IA en 2022, les bandes criminelles étaient occupées à intégrer les capacités de l’IA pour parcourir de vastes quantités de données à la recherche d’informations suffisamment précises pour les aider à concevoir des contrefaçons vidéo en profondeur, des hameçonnages ciblés et d’autres attaques que les outils de sécurité conventionnels ne pouvaient pas détecter. En 2023, l’IA générative et l’apprentissage machine (ML) sont devenus établis dans la cybercriminalité, et les outils du métier ne sont plus limités au dark web. Les bandes utilisent des chatbots largement disponibles tels que ChatGPT pour automatiser la création et la diffusion d’attaques personnalisées à une échelle industrielle. Les fournisseurs de sécurité ont répondu en augmentant les capacités d’IA de leurs propres outils, mais les dirigeants d’entreprise sont plus craintifs que jamais. Dans une récente enquête de BlackBerry, un peu plus de la moitié (51 %) des décideurs en informatique ont estimé qu’un piratage informatique réussi serait attribué à ChatGPT d’ici la fin de 2023. Au sommet des PDG de Yale en juin, 42 % ont déclaré que l’IA avait le potentiel de détruire l’humanité dans les cinq à dix prochaines années. La plus grande avancée récente en IA sont les chatbots génératifs en open source, basés sur des modèles d’apprentissage du langage naturel (LLM), que n’importe qui peut utiliser pour créer du contenu. Les criminels ont été rapides – quelques semaines après la sortie de ChatGPT au public, la société de logiciels CircleCI a été compromise dans une attaque qui a utilisé l’IA générative pour créer des e-mails d’hameçonnage et analyser les vulnérabilités. En avril 2023, Darktrace rapportait une hausse de 135 % des attaques d’ingénierie sociale novatrices. Au niveau le plus basique, les attaquants utilisent des chatbots LLM
pour simplement collecter des informations. «Un chatbot pourrait agir en tant que mentor», explique Kevin Curran, membre de l’IEEE et professeur de cybersécurité à l’université d’Ulster. «Il y a eu des cas où des chatbots IA ont été utilisés pour analyser le code des contrats intelligents afin de détecter toutes les faiblesses ou les exploits.»

Share the Post: