L’intelligence artificielle (IA) est en train de révolutionner la cybercriminalité, et l’industrie de la sécurité est en train de se mettre à la traîne. L’IA défensive peut aider à protéger contre l’IA offensive, mais les experts mettent en garde contre le fait que la criminalité liée à l’IA évolue si rapidement que même les logiciels de sécurité basés sur l’IA ne suffisent pas à l’arrêter – et que les stratégies de verrouillage des données telles que la «confiance zéro» pourraient être la seule voie à suivre. Lorsque nous avons exploré l’état de la sécurité basée sur l’IA en 2022, les bandes criminelles étaient occupées à s’emparer des capacités de l’IA pour parcourir de vastes banques de données à la recherche d’informations suffisamment précises pour les aider à concevoir des contrefaçons vidéo, des hameçonnages ciblés et d’autres attaques que les outils de sécurité conventionnels ne pouvaient pas détecter. En 2023, l’IA générative et l’apprentissage automatique (ML) sont devenus établis dans la cybercriminalité, et les outils du métier ne sont plus limités au dark web. Les bandes criminelles utilisent des chatbots largement disponibles tels que ChatGPT pour automatiser la création et la distribution d’attaques personnalisées à grande échelle. Les fournisseurs de sécurité ont réagi en augmentant les capacités de l’IA de leurs propres outils, mais les dirigeants d’entreprise sont plus craintifs que jamais. Dans une récente enquête de BlackBerry, un peu plus de la moitié (51 %) des décideurs en matière d’informatique pensaient qu’il y aurait une attaque informatique réussie attribuée à ChatGPT d’ici la fin de 2023. Au sommet annuel des PDG de Yale en juin, 42 % ont déclaré que l’IA avait le potentiel de détruire l’humanité en cinq à dix ans. La plus grande avancée récente en matière d’IA est les chatbots génératifs open source basés sur des modèles d’apprentissage du langage naturel (LLM), que n’importe qui peut utiliser pour créer du contenu. Les criminels ont été rapidement sur les lieux – quelques semaines après la sortie de ChatGPT au public, la société de logiciels CircleCI a été compromise dans une attaque qui a utilisé l’IA générative pour créer des courriels d’hameçonnage et scanner les vulnérabilités. En avril 2023, Darktrace rapportait une augmentation de 135 % des attaques sociales novatrices. Au niveau le plus basique, les attaquants utilisent des chatbots LLM
pour simplement collecter des informations. « Un chatbot pourrait agir en tant que mentor », explique Kevin Curran, membre de l’IEEE et professeur de cybersécurité à l’université d’Ulster. « Il y a eu des cas où des chatbots IA ont été utilisés pour analyser le code des contrats intelligents à la recherche de faiblesses ou d’exploits. »
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)