La NSA a publié des directives pour aider les organisations à protéger leurs systèmes d’IA et à mieux défendre l’industrie de la défense. La fiche d’information sur la cybersécurité (CSI), intitulée « Déployer des systèmes d’IA de manière sécurisée : meilleures pratiques pour déployer des systèmes d’IA sécurisés et résilients », représente le premier tir du Centre de sécurité de l’intelligence artificielle (AISC), établi par l’agence de surveillance super-agence l’automne dernier dans le cadre du Centre de collaboration en cybersécurité (CCC), une collaboration gouvernement-industrie pour protéger les organisations impliquées dans la Base industrielle de la défense. Cette CSI [PDF] a été élaborée en consultation avec d’autres agences américaines, dont le CISA et le FBI, ainsi que leurs homologues en Australie, au Canada, en Nouvelle-Zélande et au Royaume-Uni. La raison d’avoir des directives de sécurité distinctes pour les systèmes d’IA est que les acteurs malveillants peuvent utiliser différentes tactiques pour subvertir les modèles et applications d’apprentissage automatique. En raison de la grande variété de vecteurs d’attaque, les défenses doivent être diverses et complètes.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)