NIST : Si quelqu’un essaie de vous vendre une IA sécurisée, c’est de l’huile de serpent.

Les systèmes d’IA prédictive et générative restent vulnérables à diverses attaques et quiconque prétend le contraire n’est pas tout à fait honnête, selon Apostol Vassilev, informaticien à l’Institut national des normes et de la technologie (NIST) des États-Unis. « Malgré les progrès importants réalisés par l’IA et l’apprentissage automatique, ces technologies restent vulnérables aux attaques pouvant causer des défaillances spectaculaires aux conséquences désastreuses », a-t-il déclaré. « Il existe des problèmes théoriques liés à la sécurisation des algorithmes d’IA qui n’ont tout simplement pas encore été résolus. Si quelqu’un prétend le contraire, c’est qu’il essaie de vendre de l’huile de serpent. » Vassilev a coécrit un article sur le sujet avec Alina Oprea (Northeastern University) ainsi qu’Alie Fordyce et Hyrum Anderson de Robust Intelligence, une boutique de sécurité, qui tente de catégoriser les risques de sécurité auxquels sont confrontés les systèmes d’IA. Dans l’ensemble, les résultats ne sont pas encourageants. L’article, intitulé « Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations », fait suite à l’initiative d’IA digne de confiance du NIST, qui reflète les objectifs plus larges du gouvernement américain visant à garantir la sécurité de l’IA. Il explore différentes techniques d’apprentissage automatique adversaire basées sur des recherches industrielles menées au cours des dernières décennies.

Share the Post: