NIST : Si quelqu’un essaie de vous vendre une intelligence artificielle sécurisée, c’est de l’huile de serpent.

Les systèmes d’IA prédictive et générative demeurent vulnérables à une variété d’attaques, et toute personne prétendant le contraire n’est pas tout à fait honnête, selon Apostol Vassilev, scientifique informatique à l’Institut national des normes et technologies (NIST) des États-Unis. « Malgré les progrès significatifs réalisés par l’IA et l’apprentissage automatique, ces technologies restent vulnérables à des attaques pouvant entraîner des échecs spectaculaires aux conséquences désastreuses », a-t-il déclaré. « Il existe des problèmes théoriques liés à la sécurisation des algorithmes d’IA qui n’ont tout simplement pas encore été résolus. Si quelqu’un prétend le contraire, c’est qu’il vend de l’huile de serpent. » Vassilev a coécrit un article sur ce sujet avec Alina Oprea (Northeastern University), ainsi qu’Alie Fordyce et Hyrum Anderson de Robust Intelligence, un magasin de sécurité, qui tente de catégoriser les risques de sécurité posés par les systèmes d’IA. Dans l’ensemble, les résultats ne sont pas encourageants. L’article [PDF], intitulé « Apprentissage automatique antagoniste : taxonomie et terminologie des attaques et des mesures d’atténuation », fait suite à l’initiative de l’IA fiable du NIST, qui reflète les objectifs plus larges du gouvernement américain en matière de sécurité de l’IA. Il explore diverses techniques d’apprentissage automatique antagonistes basées sur des recherches industrielles menées au cours des dernières décennies.

Share the Post: