NIST : Si quelqu’un essaie de vous vendre une IA sécurisée, c’est de l’huile de serpent.

Les systèmes d’IA prédictive et générative restent vulnérables à une variété d’attaques et quiconque prétend le contraire ne dit pas toute la vérité, selon Apostol Vassilev, un informaticien de l’Institut national des normes et de la technologie (NIST) des États-Unis. « Malgré les progrès significatifs réalisés par l’IA et l’apprentissage automatique, ces technologies sont vulnérables à des attaques qui peuvent causer des échecs spectaculaires avec des conséquences désastreuses », a-t-il déclaré. « Il existe des problèmes théoriques liés à la sécurisation des algorithmes d’IA qui n’ont tout simplement pas été résolus. Si quelqu’un prétend le contraire, il vend du faux. » Vassilev a co-écrit un article sur le sujet avec Alina Oprea (université Northeastern) et Alie Fordyce et Hyrum Anderson de la boutique de sécurité Robust Intelligence, qui tente de catégoriser les risques de sécurité posés par les systèmes d’IA. Globalement, les résultats ne sont pas encourageants. L’article [PDF], intitulé « Apprentissage automatique adversarial : une taxonomie et une terminologie des attaques et des atténuations », s’inscrit dans le cadre de l’initiative du NIST pour une IA digne de confiance, qui reflète les objectifs plus larges du gouvernement américain en matière de sécurité de l’IA. Il explore différentes techniques d’apprentissage automatique adversarial basées sur la recherche industrielle des dernières décennies.

Share the Post: