Les systèmes d’IA prédictifs et génératifs restent vulnérables à diverses attaques et quiconque dit le contraire n’est pas tout à fait honnête, selon Apostol Vassilev, un informaticien de l’Institut national des normes et de la technologie (NIST) des États-Unis. « Malgré les progrès significatifs réalisés par l’IA et l’apprentissage automatique, ces technologies sont vulnérables à des attaques qui peuvent causer des échecs spectaculaires avec des conséquences désastreuses », a-t-il déclaré. « Il existe des problèmes théoriques liés à la sécurisation des algorithmes d’IA qui n’ont tout simplement pas été résolus. Si quelqu’un dit le contraire, il vend de la poudre de perlimpinpin. » Vassilev a coécrit un article sur le sujet avec Alina Oprea (Université Northeastern) ainsi qu’Alie Fordyce et Hyrum Anderson du magasin de sécurité Robust Intelligence, qui tente de catégoriser les risques de sécurité posés par les systèmes d’IA. Dans l’ensemble, les résultats ne sont pas encourageants. L’article [PDF], intitulé « Apprentissage automatique adversarial : une taxonomie et une terminologie des attaques et des mesures d’atténuation », s’inscrit dans le cadre de l’initiative Trustworthy AI du NIST, qui reflète les objectifs plus larges du gouvernement américain en matière de sécurité de l’IA. Il explore différentes techniques d’apprentissage automatique adversarial basées sur des recherches industrielles réalisées au cours des dernières décennies.
‘NVIDIA Avance l’Apprentissage Robotique et le Développement Humanoid avec de Nouveaux Outils d’IA et de Simulation’
Cette semaine à la Conférence sur l’apprentissage des robots (CoRL) à Munich, en Allemagne, NVIDIA a divulgué une pléthore de