Les acteurs de la menace exploitent les systèmes d’intelligence artificielle défaillants causés par des « données peu fiables », prévient un nouvel avis du National Institute of Standards and Technology (NIST). Le nouveau rapport du NIST sur l’IA fiable et responsable révèle comment les pirates peuvent intentionnellement « empoisonner » les systèmes d’IA et les faire dysfonctionner, qu’ils peuvent ensuite exploiter. De façon préoccupante, le rapport note également que les développeurs n’ont aucun moyen infaillible de se prémunir contre de telles attaques. L’un des auteurs du rapport, le scientifique informaticien du NIST, Apostol Vassilev, affirme que les stratégies d’atténuation actuelles utilisées pour lutter contre ce type d’attaques ne peuvent pas garantir une protection. « Nous décrivons également les stratégies d’atténuation actuelles mentionnées dans la littérature, mais ces défenses disponibles manquent actuellement de garanties solides qu’elles atténuent pleinement les risques », a-t-il déclaré. « Nous encourageons la communauté à proposer de meilleures défenses. »
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du