‘Le copilote ne peut pas arrêter d’émettre des images violentes et sexuelles, affirme le lanceur d’alerte de Microsoft.’

Un ingénieur en apprentissage automatique chez Microsoft, mécontent de ce qu’il prétend être un manque de réaction à ses graves préoccupations en matière de sécurité concernant l’outil texte-image de Copilot, a rendu publiques ses accusations. Shane Jones, un responsable en ingénierie IA chez le géant de Windows, a partagé aujourd’hui des lettres qu’il a envoyées au conseil d’administration de Microsoft et à la patronne de la FTC, Lina Khan. Dans ses missives, Jones affirme qu’en travaillant en tant que bénévole de l’équipe rouge testant le DALL-E 3 d’OpenAI, que le concepteur de Microsoft Copilot utilise pour générer des images à partir de texte, il a découvert des vulnérabilités qui lui ont permis de contourner les garde-fous de sécurité et de générer diverses images inacceptables. Jones décrit les problèmes comme étant « systémiques », mais affirme que ni Microsoft ni OpenAI ne souhaitent les prendre en compte. En interne, l’entreprise est bien consciente des problèmes systémiques. « Alors que Microsoft fait publiquement la promotion de Copilot Designer comme un produit IA sûr pour une utilisation par tout le monde, y compris les enfants de tout âge, en interne, l’entreprise est bien consciente des problèmes systémiques », a déclaré Jones à Khan dans sa lettre à la FTC, le chien de garde des consommateurs américain.

Share the Post: