»Le copilote ne peut pas cesser d’émettre des images violentes et sexuelles, affirme un lanceur d’alerte de Microsoft. »

Un ingénieur en apprentissage automatique chez Microsoft, mécontent de ce qu’il affirme être un manque de réponse à ses préoccupations sérieuses concernant l’outil de texte vers image Copilot, a rendu publiques ses allégations. Shane Jones, un directeur de l’ingénierie en IA chez le géant de Windows, a partagé aujourd’hui des lettres qu’il a envoyées au conseil d’administration de Microsoft et à la patronne de la FTC, Lina Khan. Dans les missives, Jones affirme qu’en travaillant en tant que bénévole de l’équipe rouge testant le DALL-E 3 d’OpenAI, que le Designer de Copilot de Microsoft utilise pour générer des images à partir de texte, il a trouvé des vulnérabilités qui lui ont permis de contourner les garde-fous de sécurité et de générer diverses images problématiques. Jones décrit les problèmes comme « systémiques », mais affirme que ni Microsoft ni OpenAI ne veulent les aborder. En interne, l’entreprise est bien consciente des problèmes systémiques « Alors que Microsoft commercialise publiquement Copilot Designer comme un produit IA sûr pour être utilisé par tout le monde, y compris les enfants de tout âge, en interne, l’entreprise est bien consciente des problèmes systémiques », a déclaré Jones à Khan dans sa lettre à la FTC, l’agence de protection des consommateurs américaine.

Share the Post: