Un ingénieur en apprentissage automatique chez Microsoft, mécontent de ce qu’il prétend être un manque de réaction à ses graves préoccupations en matière de sécurité concernant l’outil texte-image de Copilot, a rendu publiques ses accusations. Shane Jones, un responsable en ingénierie IA chez le géant de Windows, a partagé aujourd’hui des lettres qu’il a envoyées au conseil d’administration de Microsoft et à la patronne de la FTC, Lina Khan. Dans ses missives, Jones affirme qu’en travaillant en tant que bénévole de l’équipe rouge testant le DALL-E 3 d’OpenAI, que le concepteur de Microsoft Copilot utilise pour générer des images à partir de texte, il a découvert des vulnérabilités qui lui ont permis de contourner les garde-fous de sécurité et de générer diverses images inacceptables. Jones décrit les problèmes comme étant « systémiques », mais affirme que ni Microsoft ni OpenAI ne souhaitent les prendre en compte. En interne, l’entreprise est bien consciente des problèmes systémiques. « Alors que Microsoft fait publiquement la promotion de Copilot Designer comme un produit IA sûr pour une utilisation par tout le monde, y compris les enfants de tout âge, en interne, l’entreprise est bien consciente des problèmes systémiques », a déclaré Jones à Khan dans sa lettre à la FTC, le chien de garde des consommateurs américain.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation