Un ingénieur en apprentissage automatique chez Microsoft, mécontent de ce qu’il prétend être un manque de réaction à ses graves préoccupations en matière de sécurité concernant l’outil texte-image de Copilot, a rendu publiques ses accusations. Shane Jones, un responsable en ingénierie IA chez le géant de Windows, a partagé aujourd’hui des lettres qu’il a envoyées au conseil d’administration de Microsoft et à la patronne de la FTC, Lina Khan. Dans ses missives, Jones affirme qu’en travaillant en tant que bénévole de l’équipe rouge testant le DALL-E 3 d’OpenAI, que le concepteur de Microsoft Copilot utilise pour générer des images à partir de texte, il a découvert des vulnérabilités qui lui ont permis de contourner les garde-fous de sécurité et de générer diverses images inacceptables. Jones décrit les problèmes comme étant « systémiques », mais affirme que ni Microsoft ni OpenAI ne souhaitent les prendre en compte. En interne, l’entreprise est bien consciente des problèmes systémiques. « Alors que Microsoft fait publiquement la promotion de Copilot Designer comme un produit IA sûr pour une utilisation par tout le monde, y compris les enfants de tout âge, en interne, l’entreprise est bien consciente des problèmes systémiques », a déclaré Jones à Khan dans sa lettre à la FTC, le chien de garde des consommateurs américain.
La dernière mise à jour de sécurité de Chrome sera plus proactive pour vous protéger.
Chrome reçoit une série de mises à jour de sécurité qui pourraient améliorer votre sécurité lors de la navigation en