Un ingénieur en apprentissage automatique chez Microsoft, mécontent de ce qu’il affirme être un manque de réponse à ses préoccupations sérieuses concernant l’outil de texte vers image Copilot, a rendu publiques ses allégations. Shane Jones, un directeur de l’ingénierie en IA chez le géant de Windows, a partagé aujourd’hui des lettres qu’il a envoyées au conseil d’administration de Microsoft et à la patronne de la FTC, Lina Khan. Dans les missives, Jones affirme qu’en travaillant en tant que bénévole de l’équipe rouge testant le DALL-E 3 d’OpenAI, que le Designer de Copilot de Microsoft utilise pour générer des images à partir de texte, il a trouvé des vulnérabilités qui lui ont permis de contourner les garde-fous de sécurité et de générer diverses images problématiques. Jones décrit les problèmes comme « systémiques », mais affirme que ni Microsoft ni OpenAI ne veulent les aborder. En interne, l’entreprise est bien consciente des problèmes systémiques « Alors que Microsoft commercialise publiquement Copilot Designer comme un produit IA sûr pour être utilisé par tout le monde, y compris les enfants de tout âge, en interne, l’entreprise est bien consciente des problèmes systémiques », a déclaré Jones à Khan dans sa lettre à la FTC, l’agence de protection des consommateurs américaine.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)