Google a admis que son modèle d’IA Gemini « a manqué la cible » après une vague de critiques sur ce que beaucoup ont perçu comme un « biais anti-blanc ». De nombreux utilisateurs ont signalé que le système produisait des images de personnes de diverses ethnies et genres même lorsque cela était historiquement inexact. La société a déclaré jeudi qu’elle allait « mettre en pause » la capacité de générer des images de personnes jusqu’à ce qu’elle puisse déployer un correctif. Lorsqu’on lui a demandé de créer une image de Vikings, Gemini a montré exclusivement des personnes noires vêtues de vêtements traditionnels viking. Une demande des « Pères Fondateurs » a renvoyé des personnes autochtones en tenues coloniales ; un autre résultat a représenté George Washington comme noir. Lorsqu’on lui a demandé de produire une image d’un pape, le système n’a montré que des personnes d’ethnies autres que blanches. Dans certains cas, Gemini a dit ne pas pouvoir produire d’image du tout de figures historiques comme Abraham Lincoln, Jules César et Galilée. De nombreux commentateurs de droite ont saisi l’occasion pour suggérer qu’il s’agit d’une preuve supplémentaire d’un parti pris anti-blanc parmi les géants de la technologie, l’entrepreneur Mike Solana écrivant que « l’IA de Google est un fou anti-blanc ». Mais la situation met surtout en lumière le fait que les systèmes d’IA générative ne sont tout simplement pas très intelligents. « Je pense que c’est simplement un logiciel médiocre », a écrit Gary Marcus, professeur émérite de psychologie et de science neuronale à l’Université de New York et entrepreneur en IA, mercredi sur Substack.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation