Les guerres culturelles de l’intelligence artificielle viennent à peine de commencer.

Google a été contraint d’éteindre les capacités de génération d’images de son dernier modèle d’IA, Gemini, la semaine dernière après des plaintes selon lesquelles il tendait à représenter des femmes et des personnes de couleur lorsqu’on lui demandait de créer des images de figures historiques généralement blanches et masculines, y compris des Vikings, des papes et des soldats allemands. La société s’est publiquement excusée et a déclaré qu’elle ferait mieux. Le PDG d’Alphabet, Sundar Pichai, a envoyé un mémo de mea culpa au personnel mercredi. « Je sais que certaines de ses réponses ont offensé nos utilisateurs et ont montré des biais », peut-on y lire. « Pour être clair, c’est totalement inacceptable, et nous nous sommes trompés. » Cependant, les critiques envers Google n’ont pas été réduites au silence. Ces derniers jours, des voix conservatrices sur les réseaux sociaux ont mis en avant des réponses textuelles de Gemini qu’ils affirment révéler un biais libéral. Dimanche, Elon Musk a posté des captures d’écran sur X montrant Gemini déclarer qu’il serait inacceptable de mal genrer Caitlyn Jenner même si c’était le seul moyen d’éviter une guerre nucléaire. « Google Gemini est très raciste et sexiste », a écrit Musk. Une source familière avec la situation affirme que certains au sein de Google estiment que la polémique reflète le fait que les normes concernant ce qu’il est approprié pour les modèles d’IA de produire sont encore en évolution. La société travaille sur des projets qui pourraient réduire les problèmes observés avec Gemini à l’avenir, selon cette source. Les efforts passés de Google pour augmenter la diversité des résultats de ses algorithmes ont été moins critiqués. Google a précédemment ajusté son moteur de recherche pour montrer une plus grande diversité d’images. Cela signifie plus de femmes et de personnes de couleur dans les images représentant des PDG, même si cela peut ne pas être représentatif de la réalité corporative. Gemini de Google avait tendance à afficher systématiquement des personnes non blanches et des femmes en raison de la manière dont la société utilisait un processus appelé ajustement fin pour guider les réponses du modèle. La société a tenté de compenser les biais qui se produisent couramment dans les générateurs d’images en raison de la présence de stéréotypes culturels nuisibles dans les images utilisées pour les entraîner, dont beaucoup sont généralement issus du web et montrent un biais blanc occidental. Sans un tel ajustement fin, les générateurs d’images d’IA montrent des biais en générant principalement des images de personnes blanches lorsqu’on leur demande de dépeindre des médecins ou des avocats, ou en montrant de manière disproportionnée des personnes noires lorsqu’on leur demande de créer des images de criminels. Il semble que Google ait fini par surcompenser, ou n’a pas correctement testé les conséquences des ajustements effectués pour corriger les biais.

Share the Post: