Le jeudi matin, Google a annoncé qu’il mettait en pause sa fonctionnalité de synthèse d’images AI Gemini en réponse aux critiques selon lesquelles l’outil introduisait de la diversité dans ses images de manière historiquement inexacte, comme en représentant des nazis multi-raciaux et des rois britanniques médiévaux avec des nationalités improbables. « Nous travaillons déjà pour résoudre les problèmes récents avec la fonction de génération d’images de Gemini. Pendant ce temps, nous allons mettre en pause la génération d’images de personnes et publierons bientôt une version améliorée », a écrit Google dans une déclaration jeudi matin. Alors que de plus en plus de personnes sur X critiquaient Google pour être « éveillé », les générations de Gemini ont inspiré des théories du complot selon lesquelles Google discriminerait délibérément les personnes blanches et modifierait l’histoire pour servir des objectifs politiques. Au-delà de cet angle, comme le souligne The Verge, certaines de ces représentations inexactes « effaçaient essentiellement l’histoire de la discrimination raciale et de genre. » Mercredi soir, Elon Musk s’est immiscé dans le débat politiquement chargé en publiant un dessin animé représentant le progrès de l’IA comme ayant deux voies, l’une avec « Recherche maximale de vérité » d’un côté (à côté d’un logo xAI pour son entreprise) et « Raciste éveillé » de l’autre, à côté des logos d’OpenAI et de Gemini. Ce n’est pas la première fois qu’une entreprise proposant un produit de synthèse d’images AI rencontre des problèmes de diversité dans ses sorties. Lorsque la synthèse d’images AI a été lancée sur la scène publique avec DALL-E 2 en avril 2022, les gens ont immédiatement remarqué que les résultats étaient souvent biaisés en raison de données d’entraînement biaisées. Par exemple, les critiques se plaignaient que les requêtes donnaient souvent lieu à des images racistes ou sexistes (« PDG » étaient généralement des hommes blancs, « homme en colère » donnait lieu à des représentations d’hommes noirs, pour ne citer que quelques exemples). Pour contrer cela, OpenAI a inventé une technique en juillet 2022 selon laquelle son système insérerait des termes reflétant la diversité (comme « noir », « féminin » ou « asiatique ») dans les requêtes de génération d’images de manière cachée pour l’utilisateur.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du