Google ne peut pas garantir que son outil Gemini genAI ne sera pas biaisé.

Même après que Google répare son grand modèle linguistique (LLM) et remette Gemini en ligne, l’outil d’intelligence artificielle générative (IA genAI) peut ne pas toujours être fiable, surtout lorsqu’il s’agit de générer des images ou du texte sur des événements actuels, des actualités en évolution ou des sujets brûlants. « Il fera des erreurs », a écrit l’entreprise dans une mea culpa postée la semaine dernière. « Comme nous l’avons dit dès le début, les hallucinations sont un défi connu avec tous les LLM – il arrive que l’IA se trompe. C’est quelque chose sur lequel nous travaillons constamment pour nous améliorer. » Prabhakar Raghavan, vice-président principal de la connaissance et de l’information chez Google, a expliqué pourquoi, après seulement trois semaines, l’entreprise a été contrainte de fermer la fonction de génération d’images basée sur l’IA genAI dans Gemini pour « la réparer ». En d’autres termes, le moteur genAI de Google prenait les instructions textuelles des utilisateurs et créait des images clairement biaisées en faveur d’un certain point de vue sociopolitique. Par exemple, les instructions textuelles des utilisateurs pour des images de nazis généraient des nazis noirs et asiatiques. Lorsqu’on lui a demandé de dessiner une image du pape, Gemini a répondu en créant un pape asiatique, une femme pape et un pape noir. Interrogé pour créer une image d’un chevalier médiéval, Gemini a affiché des images de chevaliers asiatiques, noirs et féminins.

Share the Post: