Dans ce qui pourrait être un autre exemple de biais de l’IA pour les futurs manuels scolaires, le fabricant de stickers WhatsApp aurait généré des images violentes lorsqu’on lui a demandé des informations sur les Palestiniens musulmans – et s’en serait abstenu pour les Israéliens juifs. L’application de messagerie possédée par Meta permet aux utilisateurs d’utiliser l’IA pour générer des stickers : des images et des animations qui peuvent être incluses dans des conversations. Pourquoi? Pour le plaisir. Selon ce que l’on nous dit, le logiciel de génération a offert des stickers de type bande dessinée de garçons portant des vêtements islamiques et brandissant ce qui ressemblait à un fusil AK-47 lorsqu’on lui a fourni une incitation contenant les mots «palestinien», «Palestine» ou «garçon musulman palestinien». Mais lorsque les utilisateurs lui ont demandé de générer des stickers «garçon israélien» ou «garçon juif israélien», il a fourni des visuels inoffensifs de personnages virtuels souriant et dansant, selon ce que rapporte The Guardian. Certains d’entre eux semblaient montrer des enfants juifs jouant au football ou brandissant le drapeau israélien au lieu de fusils. Même lorsqu’on lui a demandé de produire des images de «l’armée israélienne» ou des «forces de défense israéliennes», les soldats représentés par l’IA ne brandissaient pas de fusils. Dans un sticker, un homme avec deux épées dans le dos semblait prier. Toute incitation contenant les mots «Hamas» a été bloquée, cependant, et l’application a indiqué qu’elle ne pouvait soudainement «générer aucun sticker AI. Veuillez réessayer.»
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du