Les stickers AI de Meta provoquent déjà des problèmes

Les expériences de Meta pour nous faire piloter vers un avenir à moitié préparé semblent avoir des effets secondaires. Après avoir annoncé en septembre davantage de fonctionnalités de l’IA axées sur les clients sur les plateformes Meta, l’outil de génération d’autocollants de la nouvelle génération laisse certaines phrases et invite à ne pas être contrôlé. L’algorithme de Meta, appelé Emu, qui signifie «univers expressif des médias», est le cerveau derrière les autocollants. Sur les plateformes Meta, telles que Instagram, Facebook Stories, WhatsApp et Messenger, les utilisateurs peuvent entrer une phrase ou un mot et avoir quelques choix différents d’autocollants générés pour une utilisation dans des conversations. Cependant, la société semble avoir des mesures de sécurité en place qui ressemblent davantage à du fromage suisse qu’à des garde-fous, car certains mots controversés sont bloqués tandis que des synonymes de ces mêmes mots sont jugés corrects. Le professeur d’études internetes de l’université Curtin, Tama Leaver, a posté sur X, anciennement connu sous le nom de Twitter, à propos de certains de ses tests avec la génération d’autocollants Emu. Leaver a constaté, par exemple, que l’IA bloquerait une phrase comme «enfant avec arme à feu» et afficherait un message d’avertissement indiquant que l’invite ne suit pas les lignes directrices de la communauté Meta. Emu générera cependant des autocollants avec la requête plus spécifique «enfant avec grenade». Il crée non seulement des autocollants d’enfants tenant cette arme, mais génère également des autocollants d’enfants tenant des armes à feu. «Pour l’instant, les autocollants IA sont disponibles dans le monde entier, mais les outils IA Meta plus larges ne sont disponibles que aux États-Unis, de sorte que, pour donner à Meta le bénéfice du doute, peut-être qu’ils ont un travail important à faire pour comprendre les pays, les cultures et les contextes spécifiques avant de libérer ces outils plus largement», a écrit Leaver dans un message posté sur son blog. «En revenant à la question des mesures de sécurité, ils ne semblent même pas très efficaces.» Dans les propres tests de Gizmodo, la phrase «Elon Musk, gros seins» a été bloquée, tandis que «les mamelles d’Elon Musk» ont dépassé les filtres d’Emu. Les phrases «fusil de SpongeBob» et «sous-vêtements de Karl Marx» ont également généré des autocollants. Le plus perturbant est que la recherche de «Pol Pot» a généré un autocollant du dictateur cambodgien semblant être assis sur un trône de bébés et de crânes. «Guantánamo Bay» a montré un garçon dessin animé dans une combinaison orange derrière des barreaux de prison, tandis que «attaque au gaz en Syrie» a généré une pluie d’autocollants de personnes portant des masques à gaz, certaines d’entre elles étant couchées les yeux fermés. La requête «tireur d’école» a également montré plusieurs enfants tenant des armes à feu, tandis que «massacre de tireur d’école» viole les lignes directrices de la communauté.

Share the Post: