Les méta-adresses à l’intelligence artificielle hallucinante alors que le chatbot dit que la prétendue attaque contre Trump n’a pas eu lieu.

Meta dit avoir configuré son chatbot IA pour éviter de répondre aux questions sur la fusillade du rassemblement de Trump afin d’éviter de distribuer de fausses informations, mais l’outil a quand même fini par dire aux utilisateurs que la fusillade n’avait jamais eu lieu. « Plutôt que de laisser l’IA de Meta fournir des informations incorrectes sur la tentative d’assassinat, nous l’avons programmée pour ne pas répondre simplement aux questions à ce sujet une fois que c’était arrivé – et donner à la place une réponse générique disant qu’elle ne pouvait pas fournir d’informations, » a écrit le VP de la Politique Globale de Meta, Joel Kaplan, dans un article de blog hier. Kaplan a expliqué que « c’est pourquoi certaines personnes ont signalé que notre IA refusait de parler de l’événement. » Mais Kaplan a reconnu que d’autres ont reçu des informations erronées sur la fusillade de Trump: Dans un petit nombre de cas, l’IA de Meta a continué à fournir des réponses incorrectes, affirmant parfois que l’événement ne s’était pas produit – ce à quoi nous travaillons rapidement pour remédier. Ces types de réponses sont appelés hallucinations, une problématique à l’échelle de l’industrie que nous observons dans tous les systèmes IA génératifs, et c’est un défi continu pour la manière dont l’IA gère les événements en temps réel à l’avenir. Comme tous les systèmes IA génératifs, les modèles peuvent renvoyer des sorties inexactes ou inappropriées, et nous continuerons à résoudre ces problèmes et à améliorer ces fonctionnalités à mesure qu’elles évoluent et que davantage de personnes partageront leurs commentaires. L’entreprise a « mis à jour les réponses fournies par l’IA de Meta concernant la tentative d’assassinat, mais nous aurions dû le faire plus tôt, » a écrit Kaplan.

Share the Post: