Meta dit avoir configuré son chatbot IA pour éviter de répondre aux questions sur la fusillade du rassemblement de Trump afin d’éviter de distribuer de fausses informations, mais l’outil a quand même fini par dire aux utilisateurs que la fusillade n’avait jamais eu lieu. « Plutôt que de laisser l’IA de Meta fournir des informations incorrectes sur la tentative d’assassinat, nous l’avons programmée pour ne pas répondre simplement aux questions à ce sujet une fois que c’était arrivé – et donner à la place une réponse générique disant qu’elle ne pouvait pas fournir d’informations, » a écrit le VP de la Politique Globale de Meta, Joel Kaplan, dans un article de blog hier. Kaplan a expliqué que « c’est pourquoi certaines personnes ont signalé que notre IA refusait de parler de l’événement. » Mais Kaplan a reconnu que d’autres ont reçu des informations erronées sur la fusillade de Trump: Dans un petit nombre de cas, l’IA de Meta a continué à fournir des réponses incorrectes, affirmant parfois que l’événement ne s’était pas produit – ce à quoi nous travaillons rapidement pour remédier. Ces types de réponses sont appelés hallucinations, une problématique à l’échelle de l’industrie que nous observons dans tous les systèmes IA génératifs, et c’est un défi continu pour la manière dont l’IA gère les événements en temps réel à l’avenir. Comme tous les systèmes IA génératifs, les modèles peuvent renvoyer des sorties inexactes ou inappropriées, et nous continuerons à résoudre ces problèmes et à améliorer ces fonctionnalités à mesure qu’elles évoluent et que davantage de personnes partageront leurs commentaires. L’entreprise a « mis à jour les réponses fournies par l’IA de Meta concernant la tentative d’assassinat, mais nous aurions dû le faire plus tôt, » a écrit Kaplan.
Claude.ai : Une plateforme d’intelligence artificielle innovante
Claude.ai est une plateforme web qui utilise l’intelligence artificielle pour offrir divers services aux utilisateurs. Bien que les informations disponibles