Analyse Google a indexé des échantillons inexactes d’infrastructure en tant que code produit par Pulumi AI – un développeur qui utilise un chatbot IA pour générer de l’infrastructure – et les recettes pourries apparaissent déjà en haut des résultats de recherche. Ce désordre a commencé avec la décision de Pulumi de publier le résultat des incitations de ses utilisateurs sur une page AI Answers organisée. Les robots de Google ont indexé les réponses automatisées résultantes – mais lorsque les utilisateurs les trouvent, les réponses IA sont souvent inexactes. « C’est arrivé », a écrit le développeur Arian van Putten dans un post sur les réseaux sociaux ce week-end. « Le premier résultat de recherche Google était une page de documentation officielle de Pulumi clairement rédigée par un LLM (avec une mention légale indiquant cela) et a imaginé une fonctionnalité AWS qui n’existait pas. C’est le début de la fin. » Comme l’a souligné The Register en 2022 et rapporté en janvier de cette année, la qualité de la recherche a diminué car les moteurs de recherche indexent du contenu généré par IA de faible qualité et le présentent dans les résultats de recherche. Il s’agit toujours d’un domaine de préoccupation. Pulumi AI et son archive en ligne des réponses, AI Answers, en sont un exemple. Le crawler de recherche de Google indexe la production de l’IA de Pulumi et la présente aux utilisateurs de recherche aux côtés de liens vers du contenu rédigé par des humains. Les développeurs de logiciels ont constaté que certaines de la documentation et du code produites par l’IA étaient inexactes, voire non fonctionnelles.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)