Résultats de recherche de Google pollués par un code écrit par une IA défectueuse frustrant les codeurs.

L’analyse de Google a indexé des échantillons incorrects d’infrastructure-as-code produits par Pulumi AI – un développeur qui utilise un chatbot IA pour générer de l’infrastructure – et les recettes pourries apparaissent déjà en haut des résultats de recherche. Ce chaos a débuté avec la décision de Pulumi de publier le résultat des incitations de ses utilisateurs sur une page d’AI Answers sélectionnée. Les robots de Google ont indexé les réponses automatisées résultantes – mais lorsque les utilisateurs les trouvent, les réponses de l’IA sont souvent incorrectes. « C’est arrivé », a écrit le développeur Arian van Putten dans un post sur les réseaux sociaux ce week-end. « Le premier résultat Google était une page officielle de documentation de Pulumi clairement écrite par un LLM (avec un avertissement que c’était le cas) et a imaginé une fonctionnalité AWS qui n’existait pas. C’est le début de la fin. » Comme l’a constaté The Register en 2022 et rapporté en janvier de cette année, la qualité des recherches a diminué car les moteurs de recherche indexent du contenu généré par une IA de mauvaise qualité et le présentent dans les résultats de recherche. Il s’agit donc d’une préoccupation continue. Pulumi AI et son archive en ligne de réponses, AI Answers, en sont un exemple. Le crawler de recherche de Google indexe la sortie de l’IA de Pulumi et la présente aux utilisateurs de recherche aux côtés de liens vers du contenu rédigé par des humains. Des développeurs de logiciels ont constaté que certaines de ces documentations rédigées par l’IA et du code produit sont incorrects, voire non fonctionnels.

Share the Post: