« Les rapports de bugs générés par l’IA sont vraiment agaçants pour les développeurs. »

Les modèles d’IA générateurs tels que Google Bard et GitHub Copilot ont un problème utilisateur : ceux qui dépendent de l’assistance logicielle peuvent ne pas comprendre ou se soucier des limites de ces outils d’apprentissage automatique. Cela s’est manifesté dans divers domaines. Des avocats ont été sanctionnés pour avoir cité des affaires inventées par des chatbots dans leurs dépôts légaux. Des publications ont été critiquées pour des articles attribués à de faux auteurs. Et le contenu médical généré par ChatGPT est précis à environ 7%. Bien que les modèles d’IA aient démontré leur utilité pour le développement logiciel, ils font toujours beaucoup d’erreurs. Les développeurs attentifs peuvent atténuer ces lacunes, mais cela ne se produit pas toujours, en raison de l’ignorance, de l’indifférence ou de mauvaises intentions. Et lorsque l’IA est autorisée à provoquer un désordre, le coût du nettoyage est reporté sur quelqu’un d’autre. Le mardi, Daniel Stenberg, fondateur et développeur principal de projets open source largement utilisés tels que curl et libcurl, a soulevé ce problème dans un article de blog où il décrit le problème des déchets créé par une utilisation cavalière de l’IA pour la recherche en sécurité. Le projet curl propose une récompense pour les chercheurs en sécurité qui découvrent et signalent des vulnérabilités légitimes. Selon Stenberg, le programme a versé plus de 70 000 dollars de récompenses à ce jour. Sur 415 rapports de vulnérabilité reçus, 64 ont été confirmés comme des failles de sécurité et 77 ont été jugés informatifs – des bugs sans implications de sécurité évidentes. Donc environ 66% des rapports se sont révélés invalides.

Share the Post: