« Les rapports de bogues générés par l’IA sont vraiment agaçants pour les développeurs. »

Les modèles d’IA générative tels que Google Bard et GitHub Copilot posent un problème aux utilisateurs : ceux qui dépendent de l’assistance logicielle peuvent ne pas comprendre ou se soucier des limites de ces outils d’apprentissage automatique. Cela a été soulevé dans divers secteurs. Des avocats ont été sanctionnés pour avoir cité des affaires inventées par des chatbots dans leurs documents juridiques. Des publications ont été critiquées pour des articles attribués à des auteurs fictifs. Et le contenu médical généré par ChatGPT est précis à environ 7 pour cent. Bien que les modèles d’IA aient démontré leur utilité pour le développement logiciel, ils se trompent souvent. Les développeurs attentifs peuvent atténuer ces lacunes, mais cela ne se produit pas toujours, en raison de l’ignorance, de l’indifférence ou de la mauvaise intention. Et lorsque l’IA est autorisée à faire des erreurs, le coût de la correction est reporté sur quelqu’un d’autre. Le mardi, Daniel Stenberg, le fondateur et le développeur principal des projets à code source ouvert largement utilisés curl et libcurl, a soulevé ce problème dans un article de blog dans lequel il décrit le problème de déchets créé par une utilisation nonchalante de l’IA pour la recherche en sécurité.
Le projet curl offre une prime de bug aux chercheurs en sécurité qui découvrent et signalent des vulnérabilités légitimes. Selon Stenberg, le programme a versé plus de 70 000 dollars de récompenses à ce jour. Sur 415 rapports de vulnérabilités reçus, 64 ont été confirmés comme étant des failles de sécurité et 77 ont été jugés informatifs, c’est-à-dire des bugs sans implications de sécurité évidentes. Ainsi, environ 66 pour cent des rapports se sont révélés invalides.

Share the Post: