« Les rapports de bogues générés par l’IA sont sérieusement agaçants pour les développeurs. »

Les modèles d’IA générative tels que Google Bard et GitHub Copilot rencontrent un problème utilisateur : ceux qui dépendent de l’assistance logicielle peuvent ne pas comprendre ou se soucier des limitations de ces outils d’apprentissage automatique. Cela est apparu dans diverses industries. Des avocats ont été sanctionnés pour avoir cité des affaires inventées par des chatbots dans leurs dépôts juridiques. Des publications ont été critiquées pour des articles attribués à des auteurs fictifs. Et le contenu médical généré par ChatGPT est précis à environ 7 pour cent. Bien que les modèles d’IA aient démontré leur utilité pour le développement de logiciels, ils se trompent encore sur de nombreux points. Les développeurs attentifs peuvent atténuer ces lacunes, mais cela ne se produit pas toujours – en raison de l’ignorance, de l’indifférence ou de la mauvaise intention. Et lorsque l’IA est autorisée à faire des dégâts, le coût du nettoyage est reporté sur quelqu’un d’autre. Le mardi, Daniel Stenberg, le fondateur et le développeur principal des projets open source largement utilisés curl et libcurl, a soulevé ce problème dans un article de blog dans lequel il décrit le problème de déchets créé par l’utilisation cavalière de l’IA pour la recherche en sécurité. Le projet curl propose une prime aux chercheurs en sécurité qui trouvent et signalent des vulnérabilités légitimes. Selon Stenberg, le programme a versé plus de 70 000 dollars de récompenses à ce jour. Sur les 415 rapports de vulnérabilités reçus, 64 ont été confirmés comme des failles de sécurité et 77 ont été jugés informatifs – des bogues sans implications de sécurité évidentes. Environ 66 pour cent des rapports se sont avérés invalides.

Share the Post: