« Les rapports de bogues générés par l’IA sont sérieusement ennuyants pour les développeurs. »

Les modèles d’IA génératifs tels que Google Bard et GitHub Copilot rencontrent un problème utilisateur : ceux qui dépendent de l’assistance logicielle peuvent ne pas comprendre ou se soucier des limites de ces outils d’apprentissage automatique. Cela a été relevé dans divers secteurs. Des avocats ont été sanctionnés pour avoir cité des affaires inventées par des chatbots dans leurs dépôts légaux. Des publications ont été vilipendées pour des articles attribués à des auteurs fictifs. Et le contenu médical généré par ChatGPT est précis à environ 7 pour cent. Bien que les modèles d’IA aient démontré leur utilité dans le développement de logiciels, ils commettent encore de nombreuses erreurs. Les développeurs attentifs peuvent atténuer ces lacunes, mais cela ne se produit pas toujours, que ce soit par ignorance, indifférence ou mauvaise intention. Et lorsque l’IA est autorisée à semer le désordre, le coût du nettoyage est transféré à quelqu’un d’autre. Le mardi, Daniel Stenberg, fondateur et développeur principal des projets open source largement utilisés curl et libcurl, a soulevé cette question dans un billet de blog dans lequel il décrit le problème de déchets créé par une utilisation irréfléchie de l’IA dans la recherche en sécurité. Le projet curl offre une prime pour les chercheurs en sécurité qui découvrent et signalent des vulnérabilités légitimes. Selon Stenberg, le programme a déjà versé plus de 70 000 dollars de récompenses à ce jour. Sur les 415 rapports de vulnérabilités reçus, 64 ont été confirmés comme des failles de sécurité et 77 ont été considérés comme informatifs – des bugs sans conséquences de sécurité évidentes. Donc, environ 66 pour cent des rapports se sont avérés invalides.

Share the Post: