« Les rapports de bugs générés par l’IA sont sérieusement ennuyants pour les développeurs. »

Les modèles d’IA génératifs tels que Google Bard et GitHub Copilot rencontrent un problème utilisateur : ceux qui comptent sur une assistance logicielle peuvent ne pas comprendre ou se soucier des limitations de ces outils d’apprentissage automatique. Cela s’est produit dans divers secteurs. Des avocats ont été sanctionnés pour avoir cité des affaires inventées par des chatbots dans leurs dépôts légaux. Des publications ont été critiquées pour des articles attribués à de faux auteurs. Et le contenu médical généré par ChatGPT est précis à environ 7 pour cent. Bien que les modèles d’IA aient démontré leur utilité pour le développement de logiciels, ils commettent encore de nombreuses erreurs. Les développeurs attentifs peuvent atténuer ces lacunes, mais cela n’arrive pas toujours, par ignorance, indifférence ou intention malveillante. Et lorsque l’IA est autorisée à causer des problèmes, le coût du nettoyage est transféré à quelqu’un d’autre. Mardi, Daniel Stenberg, le fondateur et principal développeur des projets open source largement utilisés curl et libcurl, a soulevé ce problème dans un billet de blog dans lequel il décrit le problème de la pollution causé par une utilisation négligente de l’IA dans la recherche en sécurité. Le projet Curl offre une récompense aux chercheurs en sécurité qui découvrent et signalent des vulnérabilités légitimes. Selon Stenberg, le programme a déjà versé plus de 70 000 dollars en récompenses à ce jour. Sur 415 rapports de vulnérabilités reçus, 64 ont été confirmés comme des failles de sécurité et 77 ont été jugés informatifs, c’est-à-dire des bugs sans implications de sécurité évidentes. Donc environ 66 pour cent des rapports étaient invalides.

Share the Post: