« Les rapports de bugs générés par l’IA sont sérieusement agaçants pour les développeurs. »

Les modèles d’IA générative tels que Google Bard et GitHub Copilot ont un problème d’utilisation : ceux qui dépendent de l’assistance logicielle peuvent ne pas comprendre ou se soucier des limitations de ces outils d’apprentissage automatique. Cela s’est produit dans divers secteurs. Des avocats ont été sanctionnés pour avoir cité des affaires inventées par des chatbots dans leurs documents juridiques. Des publications ont été critiquées pour des articles attribués à de faux auteurs. Et le contenu médical généré par ChatGPT est précis à environ 7 pour cent. Bien que les modèles d’IA aient démontré leur utilité dans le développement logiciel, ils commettent encore de nombreuses erreurs. Les développeurs attentifs peuvent atténuer ces lacunes, mais cela ne se produit pas toujours – en raison de l’ignorance, de l’indifférence ou d’une intention malveillante. Et lorsque l’IA est autorisée à causer des problèmes, le coût du nettoyage incombe à quelqu’un d’autre. Le mardi, Daniel Stenberg, le fondateur et principal développeur des projets open source largement utilisés curl et libcurl, a soulevé ce problème dans un article de blog où il décrit le problème de futilité créé par l’utilisation cavalière de l’IA pour la recherche en sécurité. Le projet curl propose une récompense en cas de découverte et de signalement de vulnérabilités légitimes pour les chercheurs en sécurité. Selon Stenberg, le programme a versé plus de 70 000 dollars de récompenses à ce jour. Sur 415 rapports de vulnérabilité reçus, 64 ont été confirmés comme étant des failles de sécurité et 77 ont été jugés informatifs – des bugs sans implications évidentes pour la sécurité. Ainsi, environ 66 pour cent des rapports étaient invalides.

Share the Post: