« Les intelligences artificielles hallucinent des paquets logiciels et les développeurs les téléchargent – même s’ils peuvent être empoisonnés par des logiciels malveillants. »

En profondeur Plusieurs grandes entreprises ont publié du code source qui intègre un package logiciel précédemment halluciné par une IA générative. Non seulement cela, mais quelqu’un, ayant repéré cette hallucination récurrente, avait transformé cette dépendance inventée en une réelle, qui a ensuite été téléchargée et installée des milliers de fois par des développeurs suite à de mauvais conseils de l’IA, avons-nous appris. Si le package avait été contaminé par un logiciel malveillant réel au lieu d’être un test inoffensif, les conséquences auraient pu être désastreuses. Selon Bar Lanyado, chercheur en sécurité chez Lasso Security, l’une des entreprises trompées par l’IA pour intégrer le package est Alibaba, qui, au moment où nous écrivons, inclut toujours une commande pip pour télécharger le package Python huggingface-cli dans ses instructions d’installation de GraphTranslator. Il existe un huggingface-cli légitime, installé en utilisant pip install -U « huggingface_hub[cli] ». Mais le huggingface-cli distribué via l’Index des packages Python (PyPI) et requis par le GraphTranslator d’Alibaba – installé en utilisant pip install huggingface-cli – est faux, imaginé par l’IA et rendu réel par Lanyado comme une expérience.

Share the Post: