Les intelligences artificielles hallucinent des packages logiciels et les développeurs les téléchargent – même s’ils sont potentiellement empoisonnés par des logiciels malveillants.

En profondeur, plusieurs grandes entreprises ont publié du code source qui intègre un package logiciel précédemment halluciné par une IA générative. Non seulement cela, mais quelqu’un, ayant repéré cette hallucination récurrente, a transformé cette dépendance fictive en une réelle, qui a ensuite été téléchargée et installée des milliers de fois par des développeurs en raison des mauvais conseils de l’IA, nous avons appris. Si le package avait été contaminé par un véritable logiciel malveillant, au lieu d’être un simple test inoffensif, les conséquences auraient pu être désastreuses. Selon Bar Lanyado, chercheur en sécurité chez Lasso Security, l’une des entreprises trompées par l’IA en incorporant le package est Alibaba, qui, au moment de la rédaction, inclut toujours une commande pip pour télécharger le package Python huggingface-cli dans ses instructions d’installation GraphTranslator. Il existe un huggingface-cli légitime, installé à l’aide de pip install -U « huggingface_hub[cli] ». Mais le huggingface-cli distribué via l’Index des Packages Python (PyPI) et requis par GraphTranslator d’Alibaba – installé à l’aide de pip install huggingface-cli – est faux, imaginé par l’IA et rendu réel par Lanyado comme une expérience.

Share the Post: