Les chasseurs de bounty de bug chargent pour traquer l’IA et espèrent gagner de gros sous.

Google a étendu son programme de prime aux bogues pour inclure ses produits IA et paiera les pirates éthiques pour trouver des failles en matière de sécurité conventionnelles et un mauvais comportement de bot. La Fabrique de Chocolat veut que les chasseurs de bogues fouinent dans cinq catégories d’attaques. Ces dernières incluent des techniques comme l’injection de invite, dans laquelle un attaquant utilise des invite adverses pour manipuler la sortie des grands modèles de langage de telle sorte qu’elle annule les instructions précédentes et fasse quelque chose de complètement différent. Également sur la liste, il y a l’extraction de données d’entraînement, qui consiste essentiellement à reconstruire les données d’entraînement pour fuiter des informations sensibles, ainsi que d’autres attaques de manipulation de modèle qui contournent les systèmes ou fournissent des données d’entraînement empoisonnées pour modifier le comportement du modèle. Google paiera également des récompenses pour des attaques de perturbation adversaire dans lesquelles un attaquant fournit des entrées pour déclencher une mauvaise classification dans un contrôle de sécurité, et enfin de bonnes vieilles attaques de vol de données, en se concentrant sur les données confidentielles ou proprietary de formation de modèle, dans ce cas.

Share the Post: