‘Les chasseurs de primes de bogues se mettent en chasse pour traquer les IA et espèrent gagner gros’

Google a élargi son programme de prime aux bogues pour inclure ses produits d’IA et paiera les pirates éthiques pour trouver des vulnérabilités classiques en infosec et des comportements de bots mauvais. La Fabrique de Chocolat veut que les chasseurs de bogues explorent cinq catégories d’attaques. Ces attaques incluent des techniques comme l’injection de invite, dans laquelle un attaquant utilise des invite adversaires pour manipuler la sortie des grands modèles de langue de telle manière qu’ils ignoreront les instructions précédentes et feront quelque chose de complètement différent. Aussi sur la liste, l’extraction de données d’entraînement – essentiellement reconstruire les données d’entraînement pour fuiter des informations sensibles – et d’autres attaques de manipulation de modèle qui portent soit des portes dérobées ou fournissent des données d’entraînement empoisonnées pour modifier le comportement du modèle. Google paiera également des récompenses pour les attaques de perturbation adversaire dans lesquelles un attaquant fournit des entrées pour déclencher une mauvaise classification dans un contrôle de sécurité, et enfin, le bon vieux vol de données – en se concentrant sur les données confidentielles ou propriétaires de formation de modèle, dans ce cas.

Share the Post: