Google a élargi son programme de prime aux bogues pour inclure ses produits d’IA et paiera les pirates éthiques pour trouver des vulnérabilités classiques en infosec et des comportements de bots mauvais. La Fabrique de Chocolat veut que les chasseurs de bogues explorent cinq catégories d’attaques. Ces attaques incluent des techniques comme l’injection de invite, dans laquelle un attaquant utilise des invite adversaires pour manipuler la sortie des grands modèles de langue de telle manière qu’ils ignoreront les instructions précédentes et feront quelque chose de complètement différent. Aussi sur la liste, l’extraction de données d’entraînement – essentiellement reconstruire les données d’entraînement pour fuiter des informations sensibles – et d’autres attaques de manipulation de modèle qui portent soit des portes dérobées ou fournissent des données d’entraînement empoisonnées pour modifier le comportement du modèle. Google paiera également des récompenses pour les attaques de perturbation adversaire dans lesquelles un attaquant fournit des entrées pour déclencher une mauvaise classification dans un contrôle de sécurité, et enfin, le bon vieux vol de données – en se concentrant sur les données confidentielles ou propriétaires de formation de modèle, dans ce cas.
Nouveau générateur vidéo AI de haute qualité Pyramid Flow lancé – et il est entièrement open source!
Restez connecté aux dernières tendances en matière d’IA en vous abonnant à nos newsletters régulières qui livrent des informations de