Google a élargi son programme de bounty de bug pour inclure ses produits IA, et paiera les pirates éthiques pour trouver des failles classiques en infosec et un mauvais comportement de bot. La Fabrique à Chocolat veut que les chasseurs de bug fouillent dans cinq catégories d’attaques. Ces techniques incluent des injections de invites, dans lesquelles un attaquant utilise des invites adversaires pour manipuler la sortie des grands modèles de langage de telle manière qu’elle annulera les instructions précédentes et fera quelque chose de complètement différent. Aussi sur la liste, l’extraction de données d’entraînement – essentiellement reconstruire les données d’entraînement pour fuiter des informations sensibles – et d’autres attaques de manipulation de modèle qui faussent les systèmes ou fournissent des données d’entraînement empoisonnées pour modifier le comportement du modèle. Google paiera également des primes pour les attaques de perturbation adversaire dans lesquelles un attaquant fournit des entrées pour déclencher une mauvaise classification dans un contrôle de sécurité, et enfin de bonnes vieilles attaques de vol de données – en se concentrant sur les données confidentielles ou propriétaires de formation de modèle, dans ce cas.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du