Google a élargi son programme de chasse aux bugs pour inclure ses produits IA et paiera les pirates éthiques pour trouver des failles en matière de cybersécurité classiques et des comportements de mauvais bots. La Fabrique de Chocolat veut que les chasseurs de bugs explorent cinq catégories d’attaques. Ces dernières incluent des techniques comme l’injection de invites, dans laquelle un attaquant utilise des invites adverses pour manipuler la sortie des grands modèles de langage afin qu’elle ignore les instructions précédentes et fasse quelque chose de complètement différent. Figure également sur la liste l’extraction de données d’entraînement, qui consiste essentiellement à reconstruire les données d’entraînement pour fuiter des informations sensibles, ainsi que d’autres attaques de manipulation de modèles qui introduisent des portes dérobées ou fournissent des données d’entraînement empoisonnées pour modifier le comportement du modèle. Google paiera également des primes pour les attaques de perturbation adversaire dans lesquelles un attaquant fournit des entrées pour déclencher une mauvaise classification dans un contrôle de sécurité, et enfin les bonnes vieilles attaques de vol de données, en se concentrant sur les données confidentielles ou propriétaires utilisées pour entraîner des modèles, dans ce cas.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)