Google a élargi son programme de récompense pour les bogues pour y inclure ses produits de IA, et paiera les pirates éthiques pour trouver les failles classiques de sécurité de l’information et le mauvais comportement des robots. La Fabrique de Chocolat veut que les chasseurs de bogues explorent cinq catégories d’attaques. Ces dernières incluent des techniques comme l’injection de invite, dans laquelle un attaquant utilise des invite adverses pour manipuler la sortie des grands modèles de langage de telle sorte qu’ils annuleront les instructions précédentes et feront quelque chose de complètement différent. Aussi sur la liste, il y a l’extraction de données d’entraînement – essentiellement reconstruire les données d’entraînement pour fuiter des informations sensibles – et d’autres attaques de manipulation de modèle qui portent soit des portes dérobées aux systèmes ou fournissent des données d’entraînement empoisonnées pour modifier le comportement du modèle. Google paiera également des récompenses pour les attaques de perturbation adversaire dans lesquelles un attaquant fournit des entrées pour déclencher une mauvaise classification dans un contrôle de sécurité, et enfin le bon vieux vol de données – étant spécifique aux données confidentielles ou propriétaires d’entraînement de modèle, dans ce cas.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)