Google a étendu son programme de prime aux bogues pour inclure ses produits IA et paiera les pirates éthiques pour trouver des failles en matière de sécurité conventionnelles et un mauvais comportement de bot. La Fabrique de Chocolat veut que les chasseurs de bogues fouinent dans cinq catégories d’attaques. Ces dernières incluent des techniques comme l’injection de invite, dans laquelle un attaquant utilise des invite adverses pour manipuler la sortie des grands modèles de langage de telle sorte qu’elle annule les instructions précédentes et fasse quelque chose de complètement différent. Également sur la liste, il y a l’extraction de données d’entraînement, qui consiste essentiellement à reconstruire les données d’entraînement pour fuiter des informations sensibles, ainsi que d’autres attaques de manipulation de modèle qui contournent les systèmes ou fournissent des données d’entraînement empoisonnées pour modifier le comportement du modèle. Google paiera également des récompenses pour des attaques de perturbation adversaire dans lesquelles un attaquant fournit des entrées pour déclencher une mauvaise classification dans un contrôle de sécurité, et enfin de bonnes vieilles attaques de vol de données, en se concentrant sur les données confidentielles ou proprietary de formation de modèle, dans ce cas.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation