Les experts ont réussi à ouvrir des services d’IA fermés d’OpenAI et Google avec une attaque qui récupère une partie autrement cachée des modèles de transformation. L’attaque éclaire partiellement un type particulier de modèle de « boîte noire », révélant la couche de projection d’incrustation d’un modèle de transformation par des requêtes API. Le coût pour le faire varie de quelques dollars à plusieurs milliers, en fonction de la taille du modèle attaqué et du nombre de requêtes. Pas moins de 13 informaticiens de Google DeepMind, de l’ETH Zurich, de l’Université de Washington, d’OpenAI et de l’Université McGill ont rédigé un article décrivant l’attaque, qui s’appuie sur une technique d’attaque d’extraction de modèle proposée en 2016. « Pour moins de 20 USD, notre attaque extrait la matrice de projection entière des modèles de langage ada et babbage d’OpenAI », indiquent les chercheurs dans leur article. « Nous confirmons ainsi, pour la première fois, que ces modèles de boîte noire ont une dimension cachée de 1024 et 2048, respectivement. Nous récupérons également la taille exacte de la dimension cachée du modèle gpt-3.5-turbo, et estimons qu’il en coûterait moins de 2 000 $ en requêtes pour récupérer l’ensemble de la matrice de projection. » Les chercheurs ont divulgué leurs conclusions à OpenAI et Google, qui auraient tous deux mis en place des défenses pour atténuer l’attaque. Ils ont choisi de ne pas publier la taille de deux modèles OpenAI gpt-3.5-turbo, toujours en cours d’utilisation. Les modèles ada et babbage sont tous les deux obsolètes, il a donc été jugé inoffensif de divulguer leurs tailles respectives.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)