L’agence américaine chargée de maîtriser les risques liés à l’IA n’a pas les moyens de le faire.

Le plan du président américain Joe Biden pour maîtriser les dangers de l’intelligence artificielle risque déjà d’être saboté par des comptables du Congrès. Un ordre exécutif de la Maison Blanche sur l’IA annoncé en octobre demande aux États-Unis de développer de nouveaux critères de test de stress pour les systèmes IA afin de découvrir leurs biais, leurs menaces cachées et leurs tendances anarchiques. Mais l’agence chargée de définir ces normes, le National Institute of Standards and Technology (NIST), manque des ressources nécessaires pour effectuer ce travail de manière indépendante d’ici la date limite du 26 juillet 2024, selon plusieurs personnes au courant du travail. S’exprimant lors du NeurIPS AI à la conférence de La Nouvelle-Orléans la semaine dernière, Elham Tabassi, directrice adjointe des technologies émergentes au NIST, a décrit cela comme «une date limite presque impossible» pour l’agence. Certains membres du Congrès ont exprimé leur inquiétude quant au fait que le NIST sera contraint de s’appuyer fortement sur l’expertise en IA des entreprises privées, dont les propres projets d’IA les amènent à avoir un intérêt direct à façonner les normes. Le gouvernement américain a déjà fait appel au NIST pour aider à réglementer l’IA. En janvier 2023, l’agence a publié un cadre de gestion des risques en IA pour guider les entreprises et le gouvernement. Le NIST a également mis au point des moyens de mesurer la confiance du public dans les nouveaux outils d’IA. Mais l’agence, qui normalise tout, des ingrédients alimentaires aux matériaux radioactifs et aux horloges atomiques, dispose de ressources minimes par rapport à celles des entreprises à la pointe de l’IA. OpenAI, Google et Meta ont probablement dépensé chacun plus de 100 millions de dollars pour former les modèles linguistiques puissants qui sous-tendent des applications telles que ChatGPT, Bard et Llama 2.

Share the Post: