L’agence américaine chargée de réduire les risques liés à l’IA n’a pas les fonds nécessaires pour accomplir sa mission.

Le plan de Joe Biden pour contenir les dangers de l’intelligence artificielle risque déjà d’être déraillé par les comptables du Congrès. Un ordre exécutif de la Maison Blanche sur l’IA annoncé en octobre appelle les États-Unis à élaborer de nouveaux critères pour mettre à l’épreuve les systèmes d’IA afin de déceler leurs biais, leurs menaces cachées et leurs tendances déviantes. Mais l’agence chargée de définir ces normes, l’Institut national américain des normes et de la technologie (NIST), manque des ressources nécessaires pour accomplir ce travail de manière indépendante avant la date limite du 26 juillet 2024, selon plusieurs personnes familiarisées avec le travail. S’exprimant lors de la conférence NeurIPS AI à La Nouvelle-Orléans la semaine dernière, Elham Tabassi, directrice adjointe des technologies émergentes au NIST, a décrit cela comme «une date limite presque impossible» pour l’agence. Certains membres du Congrès ont commencé à s’inquiéter du fait que le NIST sera contraint de s’appuyer fortement sur les expertises en IA des entreprises privées qui, en raison de leurs propres projets d’IA, ont un intérêt légitime à façonner les normes. Le gouvernement américain a déjà fait appel au NIST pour aider à réglementer l’IA. En janvier 2023, l’agence a publié un cadre de gestion des risques en IA pour guider les entreprises et les pouvoirs publics. Le NIST a également mis au point des moyens de mesurer la confiance du public dans les nouveaux outils d’IA. Mais l’agence, qui standardise tout, des ingrédients alimentaires aux matières radioactives et aux horloges atomiques, dispose de ressources dérisoires par rapport à celles des entreprises en pointe de l’IA. OpenAI, Google et Meta ont probablement dépensé chacun plus de 100 millions de dollars pour former les puissants modèles linguistiques qui sous-tendent des applications telles que ChatGPT, Bard et Llama 2.

Share the Post: