La Maison Blanche établit des lignes directrices étendues en matière d’IA pour le gouvernement fédéral.

Il y a cinq mois que le président Joe Biden a signé un décret exécutif pour répondre aux avancées rapides de l’intelligence artificielle. La Maison Blanche franchit aujourd’hui une nouvelle étape dans la mise en œuvre du décret avec une politique visant à réglementer l’utilisation de l’IA par le gouvernement fédéral. Parmi les mesures de sécurité que les agences doivent mettre en place figurent, entre autres, des moyens d’atténuer le risque de biais algorithmique. « Je crois que tous les leaders, qu’ils viennent du gouvernement, de la société civile ou du secteur privé, ont le devoir moral, éthique et sociétal de veiller à ce que l’intelligence artificielle soit adoptée et développée de manière à protéger le public contre les dommages potentiels tout en veillant à ce que tout le monde puisse profiter de ses avantages », a déclaré la vice-présidente Kamala Harris lors d’une conférence téléphonique avec des journalistes. Harris a annoncé trois exigences contraignantes dans le cadre d’une nouvelle politique du Bureau de la gestion et du budget. Tout d’abord, les agences devront s’assurer que les outils d’IA qu’elles utilisent « ne mettent pas en danger les droits et la sécurité du peuple américain ». Elles ont jusqu’au 1er décembre pour s’assurer qu’elles ont mis en place des « mesures de sécurité concrètes » pour garantir que les systèmes d’IA qu’elles emploient n’impactent pas la sécurité ou les droits des Américains. Sinon, l’agence devra cesser d’utiliser un produit d’IA à moins que ses dirigeants ne puissent justifier que l’abandon du système aurait un impact « inacceptable » sur des opérations critiques. Selon la politique, un système d’IA est réputé impacter la sécurité s’il « est utilisé ou est censé être utilisé, dans des conditions réelles, pour contrôler ou influencer significativement les résultats » de certaines activités et décisions. Celles-ci comprennent le maintien de l’intégrité des élections et de l’infrastructure de vote ; le contrôle des fonctions de sécurité critiques des infrastructures comme les systèmes d’eau, les services d’urgence et les réseaux électriques ; les véhicules autonomes ; et le fonctionnement des mouvements physiques des robots dans un « environnement de travail, une école, un logement, un moyen de transport, une structure médicale ou d’application de la loi ». À moins d’avoir mis en place des mesures de sécurité appropriées ou de pouvoir justifier leur utilisation, les agences devront également abandonner les systèmes d’IA qui portent atteinte aux droits des Américains. Les objectifs que la politique présume d’impacter les droits incluent la police prédictive ; la surveillance des médias sociaux par les forces de l’ordre ; la détection du plagiat dans les écoles ; le blocage ou la limitation de la liberté d’expression protégée ; la détection ou la mesure des émotions et des pensées humaines ; le screening pré-embauche ; et « la reproduction de l’apparence ou de la voix d’une personne sans son consentement explicite ».

Share the Post: