La Maison Blanche établit des directives approfondies sur l’IA pour le gouvernement fédéral.

Cela fait cinq mois depuis que le président Joe Biden a signé un décret présidentiel visant à aborder les avancées rapides en matière d’intelligence artificielle. La Maison Blanche franchit aujourd’hui une nouvelle étape dans la mise en œuvre de ce décret avec une politique visant à réguler l’utilisation de l’IA par le gouvernement fédéral. Les mesures de protection que les agences doivent mettre en place comprennent, entre autres choses, des moyens d’atténuer les risques de biais algorithmique. « Je crois que tous les dirigeants du gouvernement, de la société civile et du secteur privé ont un devoir moral, éthique et sociétal de veiller à ce que l’intelligence artificielle soit adoptée et développée de manière à protéger le public contre d’éventuels dommages tout en garantissant que tout le monde puisse profiter de ses avantages », a déclaré la vice-présidente Kamala Harris aux journalistes lors d’une conférence de presse. Harris a annoncé trois exigences contraignantes dans le cadre d’une nouvelle politique du Bureau de la gestion et du budget. Tout d’abord, les agences devront s’assurer que les outils d’IA qu’elles utilisent « ne mettent pas en danger les droits et la sécurité du peuple américain ». Elles auront jusqu’au 1er décembre pour s’assurer qu’elles disposent de « dispositifs de protection concrets » afin de garantir que les systèmes d’IA qu’elles emploient n’affectent pas la sécurité ou les droits des Américains. Sinon, l’agence devra cesser d’utiliser un produit d’IA à moins que ses dirigeants ne puissent justifier que l’abandon du système aurait un impact « inacceptable » sur les opérations critiques. Conformément à la politique, un système d’IA est considéré comme ayant un impact sur la sécurité s’il « est utilisé ou prévu d’être utilisé, dans des conditions réelles, pour contrôler ou influencer de manière significative les résultats » de certaines activités et décisions. Cela inclut le maintien de l’intégrité des élections et de l’infrastructure électorale; le contrôle des fonctions de sécurité critiques des infrastructures comme les systèmes d’eau, les services d’urgence et les réseaux électriques; les véhicules autonomes; et le contrôle des mouvements physiques des robots dans « un lieu de travail, une école, un logement, un moyen de transport, un milieu médical ou de maintien de l’ordre ». À moins d’avoir mis en place des mesures de protection appropriées ou de pouvoir justifier autrement leur utilisation, les agences devront également abandonner les systèmes d’IA qui portent atteinte aux droits des Américains. Les objectifs que la politique suppose avoir un impact sur les droits incluent la police prédictive; la surveillance des médias sociaux à des fins d’application de la loi; la détection du plagiat dans les écoles; le blocage ou la limitation de la liberté d’expression protégée; la détection ou la mesure des émotions et des pensées humaines; le dépistage avant l’embauche; et « la réplication de l’apparence ou de la voix d’une personne sans un consentement explicite ».

Share the Post: