Il y a cinq mois que le président Joe Biden a signé un décret visant à traiter les avancées rapides dans le domaine de l’intelligence artificielle. Aujourd’hui, la Maison Blanche fait un pas de plus dans la mise en oeuvre de ce décret en adoptant une politique visant à réguler l’utilisation de l’IA par le gouvernement fédéral. Les mesures de protection que les agences doivent mettre en place incluent, entre autres, des moyens pour atténuer les risques de biais algorithmique. « Je crois que tous les dirigeants du gouvernement, de la société civile et du secteur privé ont un devoir moral, éthique et sociétal de veiller à ce que l’intelligence artificielle soit adoptée et développée de manière à protéger le public contre les dommages potentiels tout en garantissant que chacun puisse bénéficier de ses avantages, » a déclaré la vice-présidente Kamala Harris lors d’une conférence de presse. Harris a annoncé trois exigences contraignantes dans le cadre d’une nouvelle politique du Bureau de la gestion et du budget. Premièrement, les agences devront s’assurer que les outils d’IA qu’elles utilisent « ne mettent pas en danger les droits et la sécurité du peuple américain ». Elles ont jusqu’au 1er décembre pour garantir qu’elles mettent en place des « mesures de protection concrètes » afin de veiller à ce que les systèmes d’IA qu’elles emploient n’affectent pas la sécurité ou les droits des Américains. Sinon, l’agence devra cesser d’utiliser un produit d’IA à moins que ses dirigeants puissent justifier que l’abandon du système aurait un impact « inacceptable » sur les opérations critiques. Selon la politique, un système d’IA est considéré comme impactant la sécurité s’il « est utilisé ou est prévu d’être utilisé, dans des conditions réelles, pour contrôler ou influencer significativement les résultats » de certaines activités et décisions. Celles-ci incluent le maintien de l’intégrité des élections et des infrastructures de vote ; le contrôle des fonctions de sécurité critiques des infrastructures comme les systèmes d’eau, les services d’urgence et les réseaux électriques ; les véhicules autonomes ; et le contrôle des mouvements physiques des robots dans « un lieu de travail, une école, un logement, un moyen de transport, un environnement médical ou d’application de la loi ». Sauf s’ils disposent des mesures de protection appropriées ou peuvent justifier leur utilisation, les agences devront également abandonner les systèmes d’IA qui portent atteinte aux droits des Américains. Les objectifs supposés impacter les droits par la politique incluent la police prédictive ; la surveillance des réseaux sociaux pour les forces de l’ordre ; la détection de plagiat dans les écoles ; le blocage ou la limitation de la liberté d’expression protégée ; la détection ou la mesure des émotions et thoughts humains ; le screening pré-embauche ; et « la reproduction de l’apparence ou de la voix d’une personne sans consentement exprès ».
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)