Depuis la sortie généralisée des systèmes d’IA générative tels que ChatGPT, il y a eu un appel de plus en plus fort à les réglementer, étant donné leur puissance, leur transformation et leur danger potentiel. Le décret exécutif longtemps promis du président Joe Biden sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle est une tentative de le faire, à travers les objectifs déclarés de l’administration et dans les limites du pouvoir de la branche exécutive. Le décret, que le président a signé lundi, s’appuie sur les efforts précédents de l’administration pour garantir que les systèmes d’IA puissants sont sûrs et utilisés de manière responsable. « Ce décret exécutif historique est un témoignage de ce que nous défendons : la sécurité, la confiance, l’ouverture, le leadership américain et les droits incontestables conférés par un créateur que toute création ne peut enlever », a déclaré Biden dans un court discours avant de signer le décret. Le long décret est une tentative ambitieuse pour concilier les espoirs et les craintes de tous, des PDG de la technologie aux défenseurs des droits civils, tout en précisant comment la vision de Biden pour l’IA s’inscrit dans sa vision de tout le reste. Il montre également les limites du pouvoir de la branche exécutive. Bien que le décret ait plus de poids que les engagements volontaires obtenus par Biden auprès de certaines des plus grandes entreprises d’IA, bon nombre de ses dispositions n’ont pas (et ne peuvent pas) avoir une force de loi derrière elles, et leur efficacité dépendra largement de la manière dont les agences nommées dans le décret les mettent en œuvre. Elles peuvent également dépendre si les capacités de ces agences à établir de telles réglementations sont contestées en justice. En résumé, le décret demande à diverses agences et départements fédéraux chargés de tout, du logement à la santé en passant par la sécurité nationale, d’établir des normes et des réglementations pour l’utilisation ou la supervision de l’IA. Cela comprend des directives sur l’utilisation responsable de l’IA dans des domaines tels que la justice pénale, l’éducation, les soins de santé, le logement et le travail, avec l’accent mis sur la protection des droits civils et des libertés des Américains. Les agences et les départements élaboreront également des lignes directrices auxquelles les développeurs d’IA doivent se conformer lorsqu’ils construisent et déploient cette technologie, et dicteront la manière dont le gouvernement utilise l’IA. Il y aura de nouvelles exigences en matière de rapports et de tests pour les entreprises d’IA à l’origine des modèles les plus grands et les plus puissants. L’utilisation (et la création) responsable de systèmes d’IA plus sûrs est encouragée autant que possible. L’administration Biden s’est assurée de présenter le décret comme un moyen d’équilibrer les risques potentiels de l’IA avec ses récompenses : « C’est l’étape suivante d’une stratégie agressive visant à tout mettre en œuvre sur tous les fronts pour exploiter les avantages de l’IA et atténuer les risques », a déclaré Bruce Reed, chef de cabinet adjoint de la Maison Blanche, dans un communiqué.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation