Depuis la diffusion généralisée de systèmes d’intelligence artificielle (IA) génératifs tels que ChatGPT, il y a eu un appel de plus en plus fort pour les réglementer, étant donné leur puissance, leur capacité de transformation et leur potentiel dangereux. L’ordre exécutif attendu depuis longtemps du président Joe Biden sur le développement et l’utilisation sûrs, sécurisés et fiables de l’intelligence artificielle est une tentative de le faire, en tenant compte des objectifs déclarés de l’administration et dans les limites du pouvoir de l’exécutif. L’ordonnance, que le président a signée lundi, s’appuie sur les efforts précédents de l’administration visant à garantir que les puissants systèmes d’IA sont sûrs et utilisés de manière responsable. « Cet ordre exécutif historique est un témoignage de ce que nous défendons : la sécurité, la sûreté, la confiance, l’ouverture, le leadership américain et les droits incontestables conférés par un créateur que nulle création ne peut enlever », a déclaré Biden dans un court discours avant de signer l’ordonnance. Ce long ordre est une tentative ambitieuse de concilier les espoirs et les craintes de tous, des PDG de la technologie aux défenseurs des droits civiques, tout en précisant comment la vision de Biden pour l’IA s’inscrit dans sa vision globale. Il montre également les limites du pouvoir de l’exécutif. Bien que l’ordonnance soit plus contraignante que les engagements volontaires que Biden a obtenus de certaines des plus grandes entreprises d’IA, bon nombre de ses dispositions n’ont pas (et ne peuvent pas) avoir force de loi, et leur efficacité dépendra en grande partie de la manière dont les agences nommées dans l’ordonnance les mettent en œuvre. Elles peuvent également dépendre de la contestation en justice des capacités de ces agences à établir de telles réglementations. En résumé, l’ordonnance demande à diverses agences et départements fédéraux chargés de superviser des domaines allant du logement à la santé en passant par la sécurité nationale de créer des normes et des réglementations pour l’utilisation et la surveillance de l’IA. Cela inclut des directives sur l’utilisation responsable de l’IA dans des domaines tels que la justice pénale, l’éducation, les soins de santé, le logement et le travail, en mettant l’accent sur la protection des droits et des libertés des Américains. Les agences et les départements développeront également des lignes directrices auxquelles les développeurs d’IA doivent adhérer lorsqu’ils construisent et déploient cette technologie, et dicteront comment le gouvernement utilise l’IA. Il y aura de nouvelles exigences de rapport et de test pour les entreprises d’IA derrière les modèles les plus grands et les plus puissants. L’utilisation (et la création) responsable de systèmes d’IA plus sûrs est encouragée autant que possible. L’administration Biden a veillé à présenter l’ordonnance comme un moyen d’équilibrer les risques potentiels de l’IA avec ses récompenses : « C’est la prochaine étape d’une stratégie agressive visant à tout faire sur tous les fronts pour exploiter les avantages de l’IA et atténuer les risques », a déclaré Bruce Reed, chef de cabinet adjoint de la Maison Blanche, dans un communiqué.
‘NVIDIA Avance l’Apprentissage Robotique et le Développement Humanoid avec de Nouveaux Outils d’IA et de Simulation’
Cette semaine à la Conférence sur l’apprentissage des robots (CoRL) à Munich, en Allemagne, NVIDIA a divulgué une pléthore de