Oct 27, 2023
|
Natasha Crampton – Chef de la direction responsable des IA
Aujourd’hui, Microsoft partage une mise à jour de ses politiques et pratiques en matière de sécurité des IA à la veille du Sommet britannique sur la sécurité des IA. Le sommet fait partie d’une importante et dynamique conversation mondiale sur la manière dont nous pouvons tous contribuer à assurer les utilisations bénéfiques de l’IA et à prévoir et à prévenir ses risques. Du Processus de l’IA d’Hiroshima du G7 à la Déclaration volontaire de la Maison Blanche et au-delà, les gouvernements travaillent rapidement pour définir des approches de gouvernance permettant de favoriser la sécurité, la fiabilité et la confiance en l’IA. Nous accueillons avec enthousiasme l’opportunité de partager nos progrès et de contribuer à un dialogue public-privé sur les politiques et pratiques efficaces à mettre en œuvre pour réglementer les technologies IA avancées et leur déploiement. Depuis que nous avons adopté la Déclaration volontaire de la Maison Blanche et que nous nous sommes engagés indépendamment dans plusieurs autres politiques et pratiques en juillet, nous travaillons activement à opérationnaliser nos engagements. Les mesures que nous avons prises ont renforcé notre propre pratique de l’IA responsable et ont contribué au développement de l’écosystème de gouvernance de l’IA. Le Sommet britannique sur la sécurité de l’IA s’inscrit dans ce travail en demandant aux organisations avant-gardistes de l’IA de partager leurs politiques de sécurité de l’IA, une étape qui contribue à promouvoir la transparence et une compréhension partagée des bonnes pratiques. Dans notre mise à jour détaillée, nous avons organisé nos politiques par les neuf domaines de pratique et d’investissement sur lesquels le gouvernement britannique se concentre. Les aspects clés de notre progression sont les suivants : Chacune de ces étapes est cruciale pour transformer nos engagements en pratique. Le dialogue public-privé en cours nous aide à développer une compréhension partagée des pratiques et techniques d’évaluation efficaces pour les systèmes d’IA, et nous accueillons avec intérêt la mise l’accent sur cette approche au Sommet sur la sécurité de l’IA.