Le 27 octobre 2023
|
Natasha Crampton – Directrice principale de l’IA responsable
Aujourd’hui, Microsoft partage une mise à jour de ses politiques et pratiques en matière de sécurité de l’IA à la veille du Sommet britannique sur la sécurité de l’IA. Le sommet fait partie d’une importante et dynamique conversation mondiale sur la manière dont nous pouvons tous contribuer à garantir les utilisations bénéfiques de l’IA et à prévoir et à prévenir les risques qu’elle pose. Du G7 Hiroshima AI Processus à la White House Voluntary Commitments et au-delà, les gouvernements travaillent rapidement pour définir des approches de gouvernance permettant de promouvoir la sécurité, la sécurité et la confiance en IA. Nous accueillons avec intérêt l’opportunité de partager nos progrès et de contribuer à un dialogue public-privé sur les politiques et les pratiques efficaces pour gérer les technologies et le déploiement de l’IA avancée. Depuis que nous avons adopté les White House Voluntary Commitments et que nous nous sommes engagés indépendamment dans plusieurs autres politiques et pratiques en juillet, nous travaillons activement à mettre en œuvre nos engagements. Les mesures que nous avons prises ont renforcé notre propre pratique de l’IA responsable et ont contribué au développement de l’écosystème de gouvernance de l’IA. Le Sommet britannique sur la sécurité de l’IA s’inspire de ce travail en demandant aux organisations de pointe en IA de partager leurs politiques en matière de sécurité de l’IA – une étape qui contribue à promouvoir la transparence et une compréhension partagée des bonnes pratiques. Dans notre mise à jour détaillée, nous avons organisé nos politiques par les neuf domaines de pratique et d’investissement sur lesquels le gouvernement britannique se concentre. Les aspects clés de notre progrès comprennent :
Chacune de ces étapes est cruciale pour transformer nos engagements en pratique. Le dialogue public-privé en cours nous aide à développer une compréhension partagée des pratiques et techniques d’évaluation efficaces pour les systèmes IA, et nous saluons la mise l’accent sur cette approche au Sommet sur la sécurité de l’IA.