Les politiques s’engagent à collaborer pour lutter contre la sécurité des IA, les États-Unis lancent un institut de sécurité

Le monde est engagé dans une course, et une concurrence, pour dominer l’IA, mais aujourd’hui, quelques-uns d’entre eux ont semblé se rassembler pour dire qu’ils préféreraient collaborer pour atténuer les risques. S’exprimant lors du Sommet sur la sécurité de l’IA à Bletchley Park, en Angleterre, la ministre britannique de la technologie, Michelle Donelan, a annoncé un nouveau document politique, appelé la Déclaration de Bletchley, qui vise à parvenir à un consensus mondial sur la façon de gérer les risques que pose l’IA maintenant et dans le futur à mesure qu’elle se développe. Elle a également déclaré que le sommet allait devenir un événement régulier et périodique : un autre rassemblement est prévu en Corée dans six mois, a-t-elle dit ; et un autre en France six mois après. Comme pour le ton de la conférence elle-même, le document publié aujourd’hui est relativement de haut niveau. « Pour réaliser cela, nous affirmons que, pour le bien de tous, l’IA devrait être conçue, développée, déployée et utilisée de manière sûre, de manière à être centrée sur l’être humain, digne de confiance et responsable », note le document. Il attire également l’attention sur les modèles de langage de grande taille développés par des entreprises comme OpenAI, Meta et Google et sur les menaces spécifiques qu’ils pourraient représenter en cas de mauvaise utilisation. « Des risques particuliers se présentent à la « frontière » de l’IA, entendue comme étant ces modèles d’IA génériques hautement capables, y compris les modèles fondamentaux, qui pourraient effectuer une grande variété de tâches – ainsi que les IA étroites spécifiques pertinentes qui pourraient présenter des capacités qui peuvent nuire – qui correspondent ou dépassent les capacités présentes dans les modèles les plus avancés d’aujourd’hui », a-t-il noté.

Share the Post: