Les politiciens s’engagent à collaborer pour aborder la sécurité des IA, les États-Unis lancent un institut de sécurité

Le monde est engagé dans une course, et une concurrence, pour la domination dans l’IA, mais aujourd’hui, quelques-uns d’entre eux ont semblé se rassembler pour dire qu’ils préféreraient collaborer en ce qui concerne la mitigation des risques. S’exprimant lors du AI Safety Summit à Bletchley Park en Angleterre, la ministre britannique de la technologie, Michelle Donelan, a annoncé un nouveau document de politique publique, intitulé la Déclaration de Bletchley, qui vise à parvenir à un consensus mondial sur la façon de gérer les risques que l’IA pose aujourd’hui et à l’avenir à mesure qu’elle se développe. Elle a également déclaré que le sommet allait devenir un événement régulier et périodique : une autre réunion est prévue en Corée dans six mois, a-t-elle dit, et une autre en France six mois après. Comme pour le ton de la conférence elle-même, le document publié aujourd’hui est relativement de haut niveau. « Pour réaliser cela, nous affirmons que, pour le bien de tous, l’IA devrait être conçue, développée, déployée et utilisée de manière sûre, de manière à être centrée sur l’être humain, digne de confiance et responsable », note le document. Il attire également l’attention sur le type de grands modèles linguistiques développés par des entreprises comme OpenAI, Meta et Google et sur les menaces spécifiques qu’ils pourraient représenter en cas de mauvaise utilisation. « Des risques de sécurité particuliers se présentent à la «frontière» de l’IA, entendue comme étant ces modèles d’IA généraux extrêmement performants, y compris les modèles fondamentaux, qui pourraient effectuer une large gamme de tâches – ainsi que les IA spécifiques étroites pertinentes qui pourraient présenter des capacités qui causent des dommages – qui correspondent ou dépassent les capacités présentes dans les modèles les plus avancés d’aujourd’hui », a-t-il noté.

Share the Post: