Les politiques s’engagent à collaborer pour relever les défis de la sécurité des IA, les États-Unis lancent un institut de sécurité

Le monde est engagé dans une course et une compétition pour la domination en matière d’IA, mais aujourd’hui, quelques-uns d’entre eux ont semblé se rassembler pour dire qu’ils préféreraient collaborer pour atténuer les risques. Lors du Sommet de la sécurité en IA de Bletchley Park, en Angleterre, la ministre britannique de la technologie, Michelle Donelan, a annoncé un nouveau document politique, appelé la Déclaration de Bletchley, qui vise à parvenir à un consensus mondial sur la manière de gérer les risques que l’IA pose aujourd’hui et dans le futur à mesure qu’elle évolue. Elle a également déclaré que le sommet allait devenir un événement régulier et périodique : une autre réunion est prévue en Corée dans six mois, a-t-elle dit, et une autre en France six mois après. Comme le ton de la conférence elle-même, le document publié aujourd’hui est relativement de haut niveau. «Pour réaliser cela, nous affirmons que, dans l’intérêt de tous, l’IA doit être conçue, développée, déployée et utilisée de manière sûre, de manière à être centrée sur l’être humain, digne de confiance et responsable», note le document. Il attire également l’attention sur le type de grands modèles linguistiques développés par des entreprises comme OpenAI, Meta et Google, et sur les menaces spécifiques qu’ils pourraient représenter en cas de mauvaise utilisation. «Des risques particuliers se présentent à la ‘frontière’ de l’IA, entendue comme étant ces modèles d’IA généralistes très performants, y compris les modèles fondamentaux, qui pourraient effectuer une grande variété de tâches – ainsi que les IA étroites spécifiques pertinentes qui pourraient présenter des capacités qui font du mal – qui correspondent ou dépassent les capacités présentes dans les modèles les plus avancés d’aujourd’hui », a-t-il noté.

Share the Post: