Les politiques s’engagent à collaborer pour relever les défis de la sécurité des IA, les États-Unis lancent un institut de sécurité

Le monde est engagé dans une course, et une concurrence, pour la domination en matière d’IA, mais aujourd’hui, quelques-uns d’entre eux ont semblé se rassembler pour dire qu’ils préféreraient collaborer en ce qui concerne la mitigation des risques. S’exprimant lors du Sommet de la sécurité en IA à Bletchley Park, en Angleterre, la ministre britannique des technologies, Michelle Donelan, a annoncé un nouveau document politique, intitulé la Déclaration de Bletchley, qui vise à parvenir à un consensus mondial sur la façon de gérer les risques que l’IA pose aujourd’hui et dans le futur à mesure qu’elle se développe. Elle a également déclaré que le sommet allait devenir un événement régulier, se tenant tous les six mois. Un autre rassemblement est prévu en Corée dans six mois, a-t-elle dit; et un autre en France six mois après cela. Comme pour le ton de la conférence elle-même, le document publié aujourd’hui est relativement de haut niveau. «Pour réaliser cela, nous affirmons que, dans l’intérêt de tous, l’IA doit être conçue, développée, déployée et utilisée de manière sûre, de manière à être centrée sur l’humain, digne de confiance et responsable», note le document. Il attire également l’attention sur le type de grands modèles linguistiques développés par des entreprises comme OpenAI, Meta et Google et sur les menaces spécifiques qu’ils pourraient représenter en cas de mauvaise utilisation. « Des risques importants pour la sécurité se manifestent à la «frontière» de l’IA, entendue comme étant celle des modèles d’IA généralistes hautement performants, y compris les modèles fondamentaux, capables d’effectuer une grande variété de tâches, ainsi que les IA étroites spécifiques pertinentes qui peuvent présenter des capacités qui peuvent causer des dommages », a-t-il noté.

Share the Post: