Les politiques s’engagent à collaborer pour relever les défis de l’intelligence artificielle, les États-Unis lancent un institut de sécurité

Le monde est engagé dans une course, et une concurrence, pour la domination en matière d’IA, mais aujourd’hui, quelques-uns d’entre eux ont semblé se rassembler pour dire qu’ils préféreraient collaborer lorsqu’il s’agirait de mitiger les risques. S’exprimant lors du Sommet sur la sécurité de l’IA à Bletchley Park, dans le comté d’Angleterre, la ministre britannique de la technologie, Michelle Donelan, a annoncé un nouveau document de politique publique, intitulé la Déclaration de Bletchley, qui vise à parvenir à un consensus mondial sur la manière de gérer les risques que l’IA pose maintenant et à l’avenir à mesure qu’elle évolue. Elle a également déclaré que le sommet allait devenir un événement régulier et périodique : un autre rassemblement est prévu en Corée dans six mois, a-t-elle dit ; et un autre en France six mois après cela. Comme pour le ton de la conférence elle-même, le document publié aujourd’hui est relativement de haut niveau. «Pour y parvenir, nous affirmons que, pour le bien de tous, l’IA doit être conçue, développée, déployée et utilisée de manière sûre, de manière à être orientée vers l’humain, digne de confiance et responsable», note le document. Il attire également l’attention sur le type de grands modèles linguistiques développés par des entreprises comme OpenAI, Meta et Google, ainsi que sur les menaces spécifiques qu’ils pourraient représenter en cas de mauvaise utilisation. «Des risques de sécurité particuliers se manifestent à la «frontière» de l’IA, entendue comme étant celles des modèles d’IA généralistes hautement performants, y compris les modèles de base, capables d’exécuter une large gamme de tâches, ainsi que les IA spécifiques étroites pertinentes qui peuvent présenter des capacités susceptibles de causer des dommages – qui correspondent ou dépassent les capacités présentes dans les modèles les plus avancés d’aujourd’hui», a-t-elle noté.

Share the Post: