Les dirigeants du monde signent des pactes de sécurité en matière d’IA pendant que Musk et Sunak s’engagent dans une relation amicale gênante.

Le gouvernement britannique a annoncé un accord de l’industrie des technologies de l’information qu’il prétend former un plan pour les tests de sécurité de l’intelligence artificielle. Avec divers types d’intelligence artificielle intégrés de routine dans les logiciels destinés aux consommateurs et aux entreprises, les développeurs ont convenu que les gouvernements ont un rôle à jouer dans la surveillance des tests de sécurité externes des modèles d’IA. Le mouvement est conçu pour suivre les modèles d’IA novateurs qui se trouvent uniquement au sein des entreprises. L’Australie, le Canada, l’Union européenne, la France, l’Allemagne, l’Italie, le Japon et la Corée du Sud ont tous signé l’accord, bien que la Chine – qui investit énormément dans l’IA – n’ait pas été signataire, bien qu’elle ait participé à la conférence sur la sécurité de l’IA organisée cette semaine au cours de laquelle l’accord a été conclu. Les gouvernements ont également déclaré une « ambition partagée » d’investir dans les capacités du secteur public pour les tests et d’autres recherches sur la sécurité, et de partager les résultats avec d’autres pays. L’idée est de préparer le terrain pour les progrès internationaux futurs en matière de sécurité de l’intelligence artificielle, a déclaré le gouvernement britannique. L’accord de test de l’IA, qui n’a aucun effet légal, a suivi la déclaration de Bletchley, nommée d’après le lieu de la mission britannique de décryptage de la Seconde Guerre mondiale. Vingt-huit pays et l’Union européenne ont signé la déclaration de mission, visant à fixer l’agenda pour aborder les risques de l’IA. Il y avait un désir d’identifier les questions de sécurité de l’IA qui préoccupent et de bâtir une « compréhension fondée sur la science et les preuves de ces risques ».

Share the Post: