Les dirigeants du monde s’engagent dans des pactes de sécurité en matière d’IA tandis que Musk et Sunak entament une relation amicale gênante

Le gouvernement britannique a annoncé un accord de l’industrie des technologies de l’information qu’il prétend former un plan pour les tests de sécurité en intelligence artificielle. Avec divers types d’IA intégrés de routine dans les logiciels destinés aux consommateurs et aux entreprises, les développeurs ont convenu que les gouvernements ont un rôle à jouer dans la surveillance des tests de sécurité externes des modèles d’IA. Le mouvement est conçu pour suivre les modèles d’IA de pointe qui se trouvent uniquement dans les corporations. L’Australie, le Canada, l’Union européenne, la France, l’Allemagne, l’Italie, le Japon et la Corée du Sud ont tous signé l’accord, bien que la Chine – qui fait d’énormes investissements en IA – n’ait pas été signataire, bien qu’elle ait participé à la conférence sur la sécurité en IA de cette semaine au cours de laquelle l’accord a été conclu. Les gouvernements ont également déclaré une « ambition partagée » d’investir dans les capacités du secteur public pour les tests et d’autres recherches en matière de sécurité, et de partager les résultats avec d’autres nations. L’idée est de préparer le terrain pour les progrès internationaux futurs en matière de sécurité en IA dans les années à venir, a déclaré le gouvernement britannique. L’accord de test d’IA, qui n’a aucun poids légal, a suivi la déclaration de Bletchley, nommée d’après le foyer de la mission de décryptage de la Seconde Guerre mondiale pionnière du Royaume-Uni. Vingt-huit pays et l’Union européenne ont signé la déclaration de mission, visant à établir l’agenda pour aborder les risques en IA. Cela incluait le désir d’identifier les problèmes de sécurité en IA de préoccupation et de construire une « compréhension partagée et fondée sur des preuves de ces risques ».

Share the Post: