Les dirigeants du monde signent des pactes de sécurité en matière d’IA tandis que Musk et Sunak entrent dans une bromance gênée

Le gouvernement du Royaume-Uni a annoncé un accord de l’industrie des technologies de l’information qu’il prétend former un plan pour les tests de sécurité de l’intelligence artificielle. Avec divers types d’intelligence artificielle intégrés de routine dans les logiciels destinés aux consommateurs et aux entreprises, les développeurs ont convenu que les gouvernements ont un rôle à jouer dans la surveillance des tests de sécurité externes des modèles d’intelligence artificielle. Le mouvement est conçu pour suivre les modèles de pointe de l’intelligence artificielle qui se trouvent uniquement au sein des corporations. L’Australie, le Canada, l’Union européenne, la France, l’Allemagne, l’Italie, le Japon et la Corée du Sud ont tous signé l’accord, bien que la Chine – qui investit énormément dans l’intelligence artificielle – n’ait pas été signataire, bien qu’elle ait participé à la réunion de cette semaine du Royaume-Uni sur la sécurité de l’intelligence artificielle au cours de laquelle l’accord a été conclu. Les gouvernements ont également déclaré une « ambition partagée » d’investir dans les capacités du secteur public pour les tests et d’autres recherches sur la sécurité, et de partager les résultats avec d’autres nations. L’idée est de mettre en place les bases pour le progrès international futur en matière de sécurité de l’intelligence artificielle dans les années à venir, a déclaré le gouvernement du Royaume-Uni. L’accord de test de l’intelligence artificielle, qui n’a aucun poids légal, a suivi la déclaration de Bletchley, nommée d’après le lieu de la mission de décryptage de la Seconde Guerre mondiale pionnière du Royaume-Uni. Vingt-huit pays et l’Union européenne ont signé la déclaration, visant à fixer l’agenda pour aborder les risques de l’intelligence artificielle. Cela incluait le désir d’identifier les problèmes de sécurité de l’intelligence artificielle et de construire une « compréhension partagée et fondée sur des preuves scientifiques de ces risques ».

Share the Post: