Les dirigeants mondiaux signent des pactes de sécurité en matière d’IA tandis que Musk et Sunak entrent dans une relation fraternelle gênante.

Le gouvernement britannique a annoncé un accord de l’industrie des technologies de l’information qu’il prétend former un plan de test de sécurité pour l’intelligence artificielle. Avec divers types d’intelligence artificielle étant constamment intégrés dans les logiciels à l’intention des consommateurs et des entreprises, les développeurs ont convenu que les gouvernements ont un rôle à jouer dans la surveillance des tests de sécurité externes des modèles d’intelligence artificielle. Le mouvement est conçu pour suivre les modèles d’intelligence artificielle de pointe qui sont uniquement détenus par des corporations. L’Australie, le Canada, l’Union européenne, la France, l’Allemagne, l’Italie, le Japon et la Corée du Sud ont tous signé l’accord, bien que la Chine – qui fait d’énormes investissements dans l’intelligence artificielle – n’ait pas été signataire, bien qu’elle ait participé cette semaine au Sommet de la sécurité de l’intelligence artificielle au Royaume-Uni, au cours duquel l’accord a été conclu. Les gouvernements ont également déclaré une « ambition partagée » d’investir dans les capacités du secteur public pour les tests et d’autres recherches en matière de sécurité, et de partager les résultats avec d’autres pays. L’idée est de préparer le terrain pour une meilleure compréhension internationale des risques liés à l’intelligence artificielle dans les années à venir, a déclaré le gouvernement britannique. L’accord de test de l’intelligence artificielle, qui n’a aucune valeur légale, a suivi la Déclaration de Bletchley, du nom de la maison de la mission de décodage de la Seconde Guerre mondiale novatrice du Royaume-Uni. Vingt-huit pays et l’Union européenne ont signé la déclaration de mission, visant à définir l’agenda pour aborder les risques liés à l’intelligence artificielle. Cela incluait le désir d’identifier les questions de sécurité de l’intelligence artificielle préoccupantes et de construire une « compréhension scientifique et fondée sur des preuves partagées de ces risques ».

Share the Post: