Le gouvernement du Royaume-Uni a annoncé un accord de l’industrie des technologies qu’il prétend former un plan pour les tests de sécurité de l’IA. Avec divers types d’IA intégrés de routine dans les logiciels faced aux consommateurs et aux entreprises, les développeurs ont convenu que les gouvernements ont un rôle à jouer dans la surveillance des tests de sécurité externes des modèles d’IA. Le mouvement est conçu pour suivre les modèles d’IA de pointe uniquement situés au sein des entreprises. L’Australie, le Canada, l’Union européenne, la France, l’Allemagne, l’Italie, le Japon et la Corée du Sud ont tous signé l’accord, bien que la Chine – qui fait d’énormes investissements en IA – n’ait pas été signataire, bien qu’elle ait assisté cette semaine au Sommet britannique de la sécurité de l’IA au cours duquel l’accord a été conclu. Les gouvernements ont également déclaré une « ambition partagée » d’investir dans la capacité du secteur public pour les tests et d’autres recherches sur la sécurité, et de partager les résultats avec d’autres pays. L’idée est de préparer le terrain pour les progrès futurs de l’IA en matière de sécurité à l’échelle internationale, a déclaré le gouvernement britannique. L’accord de test de l’IA, qui n’a aucun poids juridique, a suivi la Déclaration de Bletchley, nommée d’après le siège de la mission de décryptage de la Seconde Guerre mondiale pionnière au Royaume-Uni. Vingt-huit pays et l’Union européenne ont signé la déclaration, visant à établir l’ordre du jour pour aborder les risques de l’IA. Il y avait une envie d’identifier les problèmes de sécurité de l’IA qui préoccupaient et de construire une « compréhension scientifique et fondée sur des preuves partagées de ces risques ».
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du