Le gouvernement du Royaume-Uni a annoncé un accord de l’industrie du numérique qu’il affirme former un plan de test de sécurité de l’IA. Alors que divers types d’IA sont intégrés de manière routinière aux logiciels destinés aux consommateurs et aux entreprises, les développeurs ont convenu que les gouvernements ont un rôle à jouer dans le contrôle externe du test de sécurité des modèles d’IA. Le mouvement est conçu pour suivre les modèles d’IA de pointe situés uniquement au sein des entreprises. L’Australie, le Canada, l’Union européenne, la France, l’Allemagne, l’Italie, le Japon et la Corée du Sud ont tous signé l’accord, bien que la Chine, qui investit énormément dans l’IA, n’ait pas été signataire, bien qu’elle ait participé à la conférence sur la sécurité de l’IA de cette semaine au cours de laquelle l’accord a été conclu. Les gouvernements ont également déclaré une « ambition partagée » d’investir dans la capacité du secteur public en matière de test et d’autres recherches sur la sécurité, et de partager les résultats avec d’autres pays. L’idée est de poser les bases du progrès international futur en matière de sécurité de l’IA dans les années à venir, a déclaré le gouvernement britannique. L’accord de test de l’IA, qui n’a aucune valeur légale, a suivi la déclaration de Bletchley, nommée d’après le lieu de mission de décryptage de la Seconde Guerre mondiale du Royaume-Uni. Vingt-huit pays et l’Union européenne ont signé la déclaration, visant à définir l’ordre du jour pour aborder les risques de l’IA. Il y avait un désir d’identifier les problèmes de sécurité de l’IA de préoccupation et de construire une « compréhension scientifique et fondée sur des preuves partagées de ces risques ».
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du