Les mots de l’intelligence artificielle sont visibles dans cette illustration prise le 31 mars 2023. REUTERS / Dado Ruvic / Illustration / Photo de fichier WASHINGTON, 27 nov. (Reuters) – Les États-Unis, la Grande-Bretagne et plus d’une douzaine d’autres pays ont dévoilé dimanche ce que décrivait un haut responsable américain comme le premier accord international détaillé sur la façon de maintenir l’intelligence artificielle en sécurité vis-à-vis des acteurs malveillants, poussant les entreprises à créer des systèmes d’IA « sécurisés par conception ». Dans un document de 20 pages dévoilé dimanche, les 18 pays ont convenu que les entreprises qui concevaient et utilisaient l’IA devaient la développer et la déployer de manière à préserver les clients et le public en général des mauvaises utilisations. L’accord n’est pas contraignant et ne contient que des recommandations générales, telles que le suivi des systèmes d’IA pour détecter les abus, la protection des données contre la modification et le contrôle des fournisseurs de logiciels. Cependant, la directrice de l’Agence américaine de cybersécurité et de sécurité des infrastructures, Jen Easterly, a déclaré que c’était important que tant de pays mettent leur nom sur l’idée que les systèmes d’IA devaient mettre la sécurité en premier.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)