Des mots d’intelligence artificielle sont vus dans cette illustration prise le 31 mars 2023. REUTERS / Dado Ruvic / Illustration / Photo de fichier Acquérir les droits de licence WASHINGTON, 27 nov. (Reuters) – Les États-Unis, la Grande-Bretagne et plus d’une douzaine d’autres pays ont dévoilé dimanche ce que décrivait un haut responsable américain comme le premier accord international détaillé sur la façon de maintenir l’intelligence artificielle en sécurité contre les acteurs illégaux, en appelant les entreprises à créer des systèmes d’IA qui sont « sécurisés par conception ». Dans un document de 20 pages dévoilé dimanche, les 18 pays ont convenu que les entreprises qui conçoivent et utilisent l’IA doivent la développer et la déployer de manière à protéger les clients et le public en général contre tout abus. L’accord n’est pas contraignant et contient principalement des recommandations générales telles que le suivi des systèmes d’IA pour détecter tout abus, la protection des données contre toute modification ou altération et le contrôle des fournisseurs de logiciels. Néanmoins, la directrice du Cybersecurity and Infrastructure Security Agency des États-Unis, Jen Easterly, a déclaré qu’il était important que tant de pays mettent leur nom sur l’idée que les systèmes d’IA devaient avoir la sécurité comme priorité.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)