Seize leaders mondiaux de l’IA, dont Google, Microsoft, IBM et OpenAI, ont pris de nouveaux engagements mais non contraignants de désactiver leur propre technologie si elle montre des signes qu’elle conduit à un résultat dystopique. Les engagements ont été pris lors de la première journée du Sommet de l’IA de Séoul 2024, qui s’est tenu cette semaine en Corée du Sud. L’événement est la suite du Sommet sur la sécurité de l’IA de l’année dernière, au cours duquel 28 nations et l’UE ont signé la Déclaration de Bletchley – une vision commune pour aborder les risques liés à l’IA, mais sans engagements concrets ou pratiques. Avant cet événement de cette année, le Premier ministre britannique Rishi Sunak et le président sud-coréen Yoon Suk Yeol ont signé une tribune dans laquelle ils ont écrit: « Le rythme du changement ne fera qu’accélérer, donc notre travail doit aussi accélérer. » Le Sommet de Séoul a produit un ensemble d’engagements en matière de sécurité de l’IA en avant-garde qui verront les signataires publier des cadres de sécurité sur la manière dont ils mesureront les risques de leurs modèles d’IA. Cela inclut de définir à quel moment les risques deviennent intolérables et quelles actions les signataires prendront à ce moment-là. Et si les mesures correctives ne parviennent pas à maintenir les risques en dessous des seuils, les signataires se sont engagés à « ne pas développer ou déployer un modèle ou un système du tout ». D’autres signataires incluaient Amazon, Anthropic, Cohere, G42, Inflection AI, Meta, Mistral AI, Naver, Samsung Electronics, Technology Innovation Institute, xAI et Zhipu.ai.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)