Meta a lancé Purple Llama, un projet dédié à la création d’outils open source pour permettre aux développeurs d’évaluer et d’améliorer la fiabilité et la sécurité des modèles d’intelligence artificielle génératifs avant qu’ils ne soient utilisés publiquement. Meta a souligné la nécessité d’efforts collaboratifs pour assurer la sécurité des IA, soulignant que les défis des IA ne peuvent pas être relevés en isolation. La société a déclaré que le but de Purple Llama était d’établir une base partagée pour le développement d’une IA plus sûre, alors que les inquiétudes se multiplient quant aux grands modèles linguistiques et à d’autres technologies d’IA. « Les personnes qui construisent des systèmes d’IA ne peuvent pas relever les défis de l’IA dans le vide, c’est pourquoi nous voulons niveler le terrain et créer un centre de masse pour la confiance et la sécurité ouvertes », a écrit Meta dans un blog. Gareth Lindahl-Wise, directeur de la sécurité de l’information chez Ontinue, une entreprise de cybersécurité, a appelé Purple Llama « une étape positive et proactive » vers une IA plus sûre. « Il y aura indéniablement des prétentions de signalisation vertueuse ou de motifs cachés dans la collecte de développements sur une plate-forme – mais en réalité, une meilleure protection « hors boîte » au niveau des consommateurs sera bénéfique », a-t-il ajouté. « Les entités soumises à des obligations internes, clientes ou réglementaires strictes devront bien entendu suivre une évaluation robuste, indubitablement au-delà de l’offre de Meta, mais tout ce qui peut aider à maîtriser le potentiel du Far West est bon pour l’écosystème ».
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)