Meta a lancé Purple Llama, un projet dédié à la création d’outils open-source pour permettre aux développeurs d’évaluer et d’améliorer la fiabilité et la sécurité des modèles génératifs d’IA avant qu’ils ne soient utilisés publiquement. Meta a souligné la nécessité de efforts collaboratifs pour assurer la sécurité de l’IA, déclarant que les défis de l’IA ne peuvent être relevés isolément. La société a déclaré que l’objectif de Purple Llama était d’établir une base partagée pour le développement d’une IA plus sûre, alors que les inquiétudes augmentent concernant les grands modèles de langage et les autres technologies d’IA. « Les personnes qui construisent des systèmes d’IA ne peuvent pas relever les défis de l’IA dans le vide, c’est pourquoi nous voulons égaliser les chances et créer un centre de masse pour la confiance et la sécurité ouvertes », a écrit Meta dans un article de blog. Gareth Lindahl-Wise, directeur de la sécurité de l’information de la société de cybersécurité Ontinue, a déclaré que Purple Llama était « une étape positive et proactive » vers une IA plus sûre. « Il y aura sans aucun doute quelques revendications de signalement de vertu ou de motifs cachés dans la collecte de développement sur une plateforme – mais en réalité, une meilleure protection « hors boîte » au niveau des consommateurs sera bénéfique », a-t-il ajouté. « Les entités soumises à des obligations strictes au niveau interne, auprès de leurs clients ou en vertu de la réglementation continueront bien sûr de suivre des évaluations rigoureuses, sans aucun doute au-delà de l’offre de Meta, mais tout ce qui peut aider à maîtriser le potentiel du Far West est bon pour l’écosystème ».
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du