Meta a lancé Purple Llama, un projet dédié à la création d’outils open source pour permettre aux développeurs d’évaluer et d’améliorer la fiabilité et la sécurité des modèles génératifs d’IA avant qu’ils ne soient utilisés publiquement. Meta a souligné la nécessité d’efforts collaboratifs pour garantir la sécurité de l’IA, affirmant que les défis de l’IA ne peuvent pas être relevés en isolation. La société a déclaré que Purple Llama avait pour objectif d’établir une base commune pour le développement d’une IA plus sûre, alors que les inquiétudes se multiplient quant aux grandes langues-modèles et à d’autres technologies d’IA. « Les personnes qui construisent les systèmes d’IA ne peuvent pas relever les défis de l’IA dans le vide, c’est pourquoi nous voulons égaliser le terrain et créer un centre de gravité pour la confiance et la sécurité ouvertes », a écrit Meta dans un billet de blog. Gareth Lindahl-Wise, chef de la sécurité de l’information chez Ontinue, une entreprise de cybersécurité, a déclaré que Purple Llama était « une étape positive et proactive » en vue d’une IA plus sûre. « Il y aura indéniablement des allégations de signalement de vertu ou de motifs cachés dans la collecte de développements sur une plateforme – mais en réalité, une meilleure protection de niveau consommateur ‘hors boîte’ sera bénéfique », a-t-il ajouté. « Les entités soumises à des obligations internes, clientes ou réglementaires strictes devront bien entendu suivre des évaluations robustes, sans aucun doute au-delà de l’offre de Meta, mais tout ce qui peut aider à maîtriser le ‘Far West’ potentiel est bon pour l’écosystème ».
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du