Meta a lancé Purple Llama, un projet dédié à la création d’outils open-source pour que les développeurs puissent évaluer et améliorer la fiabilité et la sécurité des modèles AI génératifs avant qu’ils ne soient utilisés publiquement. Meta a souligné la nécessité d’efforts collaboratifs pour garantir la sécurité des AI, affirmant que les défis des AI ne peuvent pas être relevés en isolation. La société a déclaré que le but de Purple Llama est d’établir une base partagée pour le développement d’un genAI plus sûr alors que les inquiétudes se multiplient concernant les grands modèles linguistiques et les autres technologies AI. « Les personnes qui construisent des systèmes AI ne peuvent pas relever les défis des AI dans le vide, c’est pourquoi nous voulons égaliser les chances et créer un centre de gravité pour la confiance et la sécurité ouvertes », a écrit Meta dans un billet de blog. Gareth Lindahl-Wise, directeur de la sécurité de l’information chez Ontinue, une entreprise de cybersécurité, a qualifié Purple Llama d’ « une étape positive et proactive » vers une AI plus sûre. « Il y aura indéniablement quelques prétentions de signalisation de vertu ou de motifs cachés dans la collecte de développements sur une plateforme – mais en réalité, une meilleure protection ‘hors boîte’ au niveau des consommateurs sera bénéfique », a-t-il ajouté. « Les entités soumises à des obligations internes, commerciales ou réglementaires strictes devront bien entendu suivre des évaluations robustes, sans aucun doute au-delà de l’offre de Meta, mais tout ce qui peut aider à maîtriser le Wild West potentiel est bon pour l’écosystème ».
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du