Meta a lancé Purple Llama, un projet dédié à la création d’outils open source pour que les développeurs puissent évaluer et améliorer la fiabilité et la sécurité des modèles d’IA génératifs avant qu’ils ne soient utilisés publiquement. Meta a souligné la nécessité d’efforts collaboratifs pour garantir la sécurité de l’IA, affirmant que les défis de l’IA ne peuvent pas être abordés en isolation. La société a déclaré que le but de Purple Llama était d’établir une base commune pour le développement d’une IA plus sûre, alors que les inquiétudes augmentent concernant les grands modèles linguistiques et les autres technologies d’IA. «Les personnes qui construisent des systèmes d’IA ne peuvent pas aborder les défis de l’IA dans le vide, c’est pourquoi nous voulons égaliser les chances et créer un centre de gravité pour la confiance et la sécurité ouverts», a écrit Meta dans un article de blog. Gareth Lindahl-Wise, directeur de la sécurité de l’information chez Ontinue, une entreprise de cybersécurité, a qualifié Purple Llama de «pas positif et proactif» vers une IA plus sûre. «Il y aura indéniablement des revendications de signalisation de vertu ou de motifs cachés pour rassembler le développement sur une plateforme – mais en réalité, une meilleure protection «hors boîte» au niveau des consommateurs sera bénéfique», a-t-il ajouté. «Les entités soumises à des obligations internes, clientes ou réglementaires strictes devront bien entendu suivre des évaluations robustes, sans aucun doute au-delà de l’offre de Meta, mais tout ce qui peut aider à maîtriser le potentiel de la Wild West est bon pour l’écosystème.»
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du