Des essais métadonnées Purple Llama pour les développeurs d’IA afin de tester les risques de sécurité dans les modèles.

Meta a lancé Purple Llama – un projet visant à créer des outils open source pour aider les développeurs à évaluer et à améliorer la confiance et la sécurité de leurs modèles AI génératifs avant déploiement. Le projet a été annoncé jeudi par le président des affaires mondiales de la plate-forme (et ancien vice-premier ministre du Royaume-Uni) Nick Clegg. « La collaboration sur la sécurité permettra de gagner la confiance des développeurs qui animent cette nouvelle vague d’innovation, et nécessite des recherches et des contributions supplémentaires sur l’IA responsable », a expliqué Meta. « Les personnes qui construisent des systèmes d’IA ne peuvent pas aborder les défis de l’IA dans le vide, c’est pourquoi nous voulons mettre tout le monde sur un pied d’égalité et créer un centre de masse pour la confiance et la sécurité ouvertes. » Dans le cadre de Purple Llama, Meta collabore avec d’autres développeurs d’applications IA, notamment les plateformes cloud telles que AWS et Google Cloud, les concepteurs de puces comme Intel, AMD et Nvidia, et les entreprises de logiciels comme Microsoft, pour publier des outils permettant de tester les capacités des modèles et de vérifier les risques de sécurité. Les logiciels sous licence Purple Llama prennent en charge la recherche et les applications commerciales. Le premier package comprend des outils pour tester les problèmes de sécurité informatique dans les logiciels générant des modèles, et un modèle de langage qui classe le texte inapproprié ou qui traite de sujets violents ou illégaux. Le package, baptisé CyberSec Eval, permet aux développeurs de lancer des tests comparatifs pour vérifier la probabilité qu’un modèle d’IA génère du code non sécurisé ou aide les utilisateurs à mener des attaques informatiques.

Share the Post: