Les trials métas pour le projet Purple Llama permettent aux développeurs d’IA de tester les risques de sécurité des modèles.

Meta a lancé Purple Llama – un projet visant à créer des outils open source pour aider les développeurs à évaluer et à améliorer la confiance et la sécurité de leurs modèles d’IA génératifs avant déploiement. Le projet a été annoncé jeudi par le président des affaires mondiales de la plateforme (et ancien vice-premier ministre du Royaume-Uni) Nick Clegg. « La collaboration sur la sécurité permettra de bâtir la confiance des développeurs qui propulsent cette nouvelle vague d’innovation, et nécessitera des recherches et des contributions supplémentaires sur l’IA responsable », a expliqué Meta. « Les personnes qui construisent des systèmes d’IA ne peuvent pas aborder les défis de l’IA dans le vide, c’est pourquoi nous voulons égaliser les chances et créer un centre de masse pour une confiance et une sécurité ouvertes ». Dans le cadre de Purple Llama, Meta collabore avec d’autres développeurs d’applications d’IA, notamment les plateformes cloud telles que AWS et Google Cloud, les concepteurs de puces comme Intel, AMD et Nvidia, et les entreprises de logiciels comme Microsoft, pour publier des outils permettant de tester les capacités des modèles et de vérifier les risques de sécurité. Le logiciel sous licence Purple Llama prend en charge la recherche et les applications commerciales. Le premier package présenté comprend des outils pour tester les problèmes de cybersécurité dans les logiciels générant des modèles, et un modèle de langage qui classe le texte inapproprié ou qui aborde des activités violentes ou illégales. Le package, baptisé CyberSec Eval, permet aux développeurs de lancer des tests de référence qui vérifient la probabilité qu’un modèle d’IA génère du code non sécurisé ou aide les utilisateurs à mener des attaques informatiques.

Share the Post: