Des essais métasurveillés Purple Llama pour les développeurs d’IA afin de tester les risques de sécurité des modèles.

Meta a lancé Purple Llama – un projet visant à développer des outils open source pour aider les développeurs à évaluer et à améliorer la confiance et la sécurité de leurs modèles de génération d’IA avant déploiement. Le projet a été annoncé jeudi par le président des affaires mondiales de la plateforme (et ancien vice-premier ministre du Royaume-Uni) Nick Clegg. « La collaboration sur la sécurité permettra de renforcer la confiance des développeurs qui conduisent cette nouvelle vague d’innovation, et nécessitera des recherches et des contributions supplémentaires sur l’IA responsable », a expliqué Meta. « Les personnes qui construisent des systèmes d’IA ne peuvent pas relever les défis de l’IA dans le vide, c’est pourquoi nous voulons égaliser les chances et créer un centre de masse pour une confiance et une sécurité ouvertes. » Dans le cadre de Purple Llama, Meta collabore avec d’autres développeurs d’applications d’IA, notamment les plateformes cloud comme AWS et Google Cloud, les concepteurs de puces comme Intel, AMD et Nvidia, et les entreprises de logiciels comme Microsoft, pour publier des outils permettant de tester les capacités des modèles et de vérifier les risques de sécurité. Le logiciel sous licence dans le cadre du projet Purple Llama prend en charge les applications de recherche et commerciales. Le premier package dévoilé comprend des outils permettant de tester les problèmes de cybersécurité dans les logiciels générant des modèles, et un modèle de langage qui classe le texte inapproprié ou qui aborde des activités violentes ou illégales. Le package, baptisé CyberSec Eval, permet aux développeurs de lancer des tests de benchmark qui vérifient la probabilité qu’un modèle d’IA génère du code non sécurisé ou aide les utilisateurs à mener des attaques informatiques.

Share the Post: