« Microsoft publie son outil interne d’équipe rouge d’IA générative au public. »

Malgré les capacités avancées des modèles d’intelligence artificielle générative (gen AI), nous avons constaté de nombreuses instances où ils ont dévié, halluciné ou présenté des failles que des acteurs malveillants peuvent exploiter. Pour contribuer à atténuer ce problème, Microsoft dévoile un outil capable d’identifier les risques des systèmes d’intelligence artificielle générative. Jeudi, Microsoft a publié sa trousse d’outils Python pour l’identification des risques des systèmes d’intelligence artificielle générative (PyRIT), un outil que l’équipe Rouge AI de Microsoft utilise pour détecter les risques dans ses systèmes gen AI, notamment Copilot. De plus, comment les technologistes de la renaissance connectent les points entre l’IA et les affaires. L’année dernière, Microsoft a redoublé d’efforts sur plus de 60 systèmes gen AI de grande valeur, grâce auxquels elle a appris que le processus de red teaming diffère considérablement pour ces systèmes par rapport à l’intelligence artificielle classique ou au logiciel traditionnel, selon le billet de blog. Ce processus est différent car Microsoft doit tenir compte des risques de sécurité habituels, en plus des risques liés à l’IA responsable, tels que le fait de garantir que du contenu nocif ne peut pas être généré intentionnellement, ou que les modèles ne génèrent pas de désinformation.

Share the Post: