Malgré les capacités avancées des modèles d’intelligence artificielle générative (gen AI), nous avons constaté de nombreuses instances où ils ont dévié, halluciné ou présenté des failles que des acteurs malveillants peuvent exploiter. Pour contribuer à atténuer ce problème, Microsoft dévoile un outil capable d’identifier les risques des systèmes d’intelligence artificielle générative. Jeudi, Microsoft a publié sa trousse d’outils Python pour l’identification des risques des systèmes d’intelligence artificielle générative (PyRIT), un outil que l’équipe Rouge AI de Microsoft utilise pour détecter les risques dans ses systèmes gen AI, notamment Copilot. De plus, comment les technologistes de la renaissance connectent les points entre l’IA et les affaires. L’année dernière, Microsoft a redoublé d’efforts sur plus de 60 systèmes gen AI de grande valeur, grâce auxquels elle a appris que le processus de red teaming diffère considérablement pour ces systèmes par rapport à l’intelligence artificielle classique ou au logiciel traditionnel, selon le billet de blog. Ce processus est différent car Microsoft doit tenir compte des risques de sécurité habituels, en plus des risques liés à l’IA responsable, tels que le fait de garantir que du contenu nocif ne peut pas être généré intentionnellement, ou que les modèles ne génèrent pas de désinformation.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du