Les principaux acteurs du secteur envisagent de mettre en place une ligne de base pour évaluer les applications de l’intelligence générative.

Des efforts sont en cours pour fournir un ensemble normalisé de critères d’évaluation des produits d’intelligence artificielle (IA) génératifs et créer un «corpus de connaissances» sur la façon dont ces outils doivent être testés. L’objectif est de fournir une approche standard à l’évaluation des applications d’IA génératifs et de stimuler les efforts pour gérer les risques. Cette approche commune représente un changement par rapport aux efforts existants «parcellaires». Aussi: six compétences dont vous avez besoin pour devenir un ingénieur de pointe en IA baptisé Sandbox, l’initiative est menée par l’Autorité de développement des médias et des infomédias (IMDA) de Singapour et la Fondation AI Verify, et a recueilli le soutien des principaux acteurs du marché mondial, tels que Amazon Web Services (AWS), Anthropic, Google et Microsoft. Ces organisations font partie d’un groupe actuel de 15 participants, qui comprend également Deloitte, EY et IBM, ainsi que les banques OCBC et Singtel basées à Singapour. Sandbox est guidé par un nouveau catalogue de brouillon qui catégorise les critères et les méthodes couramment utilisés pour évaluer les modèles de langage larges (LLM). Le catalogue compile les outils de test techniques couramment utilisés, les organise selon ce qu’ils testent et leurs méthodes, et recommande un ensemble de tests de base pour évaluer les produits d’IA génératifs, a déclaré IMDA.

Share the Post: