Les enquêteurs de l’université Purdue de l’Indiana ont mis au point une méthode pour interroger les grands modèles de langage (LLM) de manière à briser leur formation en éthique – presque toujours. Les LLM comme Bard, ChatGPT et Llama sont formés à partir de grandes quantités de données qui peuvent contenir des informations douteuses ou nocives. Pour empêcher les chatbots basés sur ces modèles de répéter des choses toxiques sur demande, des géants de l’IA comme Google, OpenAI et Meta essaient de « aligner » leurs modèles en utilisant des « garde-fous » pour éviter les réponses indésirables. Les êtres humains étant humains, cependant, de nombreux utilisateurs s’efforcent ensuite de les « jailbreaker » en trouvant des invite
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation