« Whisper, développé par OpenAI, est un logiciel de reconnaissance vocale d’intelligence artificielle établi en 2022 qui a été identifié comme créant de fausses informations ou « hallucinait », suscitant des inquiétudes quant à son utilisation abusive potentielle. Une étude sur des réunions publiques, menée par un chercheur de l’Université du Michigan et rapportée par l’AP la semaine dernière, a révélé des hallucinations dans 80% des transcriptions audio examinées, qui ont été créées par Whisper. Des constatations similaires ont également été suggérées par d’autres sources. Par exemple, après avoir examiné 100 heures de transcriptions facilitées par Whisper, un ingénieur a dévoilé des hallucinations dans environ la moitié d’entre elles. De plus, presque chaque transcription, soit 26 000, générée à l’aide de Whisper, a été trouvée contenant des hallucinations par un autre développeur. Bien que l’on s’attende à des erreurs occasionnelles en termes de vocabulaire ou d’orthographe, la fréquence des hallucinations chez les transcripteurs d’IA a été notée par les chercheurs comme exceptionnellement élevée avec Whisper par rapport à d’autres outils de transcription alimentés par l’IA. »
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation