« L’outil de transcription IA d’OpenAI hallucine excessivement – voici une meilleure alternative »

« Whisper, développé par OpenAI, est un logiciel de reconnaissance vocale d’intelligence artificielle établi en 2022 qui a été identifié comme créant de fausses informations ou « hallucinait », suscitant des inquiétudes quant à son utilisation abusive potentielle. Une étude sur des réunions publiques, menée par un chercheur de l’Université du Michigan et rapportée par l’AP la semaine dernière, a révélé des hallucinations dans 80% des transcriptions audio examinées, qui ont été créées par Whisper. Des constatations similaires ont également été suggérées par d’autres sources. Par exemple, après avoir examiné 100 heures de transcriptions facilitées par Whisper, un ingénieur a dévoilé des hallucinations dans environ la moitié d’entre elles. De plus, presque chaque transcription, soit 26 000, générée à l’aide de Whisper, a été trouvée contenant des hallucinations par un autre développeur. Bien que l’on s’attende à des erreurs occasionnelles en termes de vocabulaire ou d’orthographe, la fréquence des hallucinations chez les transcripteurs d’IA a été notée par les chercheurs comme exceptionnellement élevée avec Whisper par rapport à d’autres outils de transcription alimentés par l’IA. »

Share the Post: