« Les modèles d’IA montrent un biais racial basé sur le dialecte écrit, découvrent les chercheurs »

Les modèles d’IA peuvent consommer d’énormes quantités d’énergie, d’eau, de ressources informatiques et de capitaux risque, mais ils donnent tellement en termes de désinformation et de biais. Notoirement connus pour leur racisme, leurs données d’entraînement toxiques et leurs avertissements de risque, le dernier exemple de mauvaise conduite du modèle vient des chercheurs de l’Institut Allen pour l’IA, de l’Université d’Oxford, de l’Université de Munich (LMU), de l’Université Stanford et de l’Université de Chicago. Dans un article de recherche intitulé « Le préjudice dialectal prédit les décisions de l’IA concernant le caractère des gens, leur employabilité et leur criminalité », les co-auteurs Valentin Hofmann, Pratyusha Ria Kalluri, Dan Jurafsky et Sharese King rapportent que les décisions des LLM concernant les personnes utilisant un dialecte afro-américain reflètent des stéréotypes racistes. Les spécialistes ne parlent pas des modèles acceptant une entrée de parole en texte, où une personne parle en anglais afro-américain (AAE) et une autre parle en anglais américain standard (SAE). Au lieu de cela, ils ont demandé à divers LLM de prendre une décision concernant une personne basée sur une série de stimulations textuelles. Par exemple, ils prendraient deux variations de la même phrase, l’une en SAE et l’autre en AAE :

Share the Post: