Dans une étude innovante menée par Celeste De Nadai à l’Institut Royal de Technologie à Stockholm, en Suède, un déséquilibre du biais de l’IA a été révélé lors d’entretiens d’embauche simulés en ingénierie logicielle. Les modèles d’IA utilisés pour évaluer les réponses avaient tendance à sous-noter les hommes, en particulier ceux ayant des noms anglo-saxons. Cette recherche a été réalisée dans le cadre du projet de thèse de licence de De Nadai, avec pour objectif de déchiffrer si les modèles de langage à grande échelle contemporains (LLM) montrent un biais clair lorsqu’ils sont confrontés à des informations sur le genre et des noms suggérant une lignée culturelle.
En tant que responsable marketing actuel chez Monok, une entreprise de contenu basée sur l’IA, De Nadai a exprimé ses préoccupations concernant ce problème pressant lors d’un entretien avec The Register. Ces biais dans les systèmes d’IA, surtout dans le secteur du recrutement, constituent un problème récurrent. Elle a fait référence à un récent article de Bloomberg qui a évalué de manière critique l’utilisation des réseaux neuronaux dans le domaine du recrutement en raison de leurs biais envers certains noms.
Cependant, De Nadai a estimé qu’il existait une lacune dans la recherche où les derniers modèles d’IA n’étaient pas évalués sur un grand ensemble de données. « La plupart des recherches disponibles sont basées sur le GPT-3.5 ou des modèles plus anciens. Je voulais savoir comment les derniers modèles, plus petits, se comportaient face aux biais, car ils sont entraînés sur des ensembles de données différents », a-t-elle expliqué.
Cette entreprise a également été alimentée par une tendance qu’elle a remarquée dans la montée des startups de recrutement IA prétendant utiliser des modèles de langage qui n’étaient entravés par aucun biais. L’étude de De Nadai sert d’avertissement pour examiner de manière critique ces affirmations et pour veiller à ce que l’IA soit utilisée de manière responsable dans des industries comme le recrutement.