Rapport spécial Les algorithmes de Meta pour la présentation d’annonces éducatives montrent des signes de partialité raciale, selon des chercheurs de l’Université de Princeton et de l’Université de Californie du Sud. Cette découverte est décrite dans un document intitulé «Audit de la discrimination raciale dans la diffusion d’annonces éducatives», rédigé par Basileal Imana, chercheur postdoctoral à l’Université de Princeton; Aleksandra Korolova, professeure adjointe en informatique et affaires publiques à l’Université de Princeton; et John Heidemann, professeur de recherche en informatique à l’Université de Californie du Sud. Le document, fourni à The Register, est prévu pour être présenté cette semaine lors de la Conférence ACM sur l’équité, la responsabilité et la transparence (ACM FAccT) à Rio de Janeiro, au Brésil. «Nous constatons que les algorithmes de Meta dirigent les annonces vers des universités à but lucratif et des universités pratiquant historiquement des pratiques de marketing prédatrices vers un nombre relativement plus élevé d’utilisateurs noirs que les annonces pour les universités publiques», a déclaré Korolova à The Register. «Ainsi, notre travail démontre une fois de plus un domaine pour lequel Meta modèle l’accès à des opportunités de vie importantes de manière partiale sur le plan racial, et montre que les préoccupations concernant la discrimination dépassent le cadre actuel des solutions, qui se sont limitées au logement, à l’emploi et au crédit».
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)