L’IA générative n’a rien appris du Web 2.0

Si 2022 a été l’année du début de la ruée sur l’IA générative, 2023 a été l’année de la panique sur l’IA générative. Un peu plus de 12 mois après la sortie de ChatGPT d’OpenAI et le record du produit de consommation à la croissance la plus rapide, il semble également avoir aidé à établir un record pour l’intervention gouvernementale la plus rapide dans une nouvelle technologie. La Commission fédérale américaine des élections examine les publicités de campagne trompeuses, le Congrès demande un contrôle de la façon dont les entreprises d’IA développent et étiquettent les données d’entraînement de leurs algorithmes, et l’Union européenne a adopté son nouveau règlement sur l’IA avec des modifications de dernière minute pour y répondre. Mais pour toute la nouveauté et la vitesse, les problèmes de l’IA générative sont également douloureusement familiers. OpenAI et ses concurrents qui se précipitent pour lancer de nouveaux modèles d’IA rencontrent des problèmes qui ont poursuivi les plateformes sociales, cette technologie nouvelle de l’ère précédente, depuis près de deux décennies. Les entreprises comme Meta n’ont jamais réussi à prendre l’ascendant sur la désinformation et la mésinformation, les pratiques douteuses en matière de main-d’œuvre ou la pornographie non consentie, pour ne citer que quelques-unes de leurs conséquences involontaires. Aujourd’hui, ces problèmes prennent une nouvelle vie avec un twist IA. «Ce sont des problèmes entièrement prévisibles», déclare Hany Farid, professeur à la UC Berkeley School of Information, des maux de tête rencontrés par OpenAI et d’autres. «Je pense qu’ils auraient pu être prévenus.» Dans certains cas, les entreprises d’IA générative sont directement construites sur une infrastructure problématique mise en place par les entreprises de médias sociaux. Facebook et d’autres ont fini par dépendre de travailleurs de modération de contenu à bas prix et externalisés – souvent dans le Sud global – pour maintenir le contrôle du contenu comme la haine en ligne ou des images à caractère sexuel ou violent. La même main-d’œuvre est maintenant sollicitée pour aider à former des modèles d’IA génératifs, souvent avec des conditions de travail similaires et des salaires faibles. Parce que l’externalisation met des fonctions cruciales d’une plateforme sociale ou d’une entreprise d’IA administrativement à distance de son siège social, et souvent sur un autre continent, les chercheurs et les régulateurs peuvent avoir du mal à obtenir une image complète de la façon dont un système d’IA ou un réseau social est construit et régi.

Share the Post: