Le mois dernier, nous avons été témoins de la sensation virale de plusieurs figures AI très mauvaises publiées dans un article évalué par des pairs dans Frontiers, une revue scientifique réputée. Les scientifiques sur les réseaux sociaux ont exprimé à parts égales surprise et ridicule face aux images, dont l’une montrait un rat avec des organes génitaux grotesquement grands et bizarres. Comme l’a rapporté Beth Mole, journaliste chef de la santé chez Ars, un examen plus approfondi n’a révélé que plus de défauts, y compris les étiquettes « dissilced, » « Stemm cells, » « iollotte sserotgomar, » et « dck. » La Figure 2 était moins graphique mais tout aussi malmenée, regorgeant de textes non-sens et d’images déconcertantes. La Figure 3, un collage de petites images circulaires densemement annotées avec des bêtises. L’article a depuis été rétracté, mais cette image de pénis de rat époustouflante restera indélébilement imprimée dans notre conscience collective. L’incident renforce une préoccupation croissante selon laquelle l’utilisation croissante de l’IA rendra la recherche scientifique publiée moins fiable, même si elle augmente la productivité. Alors que la prolifération des erreurs est une préoccupation légitime, en particulier aux premiers jours des outils IA comme ChatGPT, deux chercheurs soutiennent dans une nouvelle perspective publiée dans la revue Nature que l’IA pose également des risques épistémologiques à long terme potentiels pour la pratique de la science. Molly Crockett est une psychologue à l’Université de Princeton qui collabore régulièrement avec des chercheurs d’autres disciplines dans ses recherches sur la manière dont les gens apprennent et prennent des décisions dans des situations sociales. Sa co-auteur, Lisa Messeri, est une anthropologue à l’Université de Yale dont les recherches portent sur les études en science et technologie (STS), analysant les normes et les conséquences des communautés scientifiques et technologiques alors qu’elles créent de nouveaux domaines de connaissance et d’invention – comme l’IA. L’impulsion initiale de leur nouvel article était une étude de 2019 publiée dans les Comptes rendus de l’académie nationale des sciences affirmant que les chercheurs pourraient utiliser l’apprentissage automatique pour prédire la replicabilité des études sur la base d’une analyse de leurs textes. Crockett et Messeri ont rédigé une lettre à l’éditeur contestant cette affirmation, mais peu après, plusieurs autres études ont paru, affirmant que de grands modèles de langage pourraient remplacer les humains dans la recherche psychologique. Le duo a réalisé qu’il s’agissait d’une question beaucoup plus importante et a décidé de travailler ensemble sur une analyse approfondie de la manière dont les scientifiques proposent d’utiliser les outils IA tout au long du processus académique.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)