‘GenAI est hautement inexact pour une utilisation commerciale – et devient plus opaque’

Les grands modèles linguistiques (LLMs), les plateformes algorithmiques sur lesquelles sont construits les outils d’IA générative (genAI) tels que ChatGPT, sont très imprécis lorsqu’ils sont connectés aux bases de données des entreprises et deviennent moins transparents, selon deux études. Une étude de l’université de Stanford a montré que, à mesure que les LLM continuent à ingérer une masse importante d’informations et à grossir, la genèse des données qu’ils utilisent devient de plus en plus difficile à retracer. Cela rend, à son tour, difficile pour les entreprises de savoir si elles peuvent construire en toute sécurité des applications utilisant des modèles commerciaux de base de l’IA générative et pour les chercheurs de s’y fier pour leurs recherches. Cela rend également plus difficile pour les législateurs de concevoir des politiques efficaces pour maîtriser cette puissante technologie, et «pour que les consommateurs puissent comprendre les limitations des modèles ou demander réparation pour les dommages qu’ils ont causés», selon l’étude de Stanford. Les LLM (également connus sous le nom de modèles de base) tels que GPT, LLaMA et DALL-E sont apparus au cours de la dernière année et ont transformé l’intelligence artificielle (IA), donnant à de nombreuses entreprises qui les expérimentent une amélioration de leur productivité et de leur efficacité. Mais ces avantages sont accompagnés d’une importante incertitude. «La transparence est une condition préalable essentielle à la responsabilisation publique, à l’innovation scientifique et à une gouvernance efficace des technologies numériques», a déclaré Rishi Bommasani, responsable des modèles de base au sein du Stanford Center for Research on Foundation Models. «Le manque de transparence est un problème qui perdure depuis longtemps pour les consommateurs de technologies numériques.

Share the Post: