GenAI est hautement inexact pour une utilisation commerciale – et devient plus opaque

Des modèles de langage larges (LLM), les plates-formes algorithmiques sur lesquelles reposent les outils d’IA générative (genAI) tels que ChatGPT, sont extrêmement inexacts lorsqu’ils sont connectés à des bases de données d’entreprise et deviennent moins transparents, selon deux études. Une étude de l’université de Stanford a montré que, à mesure que les LLM continuent à ingérer d’énormes quantités d’informations et à grossir, la genèse des données qu’ils utilisent devient de plus en plus difficile à retracer. Cela rend, à son tour, difficile pour les entreprises de savoir si elles peuvent construire en toute sécurité des applications utilisant des modèles commerciaux de genAI, et pour les chercheurs de s’y fier pour leurs recherches. Cela rend également plus difficile pour les législateurs de concevoir des politiques efficaces pour maîtriser cette puissante technologie, et « pour les consommateurs de comprendre les limites des modèles ou de rechercher réparation pour les préjudices subis », a déclaré l’étude de Stanford. Les LLM (également appelés modèles de base), tels que GPT, LLaMA et DALL-E, sont apparus au cours de la dernière année et ont transformé l’intelligence artificielle (IA), ce qui a permis à de nombreuses entreprises de bénéficier d’une amélioration de leur productivité et de leur efficacité. Mais ces avantages s’accompagnent d’une lourde incertitude. « La transparence est une condition préalable essentielle à la responsabilité publique, à l’innovation scientifique et à la gouvernance efficace des technologies numériques », a déclaré Rishi Bommasani, responsable des relations avec la société au centre de recherche sur les modèles de base de Stanford. « Le manque de transparence est un problème récurrent pour les consommateurs de technologies numériques. »

Share the Post: