GenAI est très inexact pour une utilisation commerciale – et devient de plus en plus opaque.

Deux études montrent que les gros modèles de langage (LLM), les plateformes algorithmiques sur lesquelles reposent les outils de génération d’IA (genAI) tels que ChatGPT, sont très peu fiables lorsqu’ils sont connectés aux bases de données d’entreprises et deviennent moins transparents. Une étude de l’université Stanford a montré que, à mesure que les LLM continuent à ingérer une immense quantité d’informations et à grossir, la genèse des données qu’ils utilisent devient de plus en plus difficile à retracer. Cela rend, à son tour, plus difficile pour les entreprises de savoir si elles peuvent construire en toute sécurité des applications utilisant des modèles commerciaux de base de génération d’IA et pour les chercheurs de s’y fier pour leurs recherches. Cela rend également plus difficile pour les législateurs de concevoir des politiques efficaces pour maîtriser cette puissante technologie, et «pour les consommateurs de comprendre les limites des modèles ou de rechercher réparation pour les préjudices causés», a déclaré l’étude de Stanford. Les LLM (également appelés modèles de base), tels que GPT, LLaMA et DALL-E, ont fait leur apparition au cours de la dernière année et ont transformé l’intelligence artificielle (IA), donnant à de nombreuses entreprises qui les experimentent une amélioration de la productivité et de l’efficacité. Mais ces avantages s’accompagnent d’une lourde dose d’incertitude. «La transparence est une condition préalable essentielle à la reddition de comptes publics, à l’innovation scientifique et à une gouvernance efficace des technologies numériques», a déclaré Rishi Bommasani, responsable de la société au sein du Centre de recherche sur les modèles de base de Stanford. «Le manque de transparence est un problème de longue date pour les consommateurs de technologies numériques.

Share the Post: