L’intelligence artificielle est hautement imprécise pour une utilisation commerciale – et devient de plus en plus opaque.

Les grands modèles linguistiques (LLMs), les plateformes algorithmiques sur lesquelles sont construits les outils d’IA générative (genAI) tels que ChatGPT, sont très inexacts lorsqu’ils sont connectés aux bases de données des entreprises et deviennent moins transparents, selon deux études. Une étude de l’université de Stanford a montré que, à mesure que les LLM continuent à ingérer une énorme quantité d’informations et à grossir, la genèse des données qu’ils utilisent devient de plus en plus difficile à retracer. Cela, à son tour, rend difficile pour les entreprises de savoir si elles peuvent construire en toute sécurité des applications qui utilisent des modèles de base genAI commerciaux et pour les chercheurs de s’appuyer sur eux pour leurs recherches. Il rend également plus difficile pour les législateurs de concevoir des politiques efficaces pour maîtriser cette puissante technologie, et «pour que les consommateurs comprennent les limitations des modèles ou demandent réparation pour les préjudices qu’ils ont subis», a déclaré l’étude de Stanford. Les LLM (également appelés modèles de base), tels que GPT, LLaMA et DALL-E, sont apparus au cours de la dernière année et ont transformé l’intelligence artificielle (IA), donnant à de nombreuses entreprises qui les expérimentent une amélioration de leur productivité et de leur efficacité. Mais ces avantages s’accompagnent d’une lourde dose d’incertitude. «La transparence est une condition préalable essentielle à la reddition de comptes, à l’innovation scientifique et à la gouvernance efficace des technologies numériques», a déclaré Rishi Bommasani, principal responsable des fondations de modèles à l’université Stanford. «Le manque de transparence a longtemps été un problème pour les consommateurs de technologies numériques.»

Share the Post: