Pouvons-nous apprivoiser le flot de données insuffisantes ou douteuses circulant à travers les systèmes d’intelligence artificielle ? L’IA est freinée par des hallucinations, des biais, des données d’entraînement polluées et – en fin de compte – par l’incertitude organisationnelle. Les leaders et penseurs de l’industrie ont quelques idées pour remettre les données en ordre. Si les données sont le nouvel « or noir », alors l’IA, « qui en a énormément besoin, est le ‘gros mangeur’ de données », a déclaré Andy Thurai, analyste principal chez Constellation Research, à ZDNET. Cependant, consommer de grandes quantités de données risque de réduire la qualité du processus – créant des problèmes de confiance avec l’IA. De plus : Des formateurs en IA aux éthiciens : l’IA peut rendre obsolètes certains emplois mais en créer de nouveaux. Une enquête de Salesforce auprès de 6 000 employés a révélé que trois quarts ne font pas confiance aux données utilisées pour former l’IA avec laquelle ils travaillent. Une enquête de Fivetran auprès de 550 dirigeants d’organisations importantes estime que les organisations perdent en moyenne 6% de leurs revenus annuels, soit 406 millions de dollars, en raison de modèles d’IA sous-performants (construits à partir de données inexactes ou de faible qualité), ce qui entraîne des décisions commerciales erronées. Les organisations qui tirent parti de grands modèles de langage (LLM) signalent des inexactitudes et des hallucinations de données 50% du temps. De plus, corriger ces lacunes nécessite une curation des données et un contrôle de qualité, ce qui prend beaucoup de temps à des personnes qui devraient se concentrer sur les problèmes commerciaux. « La plupart des data scientists passent du temps à curation ou à jongler avec des données plutôt qu’à créer et tester réellement des modèles », a ajouté Thurai.
Donnez vie à vos histoires avec Epidemic Sound
Dans le monde numérique d’aujourd’hui, le contenu visuel est roi. Mais qu’est-ce qui transforme une bonne vidéo en une expérience