L’automatisation du développement de l’intelligence générative

L’intelligence artificielle (IA) a fait la une des journaux d’affaires et de technologie ces derniers temps, en particulier avec l’émergence de technologies d’IA générative comme ChatGPT. Mais pour les entreprises qui commencent ou élargissent leur utilisation de l’IA et de l’IA générative, il reste des défis technologiques importants, ainsi que des obstacles de formation et de procédure à surmonter. Certes, le nombre d’entreprises utilisant l’IA continue d’augmenter à travers le monde et dans pratiquement tous les secteurs. Selon le rapport IBM Global AI Adoption Index 2022, l’adoption de la technologie est florissante. Il estime que le taux d’adoption mondiale de l’IA a progressé de façon constante en 2022 et atteint désormais 35 %, soit une hausse de quatre points par rapport à l’année précédente. Et 42 % des répondants à son enquête ont déclaré qu’ils étudiaient la manière dont ils pourraient commencer à utiliser l’IA. « D’une manière générale, c’est un nouveau domaine qui évolue très rapidement », déclare Assaf Katan, directeur général des affaires commerciales de Deci, une entreprise israélienne de développement d’AT. « Il y a une combinaison de défis à court et à long termes. A court terme, il s’agit vraiment de choisir votre chemin. Est-ce que je veux développer des fonctionnalités internes, travailler avec des modèles open source et les modifier moi-même; ou est-ce que je veux travailler via une API avec quelque chose comme Open AI? Ensuite, je n’ai pas besoin d’être super professionnel, mais aussi mon niveau de contrôle sur les performances du modèle et ma capacité à le personnaliser tout en garantissant la confidentialité des données sont limités. » Ce sont les premières décisions à court terme. Ensuite, en regardant sur le long terme, les entreprises doivent envisager la nécessité de passer à l’échelle et les coûts associés. « En regardant sur le long terme, supposons qu’une entreprise veuille créer un service d’IA générative. Ils pensent qu’il peut améliorer les performances, les flux de travail et qu’il sera à l’échelle », explique Katan. « Ils devront réfléchir aux implications de l’utilisation à l’échelle du modèle qui alimente leur solution. Ces modèles génératifs sont énormes avec des billions de paramètres, donc la puissance de calcul requise pour l’inférence est énorme. Comment le concevoir de manière à ce que, si vous le mettez à l’échelle, vous puissiez toujours faire face aux coûts? »
Avancer l’intelligence artificielle

Share the Post: