‘IA sur le bord: de la théorie à la pratique’

Commandé, l’Internet des objets (IdO) a montré une croissance significative et prometteuse, les données générées par les appareils IdO seuls devraient atteindre 73,1 ZB (zettabytes) d’ici 2025. Déplacer ces données loin de leur point de création vers un centre de données centralisé ou un cloud serait contraire à l’objectif de l’application. Ainsi, l’informatique en périphérie est née. En avançant rapidement vers 2024, l’informatique en périphérie est désormais associée aux récentes avancées en intelligence artificielle (IA) pour traiter intelligemment les données en périphérie, permettant des vitesses plus rapides, une latence réduite et une amélioration de la confidentialité et de la sécurité. Dans des secteurs tels que la fabrication et les soins de santé, où l’efficacité et la précision sont essentielles, l’IA en périphérie change la donne. Dans la fabrication, où environ 15 milliards de dispositifs connectés sont déployés dans le monde, les millisecondes perdues pour l’envoi de données vers le cloud pour le traitement peuvent faire la différence entre détecter immédiatement un défaut ou le laisser passer à travers le contrôle qualité. En santé, l’immédiateté avec laquelle les données des patients sont analysées peut affecter la précision des diagnostics et l’efficacité du traitement, notamment avec le risque des soins de santé décentralisés et des dispositifs portables. En traitant les données sur place, l’IA en périphérie élimine la latence introduite par l’informatique en nuage, ce qui permet des décisions plus opportunes et éclairées. Le marché mondial des technologies d’informatique en périphérie devrait passer de 46,3 milliards de dollars en 2022 à 124,7 milliards de dollars d’ici 2027, avec un taux de croissance annuel composé (TCAC) de 21,9 pour cent de 2022 à 2027. Mettre en œuvre l’IA en périphérie apportera des avantages tangibles à toutes les industries, permettant aux entreprises de débloquer de nouvelles possibilités et d’atteindre des niveaux de performance plus élevés. Au cours de l’année écoulée, la conversation autour des modèles d’IA a commencé à changer. Les grands modèles avec des comptes de paramètres étendus ont commencé à céder la place à des modèles plus petits et plus ciblés. Cela inclut à la fois l’utilisation de modèles plus petits que l’utilisation de techniques d’efficacité, telles que la quantification, la sparseté et l’élagage, pour réduire la taille des grands modèles. Ces modèles plus petits sont plus faciles à déployer et à gérer tout en étant nettement plus rentables et explicables, offrant des performances similaires avec une fraction des ressources informatiques. Ces modèles plus petits peuvent également être utilisés dans de nombreux domaines spécifiques à des tâches. Les modèles pré-entraînés peuvent être optimisés pour des performances spécifiques à une tâche en utilisant des techniques telles que l’inférence et le réajustement, en en faisant des candidats parfaits pour les exigences strictes de l’informatique en périphérie.

Share the Post: