« Une intégration plus étroite entre les technologies de l’information et les technologies opérationnelles commence par le zéro contact. »

Article commandité Nous pourrions tous travailler pour la même organisation, même sur la même infrastructure. Mais cela ne signifie pas que nous voyons tous les choses de la même manière. Prenez les équipes de la technologie de l’information (TI) et de la technologie opérationnelle (TO) qui font fonctionner la technologie dans la plupart des entreprises de toute taille. Autrefois, les TI étaient quelque chose qui se passait dans le datacenter ou le bureau. La TO était sur le terrain, sous la forme de systèmes de contrôle industriel ou de lignes de production, de systèmes distants dans des environnements inhospitaliers ou extrêmes. Ou cela pourrait simplement se référer à la technologie intégrée dans des opérations dispersées, telles que des succursales de vente au détail, qui étaient découplées des TI centrales. C’était littéralement à la « périphérie » de l’organisation. Peu importait si les personnes responsables de chacun avaient des vues très différentes de leurs objectifs souhaités et de la manière de les atteindre, car leurs mondes ne se chevauchaient pas vraiment. Comme l’explique Pierluca Chiodelli, vice-président de la gestion des produits pour les solutions de périphérie chez le géant technologique Dell, cela signifiait que les systèmes opérationnels avaient tendance à être très cloisonnés et axés sur des cas d’utilisation. « Les gens avaient des cas d’utilisation spécifiques en tête », dit-il. « Ils identifiaient l’application ou les applications spécifiques nécessaires à leur cas d’utilisation, se procuraient l’infrastructure informatique et de stockage nécessaire, puis installaient l’application. Leur cas d’utilisation était opérationnel en un rien de temps. Ils répétaient ce processus pour chaque cas d’utilisation, créant une prolifération de silos technologiques aux endroits périphériques comme les sites industriels, les magasins de détail, etc. » Récemment, il y a eu une poussée pour traiter et analyser les grandes quantités de données localement en périphérie (ou dans les environnements TO), au lieu de les amener dans le cloud et les datacenters. Cela est important pour réduire la latence et permettre des aperçus en temps réel. Et bien sûr, pour minimiser les coûts potentiels d’entrée et de sortie des données.

Share the Post: