« La digue de la maison de campagne cède après le départ du directeur de la technologie de longue date de Teradata. »

L’entrepôt de données mis à jour de Teradata, un pilier du secteur, a écarté son aversion pour le concept de lakehouse en adoptant l’idée de réaliser des analyses d’entreprise sur des données non structurées – une situation contre laquelle il s’était une fois opposé. Fondée en 1979, la société a été pionnière dans le domaine de l’entreposage de données d’entreprise pendant les décennies jusqu’aux années 2010, mais a depuis été éclipsée par des produits d’entrepôt de données dits natifs du cloud, promettant une plus grande flexibilité et des coûts de démarrage plus faibles. Teradata a maintenant annoncé son soutien aux formats de table ouverts (OTFs) Apache Iceberg et Linux Foundation Delta Lake, adoptant une tendance de l’industrie vers la réalisation d’analyses sur les données in situ, plutôt que de les déplacer dans un seul magasin pour la BI et d’autres analyses. Teradata a affirmé que l’adoption de l’IA avait consolidé les entrepôts de données, les analyses et les charges de travail en science des données dans des lakehouses unifiés. « Le soutien aux OTFs renforce davantage les capacités lakehouse de Teradata, fournissant une couche d’abstraction de stockage conçue pour être flexible, rentable et facile à utiliser, » a-t-il déclaré dans une missive corporative. Le concept de lakehouse est issu de Databricks, un rival de Teradata, une entreprise de machine learning et d’analyse avec une histoire basée autour d’Apache Spark. Databricks a lancé le concept en 2020 comme une sorte d’approche hybride en apportant une meilleure gouvernance aux data lakes où les organisations stockent des données désordonnées et en permettant des analyses basées sur SQL in situ.

Share the Post: