Le show tout AI d’AWS continue : génération de requêtes SQL à partir de texte, recherche vectorielle, et plus encore.

Un autre jour à AWS re:Invent et encore plus de conversations sur l’intelligence artificielle ont dominé, avec un cadre supérieur montant sur scène pour évoquer l’impact des bases de données vectorielles sur la technologie et plus encore. Le Dr Swami Sivasubramanian, vice-président d’AWS Data et AI, a donné le discours officiel sur l’IA à re:Invent à Las Vegas, un jour après que le PDG d’AWS Adam Selipsky ait également parlé principalement de l’IA. Sivasubramanian, VP of Data and AI, décrit la pile générative d’IA AWS Sivasubramanian a donné la perspective de la base de données, déclarant aux participants que des résultats d’IA de haute qualité dépendent de données de haute qualité, et mettant en avant des fonctionnalités, notamment la possibilité de générer du SQL à partir d’une entrée de texte pour Amazon Redshift, (un service de entrepôt de données), et l’ajout de la recherche vectorielle aux gestionnaires de bases de données, y compris OpenSearch serverless (disponible en général), MemoryDB pour Redis (préversion), DocumentDB (disponible en général), et bientôt pour Amazon Aurora et MongoDB. La recherche vectorielle est également disponible pour PostgreSQL via l’extension pgvector. Alors, pourquoi toute cette activité autour de la recherche vectorielle? «Les embeddings vectoriels sont produits par des modèles fondamentaux, qui transforment les entrées de texte comme les mots, les phrases ou les grandes unités de texte en représentations numériques», a déclaré Sivasubramanian. «Les vecteurs permettent à vos modèles de mieux trouver la relation entre des mots similaires, par exemple, un chat est plus proche d’un chaton, ou un chien est plus proche d’un chiot.»

Share the Post: