Dans une récente avancée, la start-up d’IA, Anthropic, a amélioré les capacités de son modèle d’IA, baptisé Claude 3.5 Sonnet, pour interagir directement avec le logiciel informatique comme le font les humains. C’est en effet un pas révolutionnaire dans le monde de la technologie de l’IA qui évolue rapidement.
Soulignant l’importance de ce nouveau développement, Anthropic a souligné dans leur billet de blog qu’un volume significatif de travail contemporain se déroule par le biais d’ordinateurs. En intégrant l’IA dans le mélange de manière plus intime, une multitude d’applications auparavant inaccessibles aux assistants IA deviennent possibles.
La génération actuelle d’assistants numériques, bien qu’capable d’interagir avec les ordinateurs en multitâche, dépend fortement d’outils intercalaires tels que Puppeteer ou Playwright et de cadres d’intégration de modèles de langage comme LangChain. Remarquablement, ces outils équipent ces modèles d’IA pour lire les écrans d’ordinateur de façon plutôt efficace.
Récemment, un développeur open source et influenceur de l’IA, Simon Willison, a éclairé l’efficacité fonctionnelle des autres modèles d’IA tels que Google AI Studio, découvrant que AI Studio était capable d’analyser un enregistrement écran d’une boîte de réception de courriel pour retracer les données numériques contenues dans les courriels et résumer les résultats dans une feuille de calcul.
Néanmoins, le modèle Claude d’Anthropic a fait un bond en avant. Le modèle n’engage pas seulement la lecture d’écran, mais peut directement interagir avec le logiciel informatique, établissant de nouveaux points de référence pour la technologie de l’IA. Cette progression symbolise en effet comment la technologie de l’IA continue de briser les limites et de transcender les attentes, laissant présager un avenir prometteur pour les assistants numériques.