Malgré le fait que Google ait présenté un argument solide en faveur du lancement de la gamme Pixel 9 au cours des prochaines semaines, il était difficile de ne pas penser à Apple lors de l’événement de Google. Moins en raison du matériel similaire à l’iPhone que Google a présenté, et plus en raison de la véritable star de l’événement — le choix de Google de placer l’IA au centre d’Android — qui a mis en lumière de manière dramatique le retard d’Intelligence d’Apple. Google et Apple ont un problème similaire à résoudre : transformer les modèles d’IA qui semblent être les plus utiles aux ingénieurs informatiques et aux chercheurs médicaux en produits grand public que la personne moyenne peut utiliser confortablement. La principale différence entre ce que Google a démontré lors de son événement et ce qu’Apple a annoncé lors de la WWDC 2024, c’est le timing. Apple pourrait présenter une vision plus lumineuse, plus sûre et plus conviviale de la manière dont l’IA peut fonctionner sur l’iPhone, mais Google est prêt à offrir presque toutes les mêmes fonctionnalités qu’Apple a montrées essentiellement maintenant, plutôt que par le biais d’un programme bêta prolongé. Avec plusieurs idées auxquelles Apple n’essaie même pas. De nouveaux smartphones et montres connectées ont peut-être été la raison pour laquelle Google a organisé son événement Made by Google, mais la principale conclusion de l’événement est l’existence d’un écart croissant entre Apple et des concurrents plus prêts à tirer parti de l’attention que reçoit l’IA générative. Un écart que aucun nombre de nouveaux iPhones brillants ne peut corriger. Si Apple peut améliorer ses outils incorporés dans ses applications, elle a une chance de se démarquer face à la concurrence. Alors que Google et Apple gèrent fondamentalement des activités différentes — Google se concentre sur les services, Apple sur le matériel — les deux entreprises en sont finalement venues à des idées très similaires sur la manière dont l’IA devrait fonctionner sur les smartphones. Elles possèdent toutes deux un genre d’assistant (Gemini et Siri) auquel vous pouvez accéder directement pour obtenir des informations et des demandes générales sur l’appareil, et lorsque vous en avez besoin, l’assistant peut exploiter les informations contextuelles d’autres applications pour répondre à des questions et des tâches plus complexes. Les deux entreprises poursuivent également un mélange de traitement sur l’appareil et d’envoi de requêtes vers le cloud. Google a depuis longtemps fait appel à ses serveurs pour certaines des fonctionnalités les plus exigeantes que les Pixels peuvent effectuer, comme Video Boost, qui corrige les couleurs et lisse même les vidéos les plus brutes. Sur le Pixel 9, cependant, l’une des fonctionnalités phares, Pixel Screenshots, se déroule entièrement sur l’appareil grâce à une version mise à jour du modèle plus petit de Google, Gemini Nano. L’application, qui organise vos captures d’écran et les rend consultables avec un langage naturel, n’est même pas quelque chose qu’Apple tente actuellement. Google et Apple étendent également la transcription et les résumés, deux des choses pour lesquelles l’IA est généralement efficace, à travers leurs systèmes d’exploitation. Google propose Call Notes, qui transcrit et résume les appels. Apple ajoute également l’enregistrement des appels et des transcriptions à iOS 18. Gemini peut résumer le contenu de votre boîte de réception Gmail, alors que l’application Mail dans iOS 18 inclut simplement des résumés en haut des e-mails. Les deux entreprises offrent également des outils de génération d’images sur l’appareil pour créer des images à utiliser où bon vous semble sur votre téléphone. Gemini est techniquement plus flexible que Siri dans les types de questions qu’il peut répondre, quelque chose qu’Apple espère compléter en proposant la possibilité d’envoyer des demandes plus complexes à ChatGPT, mais en général, les deux entreprises sont alignées sur l’utilisation actuelle de l’IA sur les smartphones. Google est simplement en mesure d’offrir plus de complexité, en combinant des photos et des demandes de texte dans une seule demande (quelque chose que Siri ne peut pas faire), ou une conversation réaliste avec un assistant IA, grâce à Gemini Live. Critiquement, elle peut effectuer ces actions dès maintenant. L’entreprise a organisé son événement en direct et l’a rempli de démonstrations en direct de ces nouvelles fonctionnalités. Toutes n’ont pas fonctionné, et l’ensemble était un peu maladroit, mais cela a démontré un point. Apple a autrefois organisé des présentations de haut niveau en direct avant de passer à des présentations vidéo pré-enregistrées et minutieusement montées pendant le début de la pandémie de COVID-19, et n’est jamais revenu en arrière. Le fait que Google « le fasse en direct » était l’une des nombreuses façons dont l’entreprise a essayé de se différencier d’Apple tout au long de l’événement. Plus important encore, cela a montré que ces nouvelles fonctionnalités d’IA peuvent fonctionner maintenant plutôt que dans quelques mois ou années. Les nouveaux téléphones Google Pixel 9 possèdent quelques fonctionnalités exclusives en matière d’IA. Parcourez la page web d’Apple expliquant les fonctionnalités d’Apple Intelligence, et vous trouverez deux détails clés sur lesquels la société n’a pas trop insisté : la flexibilité de décrire l’Intelligence d’Apple comme une version bêta, et suggérer que toutes les fonctionnalités ne seront pas disponibles avant 2025, donnent à Apple une grande marge de manœuvre pour fournir quelque chose de radicalement différent de l’expérience présentée dans sa vidéo. Si l’on se fie aux versions bêta des développeurs, quelques-unes des plus grandes fonctionnalités d’Apple Intelligence ne seront probablement pas incluses lors du lancement du nouveau logiciel d’Apple plus tard cette année. Pocket-lint a eu l’occasion de tester les Outils d’écriture pour générer du texte, les nouvelles fonctionnalités de résumé et de transcription d’Apple, et le nouveau design visuel de Siri, mais le reste de ce qu’Apple a démontré, comme le Playground Image et la capacité de Siri à fonctionner à travers les applications et à disposer d’informations contextuelles sur ce qui est à l’écran, manque. Les propriétaires d’iPhone 16 pourraient ne pas être patients lorsque les téléphones Android phares sont capables de faire des choses assez importantes que leur téléphone ne peut pas faire. Bloomberg rapporte qu’Apple prévoit de lancer techniquement Apple Intelligence avec iOS et iPadOS 18.1, mais des fonctionnalités seront ajoutées progressivement, « via plusieurs mises à jour vers iOS 18 d’ici la fin 2024 et durant la première moitié de 2025. » Les fonctionnalités renouvelées de Siri feront apparemment partie de l’une de ces mises à jour de 2025, tandis que les nouveaux visuels apparaîtront dans les mises à jour 18.1. Cela signifie qu’un des points forts du nouvel iPhone d’Apple ne sera pas disponible au lancement, et l’ingrédient secret qui se rapproche le plus d’unir Apple Intelligence comme le fait le Gemini de Google sur le Pixel 9 est peut-être toujours à un an. Ce n’est pas nécessairement une catastrophe, mais le timing pourrait compter. Apple aime prendre son temps, mais les propriétaires du nouvel iPhone 16 pourraient ne pas être patients lorsque les téléphones Android phares sont capables de faire des choses assez importantes que leur téléphone ne peut pas. Le verdict est encore en suspens sur la question de savoir si les nouvelles fonctionnalités d’IA de Google valent la peine ou si elles fonctionnent aussi bien qu’elles le devraient. Les multiples erreurs lors de l’événement en direct suggèrent qu’il pourrait encore y avoir un certain nombre de défauts à corriger, mais je ne peux pas nier que j’ai été un peu excité par ce que Google a présenté. Je suis principalement utilisateur de l’iPhone, mais même voir Google présenter un fragment du rêve de l’assistant IA qu’il vend depuis des années était revigorant. Je ne suis pas sûr que cela ne soit pas maladroit, mais cela semble au moins utilisable. Je ne suis pas sûr de savoir dans quelle mesure le lancement progressif d’Apple Intelligence est motivé par (complètement justifié) prudence, par opposition à Apple qui est légitimement en retard par rapport à ses concurrents, mais le fait est que, du moins pour le reste de 2024, l’entreprise est sur la défensive. Et avec tant d’idées d’IA de base du Pixel étant soit similaires, soit plus ambitieuses que celles d’Apple, ce n’est pas le meilleur endroit où se trouver pour Apple.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du