« Le Super Res Zoom du Pixel 9 atteint le point idéal – le reste est un excès d’IA. »

Personne ne veut porter un objectif zoom, encore moins un appareil photo autonome pouvant y être fixé. Ou du moins la grande majorité des gens n’en veulent pas, c’est pourquoi il semble que les fabricants de smartphones ont tellement insisté pour ajouter des objectifs ultra larges et téléobjectifs à leurs téléphones. Et bien qu’ils ne soient pas tout à fait aussi performants qu’un reflex numérique, un téléphone comme le Pixel 9 Pro peut capturer des images téléphoto qui sont tout au moins acceptables en tant que photos professionnelles. Bien sûr, Google a fait de grands efforts pour rendre cela possible, en commençant par Super Res Zoom qui simule un zoom 2x sur le Pixel 3 sans téléobjectif, jusqu’à Zoom Enhance qui nettoie les photos recadrées et Super Res Zoom Video qui ajoute un zoom 20x aux vidéos capturées avec le Pixel 9 Pro et Pro XL. Tout le monde ne voit peut-être pas la fonction de zoom numérique de Google comme une fonctionnalité d’IA, mais c’est l’un des premiers exemples de la société appliquant l’apprentissage automatique pour créer des images que votre téléphone ne serait normalement pas capable de capturer par lui-même.

Alors que le scepticisme grandit autour de savoir si tout le monde devrait vraiment avoir toutes les compétences en édition photo offertes par les téléphones Pixel 9 de Google, Super Res Zoom semble être un domaine où une ligne peut être tracée clairement – utiliser l’IA pour vous aider à prendre une bonne photo est très différent de pouvoir déformer n’importe quelle image. Le Pixel 9 offre des performances et un design impressionnants, mais son outil Reimagine AI me fait vraiment peur.

Dans les premières années du Pixel, l’une des approches uniques de Google en matière de photographie sur smartphone était son engagement envers un seul objectif. La société a pu distancer largement ses concurrents en termes de qualité d’image et a évité d’ajouter du volume supplémentaire à l’arrière du Pixel en simulant les prises de vue zoomées que d’autres smartphones faisaient avec des objectifs intégrés. Super Res Zoom a été introduit sur le Pixel 3 et le Pixel 3 XL comme moyen de créer un zoom 2x sans ajouter un autre objectif. En combinant le tremblement naturel de votre main pour obtenir plusieurs angles sur un cadre ainsi que plusieurs images du même sujet, Super Res Zoom sur le Pixel 3 a ajouté des détails à une image recadrée numériquement. À l’époque, Google comparait le processus à la technique de « drizzling » que les télescopes spatiaux utilisent pour capturer des photos détaillées des corps astronomiques.

Super Res Zoom était révolutionnaire à l’époque, même s’il a finalement été surpassé par les lentilles téléphoto physiques de plus en plus puissantes ajoutées aux téléphones par Samsung, Apple, et finalement Google lui-même. C’était une version numériquement modifiée de la vérité, mais toujours basée sur ce que vos yeux et le Pixel 3 pouvaient voir.

À partir du Pixel 4, Google a commencé à compléter les détails que ses lentilles téléphoto optiques étaient capables de capturer avec le traitement computationnel qu’il effectuait déjà avec Super Res Zoom. Ainsi, tout ce qui dépasse le zoom optique 5x sur l’objectif téléphoto du Pixel 7 Pro, par exemple, était en un sens une collaboration entre le capteur physique de votre téléphone et les détails que les algorithmes de Google et le processus d’apprentissage automatique étaient capables d' »imaginer ».

Plus vous zoomez, plus l’appareil photo téléobjectif fait appel à l’IA. Pour le Pixel 7 Pro en particulier, Google recadre le capteur 48 mégapixels de l’appareil photo, puis applique un processus appelé « remosaicing » pour convertir les données que vous capturez, ensuite nettoyé par un autre processus que Google appelle « HDR+ avec bracketing » pour supprimer le bruit, et « stabilisation du zoom » pour s’assurer que la photo de départ est propre, même de loin. Pour un zoom 20x et au-delà, Google utilise « un nouvel amplificateur ML qui inclut un réseau neuronal pour améliorer les détails de vos photos », selon le blog de la société expliquant la version mise à jour de Super Res Zoom. « Plus vous zoomez, plus l’appareil photo téléobjectif fait appel à l’IA. »

Pour le Pixel 9 Pro et Pro XL, Google a étendu à la fois Super Res Zoom à la vidéo (techniquement, Super Res Zoom Vidéo) et ajouté une toute nouvelle façon de nettoyer les photos zoomées appelée Zoom Enhance. Contrairement aux photos fixes, Super Res Zoom Vidéo nécessite le traitement Video Boost de Google pour fonctionner. Une décision qui pourrait être liée à la similitude des spécifications de l’appareil photo du Pixel 9 Pro avec celles du Pixel 8 Pro.

Video Boost conserve une version de votre vidéo localement sur votre téléphone, mais déplace le gros du traitement de l’agrandissement et d’autres traitements d’IA vers le cloud. Ainsi, pour obtenir le même effet que ce que Google est capable de faire localement avec les photos fixes, votre vidéo devra faire un aller-retour hors de votre téléphone et revenir. Cela ne veut pas dire que Super Res Zoom Vidéo n’est pas impressionnant en lui-même. L’effet est plutôt subtil, mais il y a plus de détails lorsque Super Res Zoom est appliqué par rapport à une vidéo non retouchée, sur la base de l’exemple fourni par le rédacteur en chef de Pocket-lint, Patrick O’Rourke.

Zoom Enhance, contrairement à Super Res Zoom Vidéo, se fait sur l’appareil et peut être appliqué après coup à n’importe quelle photo de votre bibliothèque. Les améliorations de Google ne semblent pas aussi spectaculaires que ce qui avait été initialement promis, mais il s’agit d’un autre outil utile à avoir si nécessaire.

Zoom Enhance n’est disponible que sur le Pixel 9 Pro et Pro XL, malgré le fait qu’il n’utilise pas l’objectif téléphoto du téléphone.

Dans l’ensemble, les améliorations et les changements apportés à Super Res Zoom (et aux photos téléobjectif en général) sont bons, mais l’accent accru sur ce que le Pixel 9 Pro est capable de faire par lui-même, et non sur ce à quoi il peut accéder dans le cloud, met vraiment en lumière à quel point l’expérience photographique est artificielle. Google continue de baser les photos que vous prenez sur la lumière réelle que votre smartphone est capable de capturer, mais de plus en plus en collaboration avec des détails totalement originaux qui ne sont techniquement pas présents au moment où vous avez capturé votre photo, voire pas du tout.

Il est indéniable que ce que le Pixel 9 peut créer à partir de l’IA générative est impressionnant, amusant et effrayant à parts égales. La préoccupation quant à ce que l’usage abusif de ces outils pourrait entraîner devrait-elle s’appliquer au processus de capture ? Pas nécessairement, mais ils sont absolument liés, surtout que de plus en plus de parties du processus photographique impliquent des logiciels dans le cloud.

Si quoi que ce soit, des fonctionnalités comme Super Res Zoom ou Add Me, la méthode astucieuse du Pixel 9 pour composer des photos de groupe ensemble, sont des exemples de la ligne que Google ne devrait pas franchir en ce qui concerne les fonctionnalités de photo IA. Il est normal d’étendre ce que votre smartphone est déjà capable de faire en termes de capture d’une bonne photo, mais tout le reste devrait être sujet à la critique. Améliorer la réalité que vous pouvez voir à travers l’écran de votre smartphone est discutable, mais au moins ancré dans la réalité. Modifier radicalement ce que vous voyez ne devrait probablement pas être autorisé, ou du moins ne pas recevoir un soutien inconditionnel de la part de la société qui fabrique votre téléphone.

Share the Post: