Google Pixel 3 : comment fonctionne le zoom haute résolution ?
- Guillaume Gabriel
- Il y a 6 ans (Màj il y a 6 ans)
- 💬 Réagir
- 🔈 Écouter
Il y a quelques jours, Google faisait la présentation de ses nouveaux Pixel 3, véritable bijou pour les amateurs de photographie et de nouvelles technologies dans ce domaine.
Ses créateurs ont beaucoup misé sur l'intelligence artificielle qui compose l'appareil en proposant des fonctionnalités incroyables autour de l'appareil photo.
Ainsi, on retrouve la fonction « Meilleur cliché » qui choisit la photo la plus réussie parmi une rafale, « Vision de nuit » qui permet de faire des clichés en pleine nuit sans utiliser le flash mais également « Zoom HD » qui utilise la rafale pour créer une image agrandie sans téléobjectif. C'est de cette dernière dont nous allons parler aujourd'hui...
comment fonctionne le zoom haute résolution du pixel 3 ?
Google vient de détailler le fonctionnement de son nouvel outil présent dans le Pixel 3 : le zoom haute résolution. Selon son concepteur, ce dernier peut rivaliser avec un zoom optique. Spoiler : les premiers tests montrent que c'est faux mais qu'on s'en rapproche, ce qui est déjà impressionnant.
Mais alors, comment ça marche ? Pour simplifier les explications (très) détaillées de Google sur son article, la prouesse provient des mouvements du capteur.
Le principal problème des capteurs, c'est que les pixels ne distinguent pas la couleur, et donc les appareils actuels ajoutent un filtre devant ces derniers (rouge, bleu et vert).
Ce processus, complexe, associe chaque pixel à une couleur sans jamais être égal grâce à la technique du "dématriçage" qui, malheureusement, entraîne une perte de la qualité.
Pourtant, Google a réussi à réduire cette baisse, comme dit plus haut, en faisant bouger le capteur (via vos mouvements ou l'autofocus selon les cas) puis en choisissant une image de référence dans la rafale de photos. Les autres clichés s'alignent ainsi sur cette dernière pour éviter l'effet de flou si un élément de la photo bouge.
Autre prouesse, l'IA détecte la présence de murs, de panneaux ou d'éléments fixes pour s'en servir comme points de repère pour l’assemblage final.
Pas convaincu ? La photo ci-dessus montre la différence sur un zoom identique entre le Pixel 2 (déjà bon dans le domaine) et le Pixel 3.