Portrait Les selfies sont ce que je préfère dans les smartphones en ce moment. Je peux sentir tes yeux rouler pendant que tu lis ceci, mais écoute-moi un instant. Sur le plan technique, nous assistons à une poussée massive pour améliorer la qualité de la caméra frontale tout en appliquant des cartes de profondeur et une correction des couleurs afin de transformer instantanément une photo en quelque chose de nouveau. C'est fascinant et amusant, et dans les débuts de cette fonctionnalité existante sur les smartphones, il existe deux manières très différentes de créer cet effet.
La caméra True Depth d'Apple est dotée de plusieurs capteurs pour créer une carte de profondeur en temps réel sur l'iPhone X. La solution de Google repose entièrement sur l'apprentissage automatique et une caméra unique impressionnante pour obtenir le même effet sur le Pixel 2. Voici comment ces deux méthodes sont présentées. comparer!
Lorsque vous comparez ces appareils photo, la première chose à comprendre est la priorité accordée par Apple et Google aux photos en cours de production. Nous savons, sur le plan technique, que ces deux téléphones disposent actuellement des meilleures capacités photo au monde, la seule différence pour la plupart des utilisateurs en matière de lecture étant de savoir quelles parties de la photo et quelles fonctionnalités sont prioritaires.
Dans ces plans, deux choses deviennent rapidement évidentes. L'arrière-plan de la photo de l'iPhone X est masqué pour que mon visage soit bien éclairé et correctement coloré. Le fond de la photo Pixel 2 est mieux équilibré avec le reste de la photo grâce au Google HDR +, mais mon visage est visiblement plus sombre et prend une teinte légèrement rougeâtre que vous ne voyez pas sur l'autre photo.
Il existe également des différences substantielles dans cet effet de flou utilisé pour créer Portrait Selfies. Le logiciel de Google applique un flou plus agressif et fait ressortir les imperfections de la carte de profondeur. On dirait presque qu'un autocollant m'a été appliqué sur cette photo. Le bleu d’Apple a un aspect un peu plus naturel jusqu’à ce que vous arriviez à mes cheveux et que certaines parties de moi commencent à sembler un peu floues. Aucun des deux clichés ne "cloue" réellement la photo en raison de leurs défauts respectifs, mais les défauts sont suffisamment subtils pour que vous ayez une paire de photos amusantes.
Voici un autre exemple, mais cette fois-ci, il s'agit d'un plan en extérieur zoomé à 100%.
Cette paire de coups offre beaucoup des mêmes conclusions. Apple éclaire mieux mon visage, en particulier mes yeux, tandis que Google éclaire mieux l'arrière-plan et enrichit l'ensemble de la photo. Le flou d'Apple s'étend trop profondément dans mes cheveux et fait en sorte qu'une partie de moi-même soit floue, tandis que le flou de Google est si intense qu'il a en fait supprimé certains de mes cheveux qui restaient en retrait. Sans le mode Portrait, il est clair que l'iPhone X a pris la meilleure photo, mais avec ce mode photo, il est plus facile d'apprécier l'effet du logiciel de Google.
Apple et Google semblent aborder cette technique de photo dans des directions opposées, et il semblerait que ce que nous verrons dans un avenir pas trop lointain est une sorte de réunion au milieu.
Il existe certaines limitations naturelles à ces deux modes photo, en particulier en ces débuts. L'iPhone X émettra des avertissements en mode Portrait si l'arrière-plan est trop clair ou si les objets à l'arrière-plan sont trop éloignés pour capturer une carte de profondeur appropriée. L'algorithme de Google a la mauvaise habitude d'éditer les coins de lunettes de vue ou d'objets au premier plan qui ne sont pas attachés à une personne. Il y a quelques essais et erreurs à faire pour que les deux fonctionnent correctement, ce qui, en théorie, devient de moins en moins fréquent au fur et à mesure que Apple et Google continuent à améliorer cette technologie.
La plus grande chose qu'Apple ait sur Google dans ce mode Portrait doit être l'éclairage du portrait. Pouvoir voir les modifications possibles de la photo en temps réel au fur et à mesure que vous prenez la photo est un gros problème, et la possibilité de continuer à éditer l'éclairage de portrait une fois la photo prise est incroyable. C'est une fonctionnalité très aléatoire à l'heure actuelle, en particulier lorsque vous commencez à regarder Stage Lighting, mais seul l'iPhone dispose de cette fonctionnalité pour le moment.
Lors de l'édition des photos, Google a quelque chose que Apple n'a pas et devrait probablement. Lorsque vous prenez une photo en mode portrait avec un pixel 2, vous obtenez une paire de photos. Une photo est modifiée avec les zones floues et l'autre est un simple selfie avec la caméra frontale. Cela vous donne la possibilité d'éditer les deux photos et de voir celles que vous préférez. Apple conserve tout comme une seule photo, ce qui, à mon avis, est un peu moins pratique pour voir les modifications entre les deux modes. D'autre part, il y a une photo de moins dans votre pellicule, il s'agit donc probablement d'une préférence personnelle.
Il y a beaucoup à dire sur la "bonne" façon de prendre une photo, et plus encore sur les vertus de la précision des couleurs et de l'efficacité des fonctionnalités. Apple et Google semblent aborder cette technique de photo dans des directions opposées, et il semblerait que ce que nous verrons dans un avenir pas trop lointain est une sorte de réunion au milieu. À l'heure actuelle, il n'est pas clair que l'approche basée sur le matériel d'Apple soit sensiblement meilleure que l'approche basée sur le logiciel de Google pour Portrait Selfies. Toutes les choses qui font que la caméra iPhone X prend un super selfie existent déjà sur les iPhone 8 et 8 Plus. En même temps, il n’est pas clair à quel point Google peut améliorer son logiciel de retouche photo avec un seul appareil photo et une préférence d’éclairage pour la photo entière au lieu du visage.
Une chose est absolument claire: nous ne sommes pas près de la fin d'Apple et de Google, qui nous offrent de plus en plus de meilleures selfies.