Accueil » Actualité » Pixel 4 : Google révèle les secrets de l’IA qui rend ses photos si réalistes

Pixel 4 : Google révèle les secrets de l’IA qui rend ses photos si réalistes

Google révèle le secret du nouveau Pixel 4 pour réaliser des photos plus réalistes que ses concurrents à trois ou quatre objectifs : une technologie enrichie à l’IA associée au second objectif photo.

Google a beaucoup tardé à ajouter un deuxième objectif photo arrière sur ses appareils, si l’on compare à ses concurrents qui n’hésitent pas à en proposer deux, trois voire quatre. Le géant numérique a finalement cédé à la tendance avec son nouveau modèle Pixel 4, après s’être contenté d’un seul objectif arrière sur les trois générations précédentes.

Image 1 : Pixel 4 : Google révèle les secrets de l'IA qui rend ses photos si réalistes

Cette deuxième caméra arrière n’est pas là pour faire joli : l’équipe Google AI en charge du logiciel photo intégré au Google Pixel explique sur son blog comment elle exploite le second objectif et le logiciel intégré pour obtenir une meilleure estimation de la profondeur et générer de superbes flous artistiques d’arrière-plan (ou bokeh) qui n’ont rien à envier aux smartphones à triple ou quadruple objectif.

Les Pixel de la génération précédente s’appuyaient sur un système de mise au point automatique dite à « doubles pixels » afin d’estimer la profondeur nécessaire pour créer l’effet de flou en Mode Portrait. Un système équivalent à « deux appareils photo virtuels placés à chaque extrémité de l’objectif principal ». Il consiste à diviser chaque pixel en deux de sorte que chaque « demi-pixel » montre une moitié différente de l’image. On obtient ainsi deux angles décalés de la même scène.

Le Pixel 4 améliore et étend le flou du Pixel 3

Sur le Pixel 4 sorti cette année, Google dispose d’un objectif grand angle et d’un télé-objectif espacés physiquement de 13 mm. En associant les deux images, le smartphone peut déterminer la profondeur de champ dans toutes les directions, alors que le Pixel 3 ne pouvait le faire que dans une seule. Le Google Pixel 4 exploite aussi les doubles pixels « utiles » afin de capturer toutes les données susceptibles d’enrichir son Mode Portrait. Ce recours au vieux système aide le Pixel 4 à estimer la profondeur quelle que soit l’orientation du téléphone.

Google AI révèle également comment il a amélioré le système de flou artistique des Pixel 3 et 4 pour le hisser « au niveau d’un appareil photo reflex professionnel ». Un travail effectué en deux étapes : l’image brute produite par HDR+ est d’abord floutée, puis un mappage de tons est appliqué. Le tout permet d’obtenir des flous d’arrière-plan plus lumineux et plus nets, avec une saturation précise et adaptée.

Source : Blog Google AI