Table des matières:
- Voici comment fonctionne l'algorithme de Google
- Correction automatique tenant compte du contexte
- Peut-être verrons-nous cette technologie dans le Pixel
Des chercheurs de Google et du MIT ont développé un algorithme qui cherche à corriger les défauts des prises de vue grand angle.
Vous avez peut-être vu que les visages de certaines personnes semblent étirés, légèrement écrasés ou avec une certaine distorsion sur les photos. Bien que cela puisse être dû aux quelques compétences du photographe, la vérité est que les prises de vue avec l'objectif grand angle à partir d'appareils mobiles provoquent généralement une distorsion des objets ou des personnes qui se trouvent au bord de l'image.
Il existe différentes méthodes qui tentent de résoudre ce problème, mais jusqu'à présent, aucune n'a été aussi efficace que la nouvelle proposition de Google. Bien que cela puisse sembler facile à corriger, ce n'est pas le cas, car cela nécessite une édition locale complexe qui n'affecte pas le reste des objets de la photo.
Voici comment fonctionne l'algorithme de Google
Comme l'expliquent les chercheurs, cet algorithme détecte les visages et crée un maillage qui permet d'inverser automatiquement ce type de distorsion lors de la prise de vue avec un grand angle comme illustré sur l'image:
Nous pouvons faire la différence lors de l'application de cet algorithme dans les images suivantes. C'est un selfie qui a été pris avec un objectif grand angle avec un champ de vision de 97 °.
La première image montre les distorsions dans les visages et la seconde montre comment l'algorithme a restauré les formes de visage à leur état d'origine.
Autrement dit, ce processus est activé automatiquement lors de l'utilisation de l'objectif grand angle, fournissant cette assistance spéciale aux visages, mais sans provoquer de changements dans le reste de l'image. Et bien sûr, la vitesse de cette correction automatique (environ 920 millisecondes) rend la détection impossible pour les utilisateurs.
Selon leurs tests, cet algorithme fonctionne avec succès dans la plage de 70 ° à 120 ° dans le champ de vision, couvrant presque toutes les possibilités à partir d'un appareil mobile.
Pour tirer parti du potentiel de cet algorithme, l'utilisateur n'aurait à entreprendre aucune action ni à activer un mode caméra spécial. Cette fonction ne serait mise en œuvre automatiquement que lorsqu'elle détecte que l'objectif grand angle est utilisé.
Correction automatique tenant compte du contexte
Nous pouvons voir la dynamique de cet algorithme dans la vidéo suivante:
L'algorithme corrige automatiquement en tenant compte du reste des objets qui apparaissent sur la scène, garantissant que tout le contexte de la photographie correspond. Les résultats sont naturels sans détails qui montrent que la photographie a été modifiée du tout.
L'équipe derrière ce projet a partagé une galerie de photos sur Flickr montrant comment différentes méthodes abordent ce problème par rapport à la dynamique de leur algorithme. Il y a plus de 160 photographies (comme celle que vous voyez au début de l'article) qui nous aident à évaluer les résultats.
Peut-être verrons-nous cette technologie dans le Pixel
Nous pourrions espérer que cet algorithme ou une technologie dérivée sera appliqué dans la prochaine génération de Pixel, puisque l'équipe qui participe à ce projet sont des employés de Google.
Cependant, dans le document qu'ils ont partagé, ils n'ont rien mentionné à ce sujet. Ces premiers tests de l'algorithme en action ont été couronnés de succès montrant une fois de plus comment le potentiel de l'intelligence artificielle peut améliorer la dynamique des appareils mobiles et faciliter la vie des utilisateurs.
Depuis sans aucun doute, avoir une dynamique similaire dans notre appareil mobile permettrait d'économiser beaucoup de maux de tête et de temps à essayer de modifier ces distorsions dans les photographies.
