Aujourd’hui, un mobile étrange n’est pas compatible avec le mode portrait ou avec des effets de réalité augmentée. Chaque appareil a un matériel différent, mais les différentes plates-formes de développement mises à disposition développeurs rendre le travail plus facile. Google, dans une nouvelle publication, l’a officialisé un nouvel outil pour ces processus.

La société commente que suivi de l’iris en temps réel c’est l’une des clés de l’amélioration de la photographie computationnelle et de la réalité augmentée. Cela a du sens puisque, si le mobile est capable d’estimer la position de l’iris en temps réel, il vous sera plus facile d’estimer la position du reste des éléments.

Cyberpunk 2077 critiqué pour son crunch mais CD Projekt RED ne convient pas: `` Certains préféreraient que nous soyons de mauvaises personnes ''

MediaPiPe Iris: la technologie de Google pour améliorer la caméra de nos mobiles

Google affirme que le suivi de l’iris en temps réel est une tâche difficile pour les téléphones mobiles, en raison des ressources disponibles, des conditions d’éclairage variables et de la présence de différentes occlusions, telles que des yeux plissés, des cheveux ou des objets qui recouvrent les yeux et le reste. Pour améliorer cela, ils ont lancé MediaPipe Iris, un nouveau modèle d’apprentissage automatique ce qui permet d’obtenir une estimation plus précise de l’iris.

Le nouveau modèle Google ouvre de nombreuses portes, en travaillant avec un seul capteur RVB sans avoir besoin de matériel mobile spécialisé

Moto G9 Power: une grosse batterie de 6000 mAh pour battre ses rivaux et ceux à la maison en autonomie

Ce modèle, selon l’entreprise, est capable de suivre différents points de repère qui impliquent à la fois l’iris, la pupille et le contour de l’œil lui-même. Le meilleur point ici est que le modèle est capable de travailler sur une seule caméra RVB, vous n’avez donc pas besoin de matériel spécialisé comme des capteurs 3D, deux caméras, etc. Ainsi, tout téléphone équipé d’une caméra selfie pourrait utiliser le modèle. Google promet qu’avec ce modèle sujet à la distance de la caméra peut être déterminée avec une erreur relative inférieure à 10%, un assez bon niveau de précision.


L’estimation de la profondeur de l’iris est faite à partir d’une seule image, à partir de la propre distance focale de la caméra. Ceci est particulièrement utile car permet au mobile de connaître la distance exacte à laquelle nous en sommes, ce qui ouvre de nombreuses portes tant au niveau de l’accessibilité qu’au niveau de la réalité augmentée.

Emplacements Fortnite Storm Circles – Trouvez toutes les tempêtes dans un match

Pour vérifier l’efficacité de cet outil, Google l’a comparé avec le capteur de profondeur de l’iPhone 11. Ils disent qu’avec l’appareil Apple, la marge d’erreur est inférieure à 2% pour des distances inférieures à 2 mètres, tandis que celle de Google a une erreur relative moyenne de 4,3%. Comme on peut le constater, l’erreur est assez faible pour aucun teener de matériel spécialisé, et permet d’obtenir des données fiables sur la profondeur métrique et la position de l’iris.

Source: Frandroid