Heutzutage ist ein seltsames Handy nicht mit dem Porträtmodus oder Augmented-Reality-Effekten kompatibel. Jedes Gerät verfügt über eine andere Hardware, jedoch über die verschiedenen verfügbaren Entwicklungsplattformen Entwickler die Arbeit erleichtern. Google hat es in einer neuen Veröffentlichung formalisiert ein neues Werkzeug für diese Prozesse.

Das Unternehmen kommentiert das Echtzeit-Iris-Tracking Dies ist einer der Schlüssel zur Verbesserung der Computerfotografie und der Augmented Reality. Dies ist sinnvoll, da, wenn das Mobiltelefon die Position der Iris in Echtzeit abschätzen kann, Sie können die Position der übrigen Elemente leichter abschätzen.

MediaPiPe Iris: Googles Technologie zur Verbesserung der Kamera unserer Handys

Google behauptet, dass die Echtzeit-Irisverfolgung für Mobiltelefone aufgrund der verfügbaren Ressourcen, der unterschiedlichen Lichtverhältnisse und des Vorhandenseins verschiedener Okklusionen wie zusammengekniffener Augen, Haare oder Haare eine schwierige Aufgabe ist Objekte, die die Augen und den Rest bedecken. Um dies zu verbessern, haben sie MediaPipe Iris gestartet. ein neues Modell des maschinellen Lernens Dies ermöglicht eine genauere Schätzung der Iris.

Fitbit Sense zur Prüfung: Die Fragen, die Sie uns (und deren Antworten) zu Fitbits ehrgeizigster Smartwatch gesendet haben

Das neue Google-Modell öffnet viele Türen und arbeitet mit einem einzigen RGB-Sensor, ohne dass spezielle mobile Geräte erforderlich sind

Dieses Modell, nach Angaben des Unternehmens, kann verschiedenen Orientierungspunkten folgen die sowohl die Iris, die Pupille als auch die Augenpartie selbst betreffen. Der beste Punkt hier ist das Das Modell kann mit einer einzelnen RGB-Kamera arbeitenSie benötigen also keine spezielle Hardware wie 3D-Sensoren, zwei Kameras usw. So könnte jedes Telefon mit einer Selfie-Kamera das Modell verwenden. Google verspricht das mit diesem Modell Kameraentfernung kann mit einem relativen Fehler von weniger als 10% bestimmt werdenein ziemlich gutes Maß an Präzision.

Darkest Dungeon 2 konzentriert sich auf 3D und wird nächstes Jahr für Early Access verfügbar sein


Die Schätzung der Iristiefe erfolgt aus einem einzelnen Bild aus der eigenen Brennweite der Kamera. Dies ist besonders nützlich, weil ermöglicht es dem Mobiltelefon, die genaue Entfernung zu ermitteln, in der wir uns befinden, was sowohl hinsichtlich der Zugänglichkeit als auch der Augmented Reality viele Türen öffnet.

Um die Wirksamkeit dieses Tools zu überprüfen, hat Google es verglichen mit dem Tiefensensor des iPhone 11. Sie sagen, dass mit dem Apple-Gerät die Fehlerquote bei Entfernungen von weniger als 2 Metern weniger als 2% beträgt, während die von Google einen durchschnittlichen relativen Fehler von 4,3% aufweist. Wie wir sehen können, Der Fehler ist klein genug für jeden speziellen Hardware-Teenagerund liefert zuverlässige Daten zur metrischen Tiefe und Irisposition.

LaLiga kommt offiziell auf Twitch an! Ein großer Schritt für den Fußball

Quelle: Frandroid