Wie funktioniert Gesichtserkennung?

Ein kleiner Exkurs

Bildbearbeitung begegnet uns jeden Tag. Oft sind wir uns dessen wahrscheinlich nicht einmal bewusst.

Wie viele von Ihnen entsperren Ihr Mobiltelefon mit Ihrem Gesicht? – Wahrscheinlich einige. Und das wahrscheinlich schon seit einigen Jahren.
Aber wie viele von Ihnen wissen, was eigentlich hinter der Gesichtserkennung steckt und wie das Ganze funktioniert? Erwischt? – Keine Sorge, hier erfahren Sie es!

Sobald du die Gesichtserkennung in deinem Handy kalibrierst, wird ein mathematisches Modell auf der Grundlage deines Gesichts erstellt. Dabei spielen mehrere Faktoren eine Rolle. Zum Beispiel der Abstand zwischen Augen oder Ohren, die Tiefe Ihrer Augen und viele andere. Jede Software berücksichtigt unterschiedliche Ankerpunkte. Insgesamt kann es bis zu 80 verschiedene Ankerpunkte geben. Beim Entsperren des Telefons oder beim Einloggen in Apps wird das Gesicht dann mit dem gespeicherten Modell verglichen. Und wenn es übereinstimmt, kann das Telefon entsperrt werden. So weit, so gut.

Übrigens gibt es die Gesichtserkennung schon viel länger, als Smartphones überhaupt massentauglich waren und Gesichtserkennung mehrmals täglich eingesetzt wird, auch im privaten Umfeld. In der Anfangszeit wurde die Gesichtserkennung unter anderem zur Identifizierung von Kriminellen eingesetzt. Dies war nicht immer unproblematisch, da die Technologie noch lange nicht perfekt war und auch falsche Gesichter erkannt wurden. Erst mit der Weiterentwicklung der künstlichen Intelligenz und der neuronalen Netze wurden falsch-positive Gesichter deutlich seltener.

Mittlerweile umfasst die Technologie der Gesichtserkennung in Smartphones mehrere Komponenten, darunter eine Infrarotkamera und einen Punktprojektor. Wenn ein Nutzer sein Gerät ansieht, sendet der Punktprojektor ein Muster aus Infrarotpunkten auf sein Gesicht. Die Infrarotkamera nimmt dann ein Bild dieses Musters auf und sendet es an den Chip, wo es von neuronalen Netzen verarbeitet wird, um eine 3D-Darstellung des Gesichts des Benutzers zu erstellen. Dieses 3D-Modell wird dann in eine mathematische Darstellung umgewandelt, die als Tiefenkarte bezeichnet wird, d. h. eine Sammlung von Datenpunkten, die die Konturen und die Form des Gesichts des Benutzers darstellen. Die Tiefenkarte wird dann in ein neuronales Netzwerk eingespeist, eine Art Algorithmus der künstlichen Intelligenz, der darauf ausgelegt ist, aus Daten zu lernen. Das neuronale Netz wird anhand eines großen Datensatzes von Gesichtern trainiert, um verschiedene Gesichtsmerkmale, wie die bereits erwähnten Ankerpunkte, zu erkennen und zu klassifizieren.

In Industriezweigen wie der Sicherheitsbranche, dem Einzelhandel oder dem Gesundheitswesen ist die Gesichtsregistrierung ebenfalls bereits im Gange. Auch in Fahrzeugen wie Autos werden Methoden getestet, um Sekundenschlaf frühzeitig zu erkennen. Während die zugrundeliegende Technologie und die mathematischen Modelle, die in diesen Branchen verwendet werden, den zuvor erläuterten ähnlich sein können, gibt es möglicherweise einige Unterschiede in der Art und Weise, wie sie implementiert werden, und im Grad der erforderlichen Genauigkeit. Das hängt von der jeweiligen Umgebung ab.

Weitere Beiträge: