Ich denke, das ist machbar, solange die Kamera des Telefons auf den Kopf des Benutzers gerichtet ist. Es würde wahrscheinlich ziemlich gutes Licht erfordern, damit das Bild scharf genug ist, um das Gesicht und die Augen richtig erkennen zu können.
Wenn der Benutzer nicht direkt in die Kamera schaut, müssen Sie wahrscheinlich eine Art "Kopferkennung" durchführen und die Ausrichtung des Kopfes des Benutzers bestimmen. Dies würde Ihnen eine grobe Richtung geben, wohin sie schauen.
Mir sind keine Gesichtserkennungsprojekte für iOS bekannt, aber Sie könnten wahrscheinlich googlen und ein vorhandenes Projekt in einer anderen Sprache finden und es mit ein wenig Aufwand auf iOS portieren.
Als Randnotiz gibt es ein DIY-Projekt für den head orientation tracking Teil für PC. Es verwendet Infrarotlicht, das zum Beispiel an Ihren Kopfhörern angebracht ist, und eine Kamera, die darauf basierend die Ausrichtung Ihres Kopfes bestimmt. Vielleicht gibt es dir ein paar Ideen.
Sprechen Sie über Eye-Tracking als "wissen, wo der Benutzer schaut"? Oder sprichst du über Iriserkennung? – Jochem
Ich spreche über wissen, wo der Benutzer auf dem Bildschirm (oder aus dem Bildschirm, für diese Angelegenheit). –
Dann bekomme ich das Gesichtserkennungs-Tag nicht, auch glaube ich nicht, dass Datenschutz ein Problem ist. Ich habe wenig Ahnung von Eye-Tracking, aber ich würde denken, dass es ein Schmerz wäre: kleine Bildschirmgröße und Variabilität von allem (Entfernungen und Winkel von Augen, Bildschirm und Kopf). – Jochem