2016-11-06 3 views

Antwort

1

Gegenwärtig ist die Ausdrucks- und Emotionsverfolgung auf nahezu frontale Ausrichtung des Gesichts beschränkt. Das SDK schätzt die Head-Pose und stoppt die Meldung von Metriken, wenn die Kopfhöhe um +/- 25 Grad schwankt. Dies wird durchgeführt, um die Anzahl der falsch positiven Ergebnisse zu begrenzen, die aufgrund der Änderungen in der Kopfpose auftreten. Wir planen, unsere Klassifikatoren in zukünftigen Releases robuster zu machen.

Verwandte Themen