Ich entwickle gerade eine Augmented-Reality-Android-Anwendung, in der ich die Abflussdaten eines Flusses zusammen mit dem Flussnamen als erweiterte Merkmale anzeigen möchte. Ich möchte jedoch die Daten nur dann vergrößert zeigen, wenn ein Benutzer seine Gerätekamera in Richtung Fluss und nicht in die entgegengesetzte Richtung zeigt.Wie werden die Daten nur dann als Augmented angezeigt, wenn der Benutzer auf ein Feature in der realen Welt hinweist?
Wie soll ich das umsetzen?
Ich dachte, dass es zwei Möglichkeiten sein könnte:
Feature-Erkennung: aber ich weiß nicht, ob es hier als das Merkmal arbeiten würde, der Fluss ist ruhig dynamisch ist.
etwas mit der Ausrichtung des Telefons in Bezug auf die reale Welt zu tun. Ich habe jedoch keine Ahnung, wie ich das umsetzen kann.