2016-04-13 7 views
0

Ich versuche, Personen in dem Video zu verfolgen. Aber ich kann keinen geeigneten Algorithmus finden, der sich ähnlich verhält wie https://www.youtube.com/watch?v=Qjr3RYecv3U.Objektverfolgung in Video

Ich habe versucht, Vorlagenvergleich in Kombination mit optischen Fluss, aber immer verlieren das verfolgte Objekt, wenn es ein anderes Objekt überlappt. Kann jemand eine geeignete Methode zum Tracking empfehlen?

Ich benutze Python und OpenCV.

+0

Was ist Ihr [OS] (https://en.wikipedia.org/wiki /Betriebssystem)? Verwenden Sie das Modul [OpenCV Contrib Tracking] (https://github.com/Itseez/opencv_contrib/tree/master/modules/tracking) über den Python-Wrapper? Siehe [GitHub-Beispiele] (https://github.com/search?l=Python&q=tracking+opencv&type=Repositories&utf8=%E2%9C%93) und [dieses Tutorial] (http://derek.simkowiak.net/motion -tracking-mit-Python /). –

+0

Betriebssystem: Linux Mint 17.2 OpenCv: 2.4.8 ohne OpenCv Contrib Tracking – Iwn

+0

Wenn Sie versuchen, das Objekt-Tracking selbst zu implementieren, können Sie sehen, wie Objekt-Tracking in [OpenCV Contrib Tracking-Modul] (https: // github .com/Itseez/opencv_contrib/baum/master/modules/tracking). [OpenCV README] (https://github.com/Itseez/opencv_contrib/blob/master/modules/tracking/README.md) besagt, dass es visuelle Objektverfolgungstechniken * 5 verschiedene implementiert * erwähnt [hier] (http://docs.opencv.org/3.0-beta/modules/tracking/doc/tracker_algorithms.html#tracker-algorithms). –

Antwort

0

Die results des ILSVRC 2017 Wettbewerb wurden gestern (17. Juli 2017) veröffentlicht. Der Gewinner in den beiden Tracking Kategorien, Aufgabe 3c (Objekterkennung/Tracking aus Video mit bereitgestellten Trainingsdaten) und Aufgabe 3d (Objekterkennung/Tracking aus Video mit zusätzlichen Trainingsdaten), war dieses Team:

Jiankang Deng (1), Yuxiang Zhou (1), Baosheng Yu (2), Zhe Chen (2), Stefanos Zafeiriou (1), Dacheng Tao (2), (1) Imperial College London, (2) Universität von Sydney

Hier sind ihre Publikationen, Quellcode und eine Präsentation: [1] Deep Feature Flow for Video Recognition Xizhou Zhu, Yuwen Xiong, Jifeng Dai, Lu Yuan, und Yichen Wei, IEEE Conference on Computer Vision und Mustererkennung (CVPR), 2017.

[2] Flow-Guided Feature Aggregation for Video Object Detection, Xizhou Zhu, Yujie Wang, Jifeng Dai, Lu Yuan und Yichen Wei. Arxiv Tech Report, 2017.

Präsentation https://www.youtube.com/watch?v=J0rMHE6ehGw

Source Code https://github.com/msracver/Deep-Feature-Flow

Der Code hat folgende Voraussetzungen:

  • Python 3.2.0+
  • Microsofts MxNet
  • Cython
  • OpenCV (Python Bindungen)

erfordert ihren Code eine GPU mit mindestens 6 GB Speicher.

Eine andere Option ist ROLO. Der Autor ist Guanghan Ning und er verwendet You Only Look Once (YOLO) zur Erkennung und verwendet TensorFlow, um LSTMs für das Tracking zu implementieren.

Seine veröffentlichte ein Papier: Spatially Supervised Recurrent Convolutional Neural Networks for Visual Object Tracking, IEEE International Symposium on Circuits and Systems 2017

Sein Code ist hier: https://github.com/Guanghan/ROLO

Projektseite: http://guanghan.info/projects/ROLO/

Voraussetzungen:

  • Python 2.7 oder 3.3+
  • TensorFlow
  • Scipy
  • OpenCV (Python-Bindungen)

Einige Videos von seiner Arbeit: