2017-05-01 3 views
0

Wir denken über die Verwendung von Stanford NER für Entity-Extraktion für unsere Domäne. Also müssen wir den Klassifikator neu ausbilden. Wir haben jedoch Apache Spark-Umgebung. Ich frage mich, kann jemand vorschlagen, wie man Stanford NER auf Spark verwendet. Ich benutze Python 2.7 + NLTK.Verwendung von Stanford NER in Apache Spark

Jede Antwort würde sehr geschätzt werden.

Antwort

Verwandte Themen