Wir denken über die Verwendung von Stanford NER für Entity-Extraktion für unsere Domäne. Also müssen wir den Klassifikator neu ausbilden. Wir haben jedoch Apache Spark-Umgebung. Ich frage mich, kann jemand vorschlagen, wie man Stanford NER auf Spark verwendet. Ich benutze Python 2.7 + NLTK.Verwendung von Stanford NER in Apache Spark
Jede Antwort würde sehr geschätzt werden.