Ich versuche, Spacys japanischen Tokenizer zu verwenden, wie unten gezeigt.Spacy Japan Tokenizer
import spacy
Question= 'すぺいんへ いきました。'
nlp(Question.decode('utf8'))
ich die folgenden Fehler bekommen,
TypeError: Expected unicode, got spacy.tokens.token.Token
Alle Ideen, wie dieses Problem beheben?
Danke!
Sind Sie Python2 oder Python3 verwenden? Welche Version von Spacy verwenden Sie? – alvas
Okay, für Python2 und Python3 gibt es einen Fehler. – alvas
Ich benutze Python 2.7. –