2017-11-01 4 views
1

Ich versuche, Spacys japanischen Tokenizer zu verwenden, wie unten gezeigt.Spacy Japan Tokenizer

import spacy 
Question= 'すぺいんへ いきました。' 
nlp(Question.decode('utf8')) 

ich die folgenden Fehler bekommen,

TypeError: Expected unicode, got spacy.tokens.token.Token

Alle Ideen, wie dieses Problem beheben?

Danke!

+0

Sind Sie Python2 oder Python3 verwenden? Welche Version von Spacy verwenden Sie? – alvas

+1

Okay, für Python2 und Python3 gibt es einen Fehler. – alvas

+0

Ich benutze Python 2.7. –

Antwort

1

Versuchen Sie dies mit:

import spacy 
Question= u'すぺいんへ いきました。' 
nlp(Question) 
+0

Das funktioniert auch nicht. Ich bekomme den gleichen Fehler. –

+0

Können Sie in dieses Paket schauen: https://github.com/mocobeta/janome –