Ich versuche, die automatische Vervollständigung zu implementieren mit Elasticsearch denkt, dass ich zu verstehen, wie es zu tun ...Tokenizer vs Token Filter
I unter Verwendung von EUs edge_n_grams während Indizierung Multi-Wort (Phrase) Vorschläge zu bauen bin versucht, gecrawlte Daten
Was ist der Unterschied zwischen einem tokenizer
und einem token_filter
- Ich habe die Dokumentation auf diese lesen, aber noch mehr Verständnis brauchen auf sie ....
Zum Beispiel ein token_filter ist, was ES gegen Benutzer suchen verwendet Eingang? Ist ein Tokenizer, was ES verwendet, um Tokens zu erstellen? Was ist ein Token?
Ist es für ES möglich, Vorschläge für mehrere Wörter zu erstellen, die eines dieser Dinge verwenden?
vielen dank für eine klare und prägnante erklärung – user3125823
Ich arbeite mit ES 1.7 und es produziert andere Ausgabe als was diese Antwort vorschlägt. Eine Anzahl von Tokens und Token selbst ist zwischen Tokenizer und Filter identisch: 't, th, the, q, qu, qui, ...' aber Offsets und Positionen sind unterschiedlich. Filter: '{" token ":" qui "," start_offset ": 4," end_offset ": 9," position ": 2}'. Tokenizer: '{" token ":" qui "," start_offset ": 4," end_offset ": 7," position ": 6}' –