Lassen Sie mich Ihnen eine kurze Antwort geben.
Ein Analysator wird zur Indexzeit und zur Suchzeit verwendet. Es wird verwendet, um einen Index von Begriffen zu erstellen.
Um eine Phrase zu indizieren, könnte es nützlich sein, sie in Worte zu zerlegen. Hier kommt der Analysator.
Es gilt Tokenizer und Token-Filter. Ein Tokenizer könnte ein Whitespace-Tokenizer sein. Es teilt eine Phrase in Tokens an jedem Platz. Ein Tokenizer in Kleinschreibung teilt eine Phrase in jeden Nicht-Buchstaben- und Kleinbuchstaben-Buchstaben.
Ein Token-Filter wird verwendet, um einige Token zu filtern oder zu konvertieren. Zum Beispiel konvertiert ein ASCII-Faltungsfilter Zeichen wie ê, é, è zu e.
Ein Analysator ist eine Mischung aus all dem.
Sie sollten lesen Analysis guide und schauen Sie auf der rechten Seite alle verschiedenen Optionen, die Sie haben.
Standardmäßig verwendet Elasticsearch den Standardanalysator. Es entfernt alle gängigen englischen Wörter (und viele andere Filter)
Sie können auch die Analyze Api verwenden, um zu verstehen, wie es funktioniert. Sehr hilfreich.
Ich fand gerade diesen tollen Blog-Beitrag über die Funktionsweise von Analysegeräten in elasticsearch, mit konkreten Beispielen: https://www.found.no/foundation/text-analysis-part-1/ – BrDaHa
Das war wirklich sehenswert Anfänger bis Anfang von mit ... Danke @BrDaHa –