2017-01-06 4 views
0

Ich mache ein Projekt mit ElasticSearch und das Ziel des Projekts ist es, die Zeit der Anfrage zu optimieren, jetzt versuche ich mit 1Go Daten und die Anfrage dauerte etwa 1200ms, möchte ich Berechnen Sie die Zeit mit 60Go Daten, ich frage, ob es Techniken gibt, um die Komplexität meiner Abfrage zu berechnen?Berechnen Elasticsearch Abfrage Komplexität (Scalabilty)

Dank

Antwort

0

Leider ist es so Extrapolation nicht so einfach ist, das heißt, wenn die Anforderung 1200ms mit 1 GB Daten dauert, bedeutet es nicht, dass es mit 60GB 60-mal mehr nehmen werde. Der Übergang von 1 GB auf 60 GB hat unvorhersehbare Auswirkungen und hängt vollständig von der Hardware ab, auf der Sie Ihr ES ausführen. Der Server ist zwar für 1 GB, aber nicht für 60 GB in Ordnung, Sie müssen also möglicherweise die Größe anpassen, aber Sie werden nicht wirklich wissen, bis Sie eine so große Datenmenge haben.

Der einzige Weg, wirklich zu wissen ist, in geeigneter Weise zu 60GB von Daten (und Skalierung des Clusters zu erhalten (start big & scale down) und auf einer realen Datenmenge Ihrer testen.