Ich weiß, dass dies ein bekanntes und diskutierte Problem, aber ich würde nur hier die Dimensionen erhalten mag:Elasticsearch - Zu viele offenen Dateien
Ich bin mit ElasticSearch 2.4
auf einer einzigen Ubuntu Sever 16.04 node (12 cores, 256G ram)
. Ich habe erhöht (und über _nodes/stats/process verifiziert).
Ich habe zwei Indizes mit je 10 Shards (da bald mehrere Knoten dem Cluster beitreten werden).
Jetzt schreibe ich mit bis zu 900 gleichzeitige Java TransportClients, was zu einem Kollaps des ElasticSearch-Servers innerhalb von Sekunden führt, eine "zu viele offene Dateien" Ausnahme werfen.
Fehle ich hier etwas? Sind 900 gleichzeitige Schreibvorgänge zu viel für eine einzelne Instanz? Oder sind 10 Shards zu viele für einen Knoten?
Wie viele Segmentdateien sind insgesamt auf diesem Knoten? Ihre 900 gleichzeitigen Java-Clients befinden sich auf demselben Computer wie der ES-Knoten? –
Die Abfrage, um die Anzahl der Segmente zu ermitteln: 'GET/_nodes/stats/Indizes? Filter_path = **. Segments.count' –
@AndreiStefan gibt es 469 Segmente, die 900 Clients befinden sich auf einem Remote-Cluster. – jvataman