2015-04-22 3 views
13

Auf meinem Test ELK Cluster, ich bin den folgenden Fehler stoßen bei dem Versuch, Daten aus der letzten Woche zu sehen.Elasticsearch/Kibana Fehler „Daten zu groß ist, Daten für [@timestamp] wäre größer als Begrenzung

Data too large, data for [@timestamp] would be larger than limit 

die Warnung über Scherben erscheint irreführend zu sein scheitern, weil die Elasticsearch Monitoring-Tools kopf und head zeigen, dass alle Scherben richtig funktionieren, und das elastische Cluster ist grün.

enter image description here

Ein Benutzer in der Google-Gruppe für elasticsearch schlug vor, ram zu erhöhen. Ich habe meine 3 Knoten auf jeweils 8 GB mit einem Heap 4,7 GB erhöht, aber das Problem geht weiter. Ich erzeuge etwa 5 GB bis 25 GB Daten pro Tag mit einer 30-Tage-Aufbewahrung.

Antwort

31

Das Löschen des Cache mildert die Symptome vorerst.

http://www.elastic.co/guide/en/elasticsearch/reference/current/indices-clearcache.html

Löschen eines einzelnen Index

curl -XPOST 'http://localhost:9200/twitter/_cache/clear' 

Klar mehrere indicies

curl -XPOST 'http://localhost:9200/kimchy,elasticsearch/_cache/clear' 

curl -XPOST 'http://localhost:9200/_cache/clear' 

Oder wie es von einem Benutzer in IRC vorgeschlagen. Dieser scheint am besten zu funktionieren.

curl -XPOST 'http://localhost:9200/_cache/clear' -d '{ "fielddata": "true" }' 
+0

Ich lief in die gleichen Probleme und löschte den Cache löste sie. Ich bin mir nicht sicher, ob das etwas ist, was periodisch getan werden muss. Vielen Dank! – Carlos

+0

Das hat funktioniert! Vielen Dank! Habe dieses Problem noch nie gesehen, obwohl ich ES seit einigen Jahren benutze ... sehr seltsam. –

+0

Ja, hatte das selbe Problem und löschte den Cache und alles funktionierte wieder. Upvote und Star Frage. – Gman

Verwandte Themen