Auf meinem Test ELK Cluster, ich bin den folgenden Fehler stoßen bei dem Versuch, Daten aus der letzten Woche zu sehen.Elasticsearch/Kibana Fehler „Daten zu groß ist, Daten für [@timestamp] wäre größer als Begrenzung
Data too large, data for [@timestamp] would be larger than limit
die Warnung über Scherben erscheint irreführend zu sein scheitern, weil die Elasticsearch Monitoring-Tools kopf
und head
zeigen, dass alle Scherben richtig funktionieren, und das elastische Cluster ist grün.
Ein Benutzer in der Google-Gruppe für elasticsearch schlug vor, ram zu erhöhen. Ich habe meine 3 Knoten auf jeweils 8 GB mit einem Heap 4,7 GB erhöht, aber das Problem geht weiter. Ich erzeuge etwa 5 GB bis 25 GB Daten pro Tag mit einer 30-Tage-Aufbewahrung.
Ich lief in die gleichen Probleme und löschte den Cache löste sie. Ich bin mir nicht sicher, ob das etwas ist, was periodisch getan werden muss. Vielen Dank! – Carlos
Das hat funktioniert! Vielen Dank! Habe dieses Problem noch nie gesehen, obwohl ich ES seit einigen Jahren benutze ... sehr seltsam. –
Ja, hatte das selbe Problem und löschte den Cache und alles funktionierte wieder. Upvote und Star Frage. – Gman