Ich habe Kibana und ElasticSearch-Instanz auf einer Maschine ausgeführt. Logstash und Dateibeat laufen auf einem anderen Rechner.Die Logstash Retry-Richtlinie verstehen
Der Fluss funktioniert einwandfrei. Ich habe einen Zweifel und ich muss das verstehen. Ich ließ elasticsearch runtergehen und machte Logstash, um ein paar Stämme zu elasticearch zu pumpen. Da elasticsearch down ist, hoffe ich, dass Daten verloren gehen. Aber als ich den Elasticsearch-Service aufbrachte, war Kibana in der Lage, die Logs zu zeigen, die geschickt wurden, als elasticsearch nicht mehr da war.
Wenn ich online google, habe ich erfahren, dass Logstash Versuche in Elasticsearch zu verbinden ist unten.
Darf ich bitte wissen, wie diese Parameter setzen
Ok .. Danke für die Info. Diese Parameter (** retry_initial_interval & retry_max_interval **) sollten in Logstash oder ElasticSearch festgelegt werden. –
Offensichtlich in Ihrer Logstash-Konfiguration. ES hat keine Ahnung, dass Logstash das Dokument in großen Mengen dorthin sendet. – Val
Hallo Val, Sorry, ich war in der Mitte von etwas. Ich versuche, X-Pack für Kibana, Elasticsearch und Logstash einzurichten und ich habe damit Probleme. Sowieso i hinzugefügt, um die retry_initial_interval & retry_max_interval wie folgt ausgegeben { Elasticsearch {hosts => [ "localhost: 9200"] \t \t \t \t user => [ "elastisch"] \t \t \t \t Passwort => [ "changeme" ] \t \t \t \t retry_initial_interval => 5 \t \t \t \t retry_max_interval => 50 \t \t \t \t} stdout {codec => rubydebug} } als ich den logstash-service gestartet habe, habe ich keinen fehler gesehen. Hoffe es funktioniert gut. Ich konnte nicht testen, wie ich in der Mitte von x-pack bin. –