Wir verwenden Logstash auf jedem Host (über Puppet eingesetzt) zu sammeln und an eine Nachrichtenwarteschlange Protokollereignisse Schiff (RabbitMQ, aber Redis sein könnte) auf einem zentralen Host. Eine andere Logstash-Instanz ruft die Ereignisse ab, verarbeitet sie und stopft das Ergebnis in ElasticSearch. Eine Kibana Webschnittstelle wird verwendet, um diese Datenbank zu durchsuchen.
Es ist sehr leistungsfähig, skaliert leicht und ist sehr flexibel. Logstash hat Tonnen von Filtern, um Ereignisse von verschiedenen Eingaben zu verarbeiten, und kann zu vielen Diensten ausgeben, ElasticSearch ist einer von ihnen. Wir versenden derzeit etwa 1,2 Millionen Log-Ereignisse pro Tag von unseren EC2-Instanzen auf leichter Hardware. Die Latenzzeit für ein Protokollereignis von Ereignis zu durchsuchbar beträgt ca. 1 Sekunde in unserem Setup.
Hier finden Sie einige Dokumentation zu dieser Art von Setup: https://www.elastic.co/guide/en/logstash/current/getting-started-with-logstash.html, und eine Demo der Kibana Suchoberfläche mit einigen Live-Daten.
„Es ermöglicht auch mir meine Logfiles S3 zu archivieren die ist auch nett ", bedeutet dies, dass Loggly ist Ihr erster Zielpunkt ?, Logdateien werden dort gesendet und dann loggly Sie senden komprimierte Archive zu S3? Ich versuche, diese Einstellung zu erhalten, wo ich eine zentralisierte Überwachung für alle meine Protokolldateien habe, aber ich kann immer noch die archivierten .gz-Dateien auf s3 – Donna