2017-03-01 6 views
0

Also ich weiß, das JDBC Rivers Plugin ist veraltet, so dass ich, obwohl es verwendet wird, im Idealfall nicht mit etwas, das nicht mehr unterstützt wird, betrachten möchte.Postgres zu ElasticSearch Datenindizierung für ELK Stack

Allerdings habe ich ein paar Tabellen in einer Postgres-Datenbank mit Werten, die ich in einer Kibana-Ansicht suchen muss. Ich bin neu im ELK-Stack, aber ich habe mit einigen ihrer Samples herumgespielt, um mich vertraut zu machen.

Ich habe einige Erwähnungen über die Verwendung von Stored Procedures/Triggers von Postgres gesehen, um sie an Logstash zu senden. Obwohl ich nicht sicher bin, ob dies der beste Weg ist. Ich bin kein Entwickler, aber eine QA, so meine Codierung Fähigkeiten sind "ok", wie ich zu schreiben Automatisierung Tests/etc ...

Was wäre der beste Weg, dies zu tun? Ich würde wahrscheinlich Updates für diese Tabellen erfassen (wahrscheinlich neue Einfügungen oder Aktualisierungen) ODER in der Lage sein, die Daten alle X Zeitabschnitte (30s oder so) abzurufen. Stellen wir uns vor, es wäre für eine Wetterstation und die Tabellen enthalten Luftfeuchtigkeitsdaten von verschiedenen Wettersensoren.

Ich würde will in der Lage sein, in der Suche ein Kibana gehörigen Wert/Stations-ID/etc ...

Ist das machbar? Gibt es vielleicht einen besseren Weg als die Verwendung von Triggern/Stored Procedures?

+1

diese Antworten könnten helfen: http://stackoverflow.com/questions/34477095/elasticsearch-replication-of-other-system-data/34477639#34477639 + http://stackoverflow.com/questions/40410920/elasticsearch- Verwendung-mit-Mysql/40415430 # 40415430 + http://StackOverflow.com/Questions/31995648/Logstash-Jdb-connector-time-based-Data/32001923#32001923 – Val

Antwort

Verwandte Themen