I 2.0 Elasticsearch verwenden, i logtash verwenden die Daten in es .Die Daten zu setzen Clustergröße 98gb ist und es dauert fast einen Tag dieses Konfigurationsskriptelastische Server Bestücken logtash mit
# logstash -f logstash-all.conf file: simple-out.conf
input {
jdbc {
# sqlserver jdbc connection string to our database, DB
jdbc_connection_string => "jdbc:sqlserver://dbaddress:1433;databaseName=DB"
# The user we wish to execute our statement as
jdbc_user => "abc"
jdbc_password => "[email protected]"
# The path to our downloaded jdbc driver
jdbc_driver_library => "C:/es/elasticsearch-2.2.0/elasticsearch-2.2.0/plugins/jdbc/sqljdbc4-4.0.jar"
# The name of the driver class for sql server
jdbc_driver_class => "com.microsoft.sqlserver.jdbc.SQLServerDriver"
# our query
statement => "SELECT * from abc"
}
}
output {
elasticsearch {
index => "reporting"
document_type => "perm"
document_id => "%{elasticid}"
hosts => "localhost"
}
}
Ist mit gibt es einen schnelleren Weg, um die Daten in elastischen Server von SQL Server abzuladen? ? Was ist Bedeutung der Datenordner in Elasticsearch bin-Verzeichnis Es scheint bevölkert werden, wenn das obige Skript
Dank läuft
Müssen Sie alle Daten aus der Datenbank herunterladen, oder gibt es ein Zeitstempelfeld, in dem Sie einfach die neuen Daten abrufen können? –
Ich muss die ganzen Daten herunterladen – baiduXiu