2017-08-09 2 views
0

Wir verwenden Chef, um unsere Infrastruktur zu verwalten, und ich stoße auf ein Problem, bei dem der Splunk TA (Add-on für Kafka) einfach nicht anerkennt, dass ich ' hat kafka_credential.conf Datei im local Verzeichnis des Plugins fallen gelassen. Wenn ich das "Web UI" verwende, erzeugt es einen Eintrag richtig und es wird in der Add-On-Konfiguration angezeigt.Splunk Kafka Add-on liest keine vom Chef verwalteten Konfigurationsdateien

[[email protected] local]# ls 
app.conf inputs.conf kafka.conf kafka_credentials.conf 
[[email protected] local]# grep -nr "" *.conf 
app.conf:1:# MANAGED BY CHEF. PLEASE DO NOT MODIFY! 
app.conf:2:[install] 
app.conf:3:is_configured = 1 
inputs.conf:1:# MANAGED BY CHEF. PLEASE DO NOT MODIFY! 
inputs.conf:2:[kafka_mod] 
inputs.conf:3:interval = 60 
inputs.conf:4:start_by_shell = false 
inputs.conf:5: 
inputs.conf:6:[kafka_mod://my_app] 
inputs.conf:7:kafka_cluster = default 
inputs.conf:8:kafka_topic = log-my_app 
inputs.conf:9:kafka_topic_group = my_app 
inputs.conf:10:kafka_partition_offset = earliest 
inputs.conf:11:index = main 
kafka.conf:1:# MANAGED BY CHEF. PLEASE DO NOT MODIFY! 
kafka.conf:2:[global_settings] 
kafka.conf:3:log_level = INFO 
kafka.conf:4:index = main 
kafka.conf:5:use_kv_store = 0 
kafka.conf:6:use_multiprocess_consumer = 1 
kafka.conf:7:fetch_message_max_bytes = 1048576 
kafka_credentials.conf:1:# MANAGED BY CHEF. PLEASE DO NOT MODIFY! 
kafka_credentials.conf:2:[default] 
kafka_credentials.conf:3:kafka_brokers = 10.14.2.164:9092,10.14.2.194:9092 
kafka_credentials.conf:4:kafka_partition_offset = earliest 
kafka_credentials.conf:5:index = main 

Nach splunk Neustart das Add-on installiert ist, und auch wird der Eingang unter der Eingänge Abschnitt erstellt, aber der Cluster selbst ist „nicht verfügbar“, und wenn die Protokolle untersuchen Ich sehe diese:

2017-08-09 01:40:25,442 INFO pid=29212 tid=MainThread file=kafka_mod.py:main:168 | Start Kafka 
2017-08-09 01:40:30,508 INFO pid=29212 tid=MainThread file=kafka_config.py:_get_kafka_clusters:228 | Clusters: {} 
2017-08-09 01:40:30,509 INFO pid=29212 tid=MainThread file=kafka_config.py:__init__:188 | No Kafka cluster are configured 

Es scheint, als würde dieses Plugin nur Cluster berücksichtigen, die über die WebUI erstellt wurden. Das wird nicht funktionieren, da wir dies komplett über Chef konfigurieren möchten. Kurz vor dem Hacken der REST-API und dem Herumspielen mit den .py-Dateien im Addon-Verzeichnis und dem Erzwingen eines Wörterbuchs, was sind meine Optionen?

Fragen, ob jemand dies schon einmal begegnet ist.

Antwort

0

Wenn ich raten musste, lehnt es die Dateien stillschweigend ab, weil # nicht traditionell für Kommentare in INI-Dateien verwendet wird. Versuchen Sie stattdessen eine ;.

+0

Definitiv nicht das, weil ich das gleiche Ergebnis mit und ohne die Kommentare in ihnen hatte. :/Ich mache etwas weiter durch den Python-Code und es sieht aus, als ob es das eingebaute Splunk-Konfigurations-Backend trifft. Das scheint tatsächlich ein Splunk-Problem zu sein, bei dem Splunk die Flat Files auf der Festplatte ignoriert, um irgendwie in die Splunk REST Atom-Schnittstelle geladen zu werden. –

+0

Klingt glaubwürdig. – coderanger

Verwandte Themen