Ich bin ein einfaches Beispiel quickstart versuchen, und ich bekomme:Kafka Confluent S3 Connector „Fehlgeschlagen Klasse zu finden“
Verursacht durch: org.apache.kafka.connect.errors.ConnectException: Fehler beim Fund jede Klasse, die Steckverbinder implementiert und die Namen übereinstimmt io.confluent.connect.s3.S3SinkConnector, verfügbar Anschlüsse sind: io.confluent.connect.jdbc.JdbcSinkConnector, io.confluent.connect.jdbc.JdbcSourceConnector, org.apache .kafka.connect.tools.MockSinkConnector, org.apache.kafka.connect.file.FileStreamSourceConnector, org.apac he.kafka.connect.sink.SinkConnector, io.confluent.connect.elasticsearch.ElasticsearchSinkConnector, org.apache.kafka.connect.tools.MockConnector, io.confluent.connect.hdfs.HdfsSinkConnector, org.apache. kafka.connect.file.FileStreamSinkConnector, org.apache.kafka.connect.tools.VerifiableSourceConnector, org.apache.kafka.connect.tools.VerifiableSinkConnector, org.apache.kafka.connect.tools.SchemaSourceConnector, org. apache.kafka.connect.source.SourceConnector, org.apache.kafka.connect.tools.MockSourceConnector, io.confluent.connect.hdfs.tools.SchemaSourceConnector
Dies ist eine brandneue VM mit der neuesten Confluent Platform 3.2.0, die über das Debian apt-Paket installiert wird. Ich kann sehen, dass CP 3.2.0 läuft. Warum sollte die S3-Konnektorklasse nicht verfügbar sein?
nicht sicher, ob dies ist verwandt, aber wenn ich tun:
ls -l /etc/ | grep kafka
drwxr-xr-x 2 root root 4096 Apr 5 04:41 kafka
drwxr-xr-x 2 root root 4096 Apr 5 04:39 kafka-connect-elasticsearch
drwxr-xr-x 2 root root 4096 Apr 5 04:39 kafka-connect-hdfs
drwxr-xr-x 2 root root 4096 Apr 5 04:39 kafka-connect-jdbc
drwxr-xr-x 2 root root 4096 Apr 5 04:39 kafka-rest
Die docs verweisen auf ein kafka-connect-s3-Verzeichnis, das in der Anlage eindeutig nicht existiert.
Ich verwende die Open-Source-Variante der Confluent-Plattform, aber gemäß https://www.confluent.io/product/compare/ enthält die Open-Source-Version den Confluent Amazon S3 Connect-Anschluss.