Ich bin ziemlich neu in Kafka Streams. Im Moment versuche ich die Grundprinzipien dieses Systems zu verstehen.Kafka Streams Anwendungsbereitstellung - eingebettet vs Application Management Frameworks
Dies ist ein Zitat aus dem folgenden Artikel https://www.confluent.io/blog/introducing-kafka-streams-stream-processing-made-simple/
You just use the library in your app, and start as many instances of the app as you like, and Kafka will partition up and balance the work over these instances.
Im Moment ist es mir nicht klar ist, wie es funktioniert. Wo wird die Geschäftslogik (Rechenaufgaben) von Kafka Streams ausgeführt? Es wird innerhalb meiner Anwendung ausgeführt, oder es ist nur ein Client für den Kafka-Cluster und dieser Client bereitet nur Aufgaben vor, die auf dem Kafka-Cluster ausgeführt werden. Wenn nein, wie kann ich die Rechenleistung meiner Kafka Streams-Anwendung richtig skalieren? Ist es möglich, innerhalb von Garn oder so etwas auszuführen? Auf diese Weise ist es eine gute Idee, die Kafka Streams-Anwendung als eine eingebettete Komponente der Kernanwendung (in unserem Fall eine Webanwendung) zu implementieren oder sie sollte als separater Dienst implementiert und auf Yarn/Mesos verteilt werden (wenn es möglich ist)) getrennt von der Haupt-Webanwendung? Wie bereitet man die Kafka Streams-Anwendung vor, damit sie mit den Anwendungsverwaltungs-Frameworks von Yarn/Mesos bereitgestellt werden kann?
Danke für Ihre Antwort, jetzt ist es klar – alexanoid