Ich bin in der Lage, das Beispiel OWIN selbst gehosteten Service-Fabric-Anwendung beschrieben here einfach gut lokal und sehen Sie die Ergebnisse mit HTTP-Anforderungen an localhost als XML-Dateien . Wenn ich die Anwendung jedoch auf einem Service Fabric in der Cloud veröffentliche, wie kann ich dieselben Anforderungen stellen? Der Endpunkt meines Service Fabric wird mir als [Fabric-Name] .westus.cloudapp.azure.com: 19000 zugewiesen, also habe ich [Fabric-Name] .westus.cloudapp.azure.com: 19000/api/values ausprobiert, aber es hat mir gegeben eine Kauderwelsch-Download-Datei, in der ich die gleiche XML-Datei erwarten würde, die ich vorher bekommen habe. Die lokale Datei ServiceManifest.xml gibt einen Port von 8760, den ich für localhost verwende, aber auch nicht für die Cloud, und im Manifest, das ich in der Cloud sehe, ist kein Port aufgeführt.Endpunkt nach der Bereitstellung einer selbst gehosteten OWIN-Service-Fabric-Anwendung in der Cloud
Endpunkt nach der Bereitstellung einer selbst gehosteten OWIN-Service-Fabric-Anwendung in der Cloud
Antwort
Haben Sie beim Erstellen Ihres Service Fabric-Clusters eine benutzerdefinierte Portnummer für Ihren OWIN-Endpunkt angegeben? Dies würde 8760 in Ihrem Fall sein:
Service-Fabric können Sie einen benutzerdefinierten Port angeben, unter Verwendung der oben + diesen Port in der Definition ServiceManifest.xml Endpoint angibt, oder wenn Sie keinen Port angeben
Es klingt, als müssten Sie den Port 8760 im Load Balancer öffnen. Wechseln Sie zum Azure-Portal, suchen Sie die Load-Balancer-Einstellung und öffnen Sie den Port. Dann können Sie über [Fabric-Name] .westus.cloudapp.azure.com: 8760/api/values zugreifen.
-Port 19000 ist ein binäres Protokoll, das von den Management-Tool verwendet wird: man wird aus dem Bereich der verfügbaren Portnummern für Ihre SF Anwendung auf dem Endpunkt zugeordnet werden. Wie andere hier gesagt haben, ist die Sache, die Sie vermissen, den Port Ihres Dienstes (8760 in Ihrem Fall) öffentlich durch den Azure Load Balancer und zu öffnen, es muss als ein benutzerdefinierter Port auf jedem Knoten konfiguriert werden, den Sie für Ihren Dienst benötigen weiterlaufen. Der Azure Load Balancer leitet externen Datenverkehr an jeden Knoten weiter, für den der benutzerdefinierte Port angegeben wurde. Daher müssen Sie sicherstellen, dass auf jedem dieser Knoten mit ausgeführt wird. Sie können dies tun, indem Sie "-1" für die Instanzanzahl des Service verwenden.
Ich habe die Bedeutung von -1 in der Dienstinstanz für eine Weile gesucht. Können Sie mich bitte auf die Dokumentation verweisen, die besagt, dass -1 bedeutet, dass Ihr Dienst bei allen Instanzen ausgeführt wird? Es wird sehr hilfreich für mich sein, danke! –
Hier ist dokumentiert: https://docs.microsoft.com/en-us/azure/service-fabric/service-fabric-manage-multiple-environment-app-configuration –
- 1. Google Cloud Endpoint 404 nach der Bereitstellung
- 2. Installation der selbst gehosteten Chrome-Erweiterung
- 3. WCF: Dienstendpunktname in selbst gehosteten Dienst steuern
- 4. Bereitstellen von selbst gehosteten SignalR
- 5. Bereiche in der selbst gehosteten (OWIN) Web-API
- 6. Dekomprimierung der Anfrage in selbst gehosteten WebApi-Service
- 7. Azure Service Fabric: So finden Sie den Endpunkt nach der Bereitstellung
- 8. Konfigurieren von selbst gehosteten WCF-Service-Endpunkten
- 9. Alle selbst gehosteten Firebase-Alternativen?
- 10. Verwenden von ServiceStack Mini Profiler in einer selbst gehosteten Konsolenanwendung
- 11. Cache nach der Bereitstellung löschen
- 12. Bereitstellung eines nicht auf HTTP basierenden Dienstes in der Cloud
- 13. Bereitstellung der virtuellen Maschine von der virtuellen Box nach ESXI
- 14. Verbinden mit einem selbst gehosteten WCF-Dienst
- 15. Akzeptieren Sie optional Clientzertifikate in einem selbst gehosteten WCF-Dienst
- 16. ImagePullBackOff nach der Bereitstellung in OpenShift
- 17. Selbst - gehosteten WCF-Server und SSL
- 18. Warum Browser zeigt Favicon nach der Bereitstellung
- 19. Entwicklung eines selbst gehosteten Signals R + NancyFx
- 20. Bereitstellen von Azure Cloud Service in einer gehosteten Cloud (nicht Azure)
- 21. Formatieren der Ausgabe der gehosteten PowerShell
- 22. Azure Cloud Service-Bereitstellung ohne Änderung der vorhandenen Konfiguration
- 23. Fehler nach der Bereitstellung der Anwendung in glassFIsh
- 24. Probleme nach der Bereitstellung von DbContext
- 25. Wie erhalten Sie den Servernamen und den Namen der gehosteten Site einer in IIS gehosteten Site?
- 26. XamlParseException nach der Bereitstellung von WPF-Projekt
- 27. Tool zum Aktualisieren der SQL Express-Datenbank nach der Bereitstellung
- 28. Meteor Heroku App Absturz nach der Bereitstellung
- 29. AWS-Cloud-Erstellung Template-Bereitstellung Tags für den Stack in der Vorlage
- 30. Speicherort der Datei im Projekt nach der Bereitstellung an JBoss
Dies sollte Kommentar sein – ketan
Sie können derzeit keine Ports im Load Balancer hinzufügen, müssen Sie Ihren Cluster zerstören und neu starten. – mckjerral