2017-11-22 6 views
1

Ich möchte Neutron Server auf verschiedenen Knoten installieren. In meiner Umgebung gibt es 3 Anbieter Netzwerke Name Provider1, Provider2 und Provider3 mit jeweils. Alle von ihnen werden flaches Netzwerk sein. In meinem System möchte ich, dass jeder Neutronenserver verschiedene Providernetzwerke verwaltet (Neutron1 steuert nur Provider1, Neutron2 steuert Provider2 und Neutron3 steuert Provider3). VMs verfügen über interne Netzwerke (Overlay-Netzwerk) und verwenden Virtual Router, um auf Provider-Netzwerke zuzugreifen.Multi-Provider-Netzwerk-Management auf verschiedenen Neutronen-Knoten

Neutron 1

Bond 0 : Management + overlay 
Bond 1 : use for provider1 

Neutron 2

Bond 0 : Management + overlay 
Bond 1 : use for provider2 

Neutron 3

Bond 0 : Management + overlay 
Bond 1 : use for provider3 
: die Interface-Mapping auf Neutronen Server werden wie unten angegeben

Der virtuelle Router (VR) wird nach dem Zufallsprinzip über mehrere OpenStack-Netzwerkknoten verteilt. Meine Frage ist, wie kann ich VR auf bestimmten Neutronen Knoten bereitstellen (wie VR, die GW-Adresse von Provider1 hat, wird auf Neutron1 bereitstellen)? oder ich werde hoch verfügbare VR erstellen, in diesem Fall wird VR alle Neutronenserver bereitstellen. Wie kann ich in diesem Fall den aktiven virtuellen Router auswählen?

Antwort

0

Ich dachte der DVR (Distributed Virtual Router) ist hilfreich für Ihren Fall.

Ich beschreibe einige Unterschiede zwischen DVR und Nicht-DVR basierend auf VM-Zugangsrouten. Der DVR ist ein virtueller Router an jedem Rechenknoten mit VMs, um die Überlastungen von Netzwerkknoten und SPOF zu verringern.

Unterschiede basierend auf dem Routing.

VMs running node   | subnet | using router at DVR      | non-DVR 
--------------------------------------------------------------------------------------------------------------------------------- 
all on the same node  | different | Routing from each VM running compute node | Specified Network node (running L3agent node) 
all across multiple nodes | different | Routing from each VM running compute node | Specified Network node (running L3agent node) 

Unterschied bei der Verwendung von Floating IPs. (Aber von außen nach innen (SNAT Zugriff) nicht HA, nur ein Knoten als der Ocata Routing kann.)

DVR       | non-DVR 
------------------------------------------------------- 
each DVR has each Floating IP | Just Network node only 

Wie folgenden Konfigurationsschritte beruhten nur ein einfaches Muster, müssen Sie die beziehen für adoptieren Sie Ihr System.

Voraussetzung: Alle Rechnerknoten haben l3, dhcp, Metadaten, openvswitch Agenten installiert.

Aktivieren Sie den DVR an allen Rechenknoten.

# vim /etc/neutron/neutron.conf 

[DEFAULT] 
...snip... 
router_distributed = True 
...snip... 

Hinzufügen des l2population-Treibers am Controller-Knoten.

# /vim/etc/neutron/plugins/ml2/ml2_conf.ini 

[ml2] 
...snip... 
mechanism_drivers = openvswitch,l2population 
...snip... 

Konfigurieren Sie den SNAT-Router auf dem angegebenen Rechenknoten.

# vim /etc/neutron/l3_agent.ini 

[DEFAULT] 
...snip... 
agent_mode = dvr_snat 
...snip... 

Konfigurieren Sie den Agentenmodus für DVR auf den verbleibenden Rechenknoten.

# vim /etc/neutron/l3_agent.ini 

[DEFAULT] 
...snip... 
agent_mode = dvr 
...snip.. 

Bearbeiten Sie die Openvswitch-Konfiguration auf allen Rechenknoten.

# vim /etc/neutron/plugins/ml2/openvswitch_agent.ini 

[agent] 
...snip... 
l2_population = True 
enable_distributed_routing = True 
...snip... 

Neustart, damit die Änderungen wirksam werden.

Am Controller-Knoten.

# systemctl restart neutron-server 

Auf allen Rechenknoten.

# systemctl restart neutron-l3-agent neutron-openvswitch-agent 

Ich hoffe, das wird Ihnen helfen.

Verwandte Themen