Wieviel VMs pro NIC ?
Servus, wollte mal von euch wissen wie ihr das so macht...
Ich habe mal gelesen das man bei einem HyperV server (2019) die anzahl an vSwitchen gering halten soll, also wenn möglich nur einen einzelnen vSwitch erstellen und darüber alle VMs laufen lassen.
Kann man da also über eine einzelne 10G netzwerkkarte 20 oder gar 30 VMs gleichzeitig darüber laufen lassen? SQL, DC, Fileserver, Exchange, Oracle,...
die werden in summe nichtmal eine 1G leitung auslasten, aber gabs da nicht sowas wie Warteschlangen, sodass das physikalische Interface bzw. die Netzwerkkarte oder gar der Switchport total überlastet werden könnte wenn soviel verschiedene Anfragen rein udn rausgehen - gleichzeitig?
Ich habe mal gelesen das man bei einem HyperV server (2019) die anzahl an vSwitchen gering halten soll, also wenn möglich nur einen einzelnen vSwitch erstellen und darüber alle VMs laufen lassen.
Kann man da also über eine einzelne 10G netzwerkkarte 20 oder gar 30 VMs gleichzeitig darüber laufen lassen? SQL, DC, Fileserver, Exchange, Oracle,...
die werden in summe nichtmal eine 1G leitung auslasten, aber gabs da nicht sowas wie Warteschlangen, sodass das physikalische Interface bzw. die Netzwerkkarte oder gar der Switchport total überlastet werden könnte wenn soviel verschiedene Anfragen rein udn rausgehen - gleichzeitig?
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 911091416
Url: https://administrator.de/forum/wieviel-vms-pro-nic-911091416.html
Ausgedruckt am: 22.12.2024 um 16:12 Uhr
9 Kommentare
Neuester Kommentar
Moin,
Gruß,
Daniel
Kann man da also über eine einzelne 10G netzwerkkarte 20 oder gar 30 VMs gleichzeitig darüber laufen lassen? SQL, DC, Fileserver, Exchange, Oracle,...
Kann man(n) machen.die werden in summe nichtmal eine 1G leitung auslasten, aber gabs da nicht sowas wie Warteschlangen, sodass das physikalische Interface bzw. die Netzwerkkarte oder gar der Switchport total überlastet werden könnte wenn soviel verschiedene Anfragen rein udn rausgehen - gleichzeitig?
Aus Erfahrung kann ich sagen, dass in vielen Fällen nicht der Server/Netzwerkkarte/vSwitch der Flaschenhals ist sondern Gegenüber, der Switch. Was kommt für ein Modell zum Einsatz?Gruß,
Daniel
Zitat von @Assassin:
als 10G Switch kommt ein Unifi US-16XG zum einsatz, dieser verteilt ebenfalls mit 10G an mehrere unterverteilungen (US-48)
aber das geht wirklich dass man soviele VMs durch ein einzelnes Netzwerkinterface quetscht? kommen die da nicht ins stocken wenn haufen pakete von zich verschiedenen VMs ein und ausgehen, und manche dazu auch noch VLAN getaggt sind (über die VM einstellung selber)
als 10G Switch kommt ein Unifi US-16XG zum einsatz, dieser verteilt ebenfalls mit 10G an mehrere unterverteilungen (US-48)
aber das geht wirklich dass man soviele VMs durch ein einzelnes Netzwerkinterface quetscht? kommen die da nicht ins stocken wenn haufen pakete von zich verschiedenen VMs ein und ausgehen, und manche dazu auch noch VLAN getaggt sind (über die VM einstellung selber)
Moin,
sehe das wie die Kollegen @Dani und @maretz
Dein Bottleneck wird - vermutlich - der Switch sein.
Entzerre das, indem du (schon aus Redundanzgründen) eine LAG zwischen Hyper-V-Host und Switch erstellst:
2x10G heißt zwar immer noch, 2x 10G (und nicht 1x 20G), aber so wird jede NIC im besten Fall nur mit 10-15VMs beglückt.
Und entscheidend ist nicht die Zahl der VMs sondern der erwartete I/O in Form von Paketen
Ein Server kann genauso viele I/Os verursachen, wie 15 "kleinere".
Aber wir haben eine "ähnliche" Größenordnung wie du/ ihr:
2 ESXi Hosts, je mit 2x10G an einem gestackten Switch-Verbund und je Host sind es in etwa 20-30 Hosts. Läuft hier Problemfrei, trotz div. Datenbanken, einem Exchange für 50 Postfächer und und und...
Gruß
em-pie
Sers,
eine Limitierung wie viele VMs auf einer NIC laufen sollten hast du eigentlich nur im Zusammenhang mit SR-IOV und/oder NPAR.
Was SR-IOV angeht kannst du je nach NIC und Treiber mehr oder weniger VF und PF betreiben.
Die Frage ist, ob es sich aufgrund der Last auf CPU-0 wegen der Netzwerklast einer VM überhaupt lohnt.
Sollte in den Datenblättern der NICs stehen.
Grüße,
Philip
eine Limitierung wie viele VMs auf einer NIC laufen sollten hast du eigentlich nur im Zusammenhang mit SR-IOV und/oder NPAR.
Was SR-IOV angeht kannst du je nach NIC und Treiber mehr oder weniger VF und PF betreiben.
Die Frage ist, ob es sich aufgrund der Last auf CPU-0 wegen der Netzwerklast einer VM überhaupt lohnt.
Sollte in den Datenblättern der NICs stehen.
Grüße,
Philip
Moin Assassin,
Das ist absolut korrekt so.
Im Normalfall absolut kein Problem, auch mit 50 oder mehr VM’s.
Du solltest lediglich darauf achten, dass VM’s die viel untereinander über das Netzwerk transferieren, möglichst auf einem und demselben Hyper-V Host laufen. Wenn das der Fall ist, dann schnacken die VM’s eh nur über den vSwitch der vollständig auf der Host-CPU läuft, untereinander und belasten somit weder die physikalische NIC noch den Switch physikalischen dahinter. 😉
!!! Die obere Aussage gilt nicht in Verbindung mit SR-IOV !!!
Nö, im Gegenteil, solange dein SDN richtig konfiguriert ist und die Nodes auch noch genug CPU Reserven haben, ist ein Transfer über vNIC --> vSwitch --> vNIC immer schneller und ressourcenschonender als einer über vNIC --> vSwitch --> pNIC --> pSwich --> pNIC --> vSwitch --> vNIC.
Du solltest bei einem 2019er kein LBFO sondern nur noch SET für das NIC Teaming verwenden. Das ist auch die offizielle Empfehlung seitens Microsoft.
Beste Grüsse aus BaWü
Alex
Ich habe mal gelesen das man bei einem HyperV server (2019) die anzahl an vSwitchen gering halten soll, also wenn möglich nur einen einzelnen vSwitch erstellen und darüber alle VMs laufen lassen.
Das ist absolut korrekt so.
Kann man da also über eine einzelne 10G netzwerkkarte 20 oder gar 30 VMs gleichzeitig darüber laufen lassen? SQL, DC, Fileserver, Exchange, Oracle,...
die werden in summe nichtmal eine 1G leitung auslasten, aber gabs da nicht sowas wie Warteschlangen, sodass das physikalische Interface bzw. die Netzwerkkarte oder gar der Switchport total überlastet werden könnte wenn soviel verschiedene Anfragen rein udn rausgehen - gleichzeitig?Im Normalfall absolut kein Problem, auch mit 50 oder mehr VM’s.
Du solltest lediglich darauf achten, dass VM’s die viel untereinander über das Netzwerk transferieren, möglichst auf einem und demselben Hyper-V Host laufen. Wenn das der Fall ist, dann schnacken die VM’s eh nur über den vSwitch der vollständig auf der Host-CPU läuft, untereinander und belasten somit weder die physikalische NIC noch den Switch physikalischen dahinter. 😉
!!! Die obere Aussage gilt nicht in Verbindung mit SR-IOV !!!
aber das geht wirklich dass man soviele VMs durch ein einzelnes Netzwerkinterface quetscht? kommen die da nicht ins stocken wenn haufen pakete von zich verschiedenen VMs ein und ausgehen, und manche dazu auch noch VLAN getaggt sind (über die VM einstellung selber)
Nö, im Gegenteil, solange dein SDN richtig konfiguriert ist und die Nodes auch noch genug CPU Reserven haben, ist ein Transfer über vNIC --> vSwitch --> vNIC immer schneller und ressourcenschonender als einer über vNIC --> vSwitch --> pNIC --> pSwich --> pNIC --> vSwitch --> vNIC.
Es gibt ja dann auch noch verschiedene Teaming arten...LBFO Teaming, also klassisch über die windows GUI, oder ein SET team über die Powershell, wobei ich aber mit dem SET team probleme habe wenn ich zwei Server habe und diese in einem Failover CLuster sind, da findet sich das netzwerk nicht richtig, denkt das wäre segmentiert obwohl beide im selben Netzwerkadressbereich sind und sich auch anpingen können...
Du solltest bei einem 2019er kein LBFO sondern nur noch SET für das NIC Teaming verwenden. Das ist auch die offizielle Empfehlung seitens Microsoft.
Beste Grüsse aus BaWü
Alex