assassin
Goto Top

Wieviel VMs pro NIC ?

Servus, wollte mal von euch wissen wie ihr das so macht...
Ich habe mal gelesen das man bei einem HyperV server (2019) die anzahl an vSwitchen gering halten soll, also wenn möglich nur einen einzelnen vSwitch erstellen und darüber alle VMs laufen lassen.

Kann man da also über eine einzelne 10G netzwerkkarte 20 oder gar 30 VMs gleichzeitig darüber laufen lassen? SQL, DC, Fileserver, Exchange, Oracle,...
die werden in summe nichtmal eine 1G leitung auslasten, aber gabs da nicht sowas wie Warteschlangen, sodass das physikalische Interface bzw. die Netzwerkkarte oder gar der Switchport total überlastet werden könnte wenn soviel verschiedene Anfragen rein udn rausgehen - gleichzeitig?

Content-ID: 911091416

Url: https://administrator.de/forum/wieviel-vms-pro-nic-911091416.html

Ausgedruckt am: 22.12.2024 um 16:12 Uhr

Dani
Dani 05.07.2021 um 13:33:49 Uhr
Goto Top
Moin,
Kann man da also über eine einzelne 10G netzwerkkarte 20 oder gar 30 VMs gleichzeitig darüber laufen lassen? SQL, DC, Fileserver, Exchange, Oracle,...
Kann man(n) machen.

die werden in summe nichtmal eine 1G leitung auslasten, aber gabs da nicht sowas wie Warteschlangen, sodass das physikalische Interface bzw. die Netzwerkkarte oder gar der Switchport total überlastet werden könnte wenn soviel verschiedene Anfragen rein udn rausgehen - gleichzeitig?
Aus Erfahrung kann ich sagen, dass in vielen Fällen nicht der Server/Netzwerkkarte/vSwitch der Flaschenhals ist sondern Gegenüber, der Switch. Was kommt für ein Modell zum Einsatz?


Gruß,
Daniel
Assassin
Assassin 05.07.2021 um 13:55:02 Uhr
Goto Top
als 10G Switch kommt ein Unifi US-16XG zum einsatz, dieser verteilt ebenfalls mit 10G an mehrere unterverteilungen (US-48)


aber das geht wirklich dass man soviele VMs durch ein einzelnes Netzwerkinterface quetscht? kommen die da nicht ins stocken wenn haufen pakete von zich verschiedenen VMs ein und ausgehen, und manche dazu auch noch VLAN getaggt sind (über die VM einstellung selber)
maretz
maretz 05.07.2021 um 14:10:33 Uhr
Goto Top
naja - im zweifel halt nen bond/portchannel/trunk (je nachdem welchen Sprachbereich du möchtest) erstellen und schon hast du auch x-fache Geschwindigkeit die sich dann verteilt...
em-pie
em-pie 05.07.2021 um 14:19:54 Uhr
Goto Top
Zitat von @Assassin:

als 10G Switch kommt ein Unifi US-16XG zum einsatz, dieser verteilt ebenfalls mit 10G an mehrere unterverteilungen (US-48)


aber das geht wirklich dass man soviele VMs durch ein einzelnes Netzwerkinterface quetscht? kommen die da nicht ins stocken wenn haufen pakete von zich verschiedenen VMs ein und ausgehen, und manche dazu auch noch VLAN getaggt sind (über die VM einstellung selber)


Moin,

sehe das wie die Kollegen @Dani und @maretz
Dein Bottleneck wird - vermutlich - der Switch sein.
Entzerre das, indem du (schon aus Redundanzgründen) eine LAG zwischen Hyper-V-Host und Switch erstellst:
2x10G heißt zwar immer noch, 2x 10G (und nicht 1x 20G), aber so wird jede NIC im besten Fall nur mit 10-15VMs beglückt.

Und entscheidend ist nicht die Zahl der VMs sondern der erwartete I/O in Form von Paketen
Ein Server kann genauso viele I/Os verursachen, wie 15 "kleinere".


Aber wir haben eine "ähnliche" Größenordnung wie du/ ihr:
2 ESXi Hosts, je mit 2x10G an einem gestackten Switch-Verbund und je Host sind es in etwa 20-30 Hosts. Läuft hier Problemfrei, trotz div. Datenbanken, einem Exchange für 50 Postfächer und und und...


Gruß
em-pie
Assassin
Assassin 05.07.2021 um 15:47:10 Uhr
Goto Top
unser exchange hat um die 200 Postfächer, aber ich hätte jetzt nicht gedacht, dass es dennoch möglich ist, soviele VMs durch ein interface zu quetschen...
Es gibt ja dann auch noch verschiedene Teaming arten...LBFO Teaming, also klassisch über die windows GUI, oder ein SET team über die Powershell, wobei ich aber mit dem SET team probleme habe wenn ich zwei Server habe und diese in einem Failover CLuster sind, da findet sich das netzwerk nicht richtig, denkt das wäre segmentiert obwohl beide im selben Netzwerkadressbereich sind und sich auch anpingen können...
ukulele-7
ukulele-7 05.07.2021 um 16:07:30 Uhr
Goto Top
Ein wesentlicher Teil des Traffics verbleibt im Server, der vSwitch kann die Kommunikation zwischen den VMs ja selbst abwickeln. Die Größenordnung 30 VMs sagt also wirklich gar nichts über den Traffic am Interface aus.
psannz
psannz 05.07.2021 aktualisiert um 18:58:46 Uhr
Goto Top
Sers,

eine Limitierung wie viele VMs auf einer NIC laufen sollten hast du eigentlich nur im Zusammenhang mit SR-IOV und/oder NPAR.
Was SR-IOV angeht kannst du je nach NIC und Treiber mehr oder weniger VF und PF betreiben.
Die Frage ist, ob es sich aufgrund der Last auf CPU-0 wegen der Netzwerklast einer VM überhaupt lohnt.
Sollte in den Datenblättern der NICs stehen.

Grüße,
Philip
MysticFoxDE
MysticFoxDE 07.07.2021 um 07:37:07 Uhr
Goto Top
Moin Assassin,

Ich habe mal gelesen das man bei einem HyperV server (2019) die anzahl an vSwitchen gering halten soll, also wenn möglich nur einen einzelnen vSwitch erstellen und darüber alle VMs laufen lassen.

Das ist absolut korrekt so.

Kann man da also über eine einzelne 10G netzwerkkarte 20 oder gar 30 VMs gleichzeitig darüber laufen lassen? SQL, DC, Fileserver, Exchange, Oracle,...
die werden in summe nichtmal eine 1G leitung auslasten, aber gabs da nicht sowas wie Warteschlangen, sodass das physikalische Interface bzw. die Netzwerkkarte oder gar der Switchport total überlastet werden könnte wenn soviel verschiedene Anfragen rein udn rausgehen - gleichzeitig?

Im Normalfall absolut kein Problem, auch mit 50 oder mehr VM’s.
Du solltest lediglich darauf achten, dass VM’s die viel untereinander über das Netzwerk transferieren, möglichst auf einem und demselben Hyper-V Host laufen. Wenn das der Fall ist, dann schnacken die VM’s eh nur über den vSwitch der vollständig auf der Host-CPU läuft, untereinander und belasten somit weder die physikalische NIC noch den Switch physikalischen dahinter. 😉
!!! Die obere Aussage gilt nicht in Verbindung mit SR-IOV !!!

aber das geht wirklich dass man soviele VMs durch ein einzelnes Netzwerkinterface quetscht? kommen die da nicht ins stocken wenn haufen pakete von zich verschiedenen VMs ein und ausgehen, und manche dazu auch noch VLAN getaggt sind (über die VM einstellung selber)

Nö, im Gegenteil, solange dein SDN richtig konfiguriert ist und die Nodes auch noch genug CPU Reserven haben, ist ein Transfer über vNIC --> vSwitch --> vNIC immer schneller und ressourcenschonender als einer über vNIC --> vSwitch --> pNIC --> pSwich --> pNIC --> vSwitch --> vNIC.

Es gibt ja dann auch noch verschiedene Teaming arten...LBFO Teaming, also klassisch über die windows GUI, oder ein SET team über die Powershell, wobei ich aber mit dem SET team probleme habe wenn ich zwei Server habe und diese in einem Failover CLuster sind, da findet sich das netzwerk nicht richtig, denkt das wäre segmentiert obwohl beide im selben Netzwerkadressbereich sind und sich auch anpingen können...

Du solltest bei einem 2019er kein LBFO sondern nur noch SET für das NIC Teaming verwenden. Das ist auch die offizielle Empfehlung seitens Microsoft.

Beste Grüsse aus BaWü

Alex
Assassin
Assassin 07.07.2021 um 07:57:28 Uhr
Goto Top
Ich dachte immer, dass es mit den Netzwerkkarten ähnlich ist wie bei HDDs oder SSDs...ein großer Datenstrom (z.B. Große Dateie kopieren) geht bekanntlich schneller, also 1 mio kleine 1kB dateien zu kopieren...
also dass das Netzwerk auch hart am Limit ist, auch wenn da nur 50MB/s über eine 10G leitung geschoben werden in summe, weil soviele kleine dateien ständig hin und her geschickt werden.
oder ist das beim Netzwerk nicht so?


wo gibt es diese empfehlung mit dem SET Team seitens Microsoft? Klar gefält mit ein SET Team auch besser, aber in verbindung mit einem Failover Cluster macht es bei mir probleme, eben in form von angeblicher Netzwerk Segmentierung.