NUMA Technologie
Hallo zusammen,
ich brauche eure Hilfe oder zumindest einen "Rucker" in die richtige Richtung.
Bei NUMA werden der CPU Bereiche im Arbeitsspeicher zugewiesen welche einen schnellern Zugriff darauf ermöglichen. Hat aber auch den Nachteil wenn auf einen anderen NUMA-Node durch die CPU zugeriffen werden soll auser der eigenen hat man Leistungseinbußen.
Ist ein NUMA-Node denn immer ein CPU-Socket oder die Kerne/Cores? Was ist mit einem Node hier genau gemeint? Sitze gerade vor einem Hyper-V und tüftel für eine Prüfung
Liebe Grüße
und schonmal DANKE!
ich brauche eure Hilfe oder zumindest einen "Rucker" in die richtige Richtung.
Bei NUMA werden der CPU Bereiche im Arbeitsspeicher zugewiesen welche einen schnellern Zugriff darauf ermöglichen. Hat aber auch den Nachteil wenn auf einen anderen NUMA-Node durch die CPU zugeriffen werden soll auser der eigenen hat man Leistungseinbußen.
Ist ein NUMA-Node denn immer ein CPU-Socket oder die Kerne/Cores? Was ist mit einem Node hier genau gemeint? Sitze gerade vor einem Hyper-V und tüftel für eine Prüfung
Liebe Grüße
und schonmal DANKE!
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 364632
Url: https://administrator.de/forum/numa-technologie-364632.html
Ausgedruckt am: 23.12.2024 um 11:12 Uhr
2 Kommentare
Neuester Kommentar
Nach meinem Verständnis sind alle Speicherbänke im Server an je eine CPU angebunden, gleichmäßig verteilt. Eine CPU bildet zusammen mit dem mit ihr verbundenen RAM einen Node.
Der Prozess der auf dieser CPU läuft verwendet bevorzugt den direkt angebunden Speicher. Erst wenn mehr RAM benötigt wird läuft das über die Verbindung der CPUs untereinander, QPI oder wie es grade heisst.
Der Prozess der auf dieser CPU läuft verwendet bevorzugt den direkt angebunden Speicher. Erst wenn mehr RAM benötigt wird läuft das über die Verbindung der CPUs untereinander, QPI oder wie es grade heisst.
Hi,
Im Zusammenhang mit der Virtualisierung geht es darum, dass nach Möglichkeit alle vCPU einer VM auf Cores eines Sockels laufen sollen. Wenn bei Überbuchung der verfügbaren Core durch (zu) viele (zu große) VM eine VM mit seinen vCPU ständig zwischen den Sockel springen muss, dann ergeben sich dadurch Leistungseinbußen, weil der Hypervisor entweder überkreuz auf den "anderen" Speicher zugreifen oder jedes Mal den Speicher kopieren muss.
E.
Nach meinem Verständnis sind alle Speicherbänke im Server an je eine CPU angebunden, gleichmäßig verteilt. Eine CPU bildet zusammen mit dem mit ihr verbundenen RAM einen Node.
Der Prozess der auf dieser CPU läuft verwendet bevorzugt den direkt angebunden Speicher.
So habe ich es auch verstanden.Der Prozess der auf dieser CPU läuft verwendet bevorzugt den direkt angebunden Speicher.
Erst wenn mehr RAM benötigt wird läuft das über die Verbindung der CPUs untereinander, QPI oder wie es grade heisst.
Nicht nur wenn mehr RAM sondern auch dann, wenn auf Speicher eines anderen Prozess zugegriffen werden muss.Im Zusammenhang mit der Virtualisierung geht es darum, dass nach Möglichkeit alle vCPU einer VM auf Cores eines Sockels laufen sollen. Wenn bei Überbuchung der verfügbaren Core durch (zu) viele (zu große) VM eine VM mit seinen vCPU ständig zwischen den Sockel springen muss, dann ergeben sich dadurch Leistungseinbußen, weil der Hypervisor entweder überkreuz auf den "anderen" Speicher zugreifen oder jedes Mal den Speicher kopieren muss.
E.