Suche 19" Zoll 2U Rack mit Backplane für NVMe
Hallo zusammen,
bin neu hier und hoffe mit meiner Frage oder Fragen richtig zu sein.
Hintergrund:
Ich bin gerade dabei mir ein Server-Cluster zusammen zu stellen.
Ist:
Ubuntu 18.04 LTS 2-Node Cluster DRBD Corosync ohne HA
Soll
Ziel Proxmox 3-Node HA-Cluster mit Ceph zur Virtualisierung.
SQL-Server
einige - WIN-Client
Ubuntu Server als AD-Controller
Fileserver
Meine Isthardware ist nun mittlerweile 6 Jahre alt und aufgrund von einigen Konstruktionsfehlern im Bezug auf Hardwareabstimmung und Clusteraufbau komme ich nun an die Grenzen meiner Möglichkeiten in meinem alten Setup.
Grund war teilweise das Mischen von Consumer mit Server Hardware um Kosten zu reduzieren. Aber auch auf das Verzichten von RAID um HDDs mit RAID10 die performance zu steigern.
______________________________
Nun bräuchte ich Hilfe im Bezug auf die Konstruktion meines neuen Setups. Im speziellen bei der Abstimmung Chassis / Backplane / HBA / NVMe
Hier fehlt mir Detailwissen, da ich hiermit noch nichts gemacht habe.
Chassis:
Ich brauche/suche ich ein EATX Chassis mit Backplane die NVMe möglich macht.
Ich benötige zu beginn 4 nvme die ich bis auf 8 ausbauen kann.
Ich hatte noch keine NVMe in der Hand.
Welches Kabel geht von NVME zur Backplane?
Mit welchem SFF- Kabel wird Backplane mit HBA verbunden?
Als Nvme dachte ich folgende
3200GB Micron 9300 MAX sequentiel (r/w 3500/3100)
Hier stellt sich mir die Frage, wie viele Platten hänge ich auf einen HBA 4.0 16x mit 31,5 GB/s das durch die Schnittstelle möglich ist?
write 3100*8/1000=24,8 GB/s
Wenn ich mit der sequentiellen Möglichkeit rechne, nutze ich ja schon fast mit einer Platte die volle Bandbreite des PCI 4.0 16x.
Oder habe ich einen Rechenfehler oder gar Denkfehler?
Wenn dem so ist, welche Option habe ich alles aus 4 Platten im Ceph-Pool herauszuholen?
Gibt es eine HBA Empfehlung von euch?
Meistens sehe ich, dass die Serverkonfiguartoren einiger Serveranbieter NVMe Setups mit HBA PCIE 3.0 16x aufsetzen.
Da stellt sich mir die Frage, ob es überhaupt Sinn macht hier auf PCIE4 zu gehen und der 3.0 die Platten nicht ausbremst.
Vielen Dank für eure Hilfe
bin neu hier und hoffe mit meiner Frage oder Fragen richtig zu sein.
Hintergrund:
Ich bin gerade dabei mir ein Server-Cluster zusammen zu stellen.
Ist:
Ubuntu 18.04 LTS 2-Node Cluster DRBD Corosync ohne HA
Soll
Ziel Proxmox 3-Node HA-Cluster mit Ceph zur Virtualisierung.
SQL-Server
einige - WIN-Client
Ubuntu Server als AD-Controller
Fileserver
Meine Isthardware ist nun mittlerweile 6 Jahre alt und aufgrund von einigen Konstruktionsfehlern im Bezug auf Hardwareabstimmung und Clusteraufbau komme ich nun an die Grenzen meiner Möglichkeiten in meinem alten Setup.
Grund war teilweise das Mischen von Consumer mit Server Hardware um Kosten zu reduzieren. Aber auch auf das Verzichten von RAID um HDDs mit RAID10 die performance zu steigern.
______________________________
Nun bräuchte ich Hilfe im Bezug auf die Konstruktion meines neuen Setups. Im speziellen bei der Abstimmung Chassis / Backplane / HBA / NVMe
Hier fehlt mir Detailwissen, da ich hiermit noch nichts gemacht habe.
Chassis:
Ich brauche/suche ich ein EATX Chassis mit Backplane die NVMe möglich macht.
Ich benötige zu beginn 4 nvme die ich bis auf 8 ausbauen kann.
Ich hatte noch keine NVMe in der Hand.
Welches Kabel geht von NVME zur Backplane?
Mit welchem SFF- Kabel wird Backplane mit HBA verbunden?
Als Nvme dachte ich folgende
3200GB Micron 9300 MAX sequentiel (r/w 3500/3100)
Hier stellt sich mir die Frage, wie viele Platten hänge ich auf einen HBA 4.0 16x mit 31,5 GB/s das durch die Schnittstelle möglich ist?
write 3100*8/1000=24,8 GB/s
Wenn ich mit der sequentiellen Möglichkeit rechne, nutze ich ja schon fast mit einer Platte die volle Bandbreite des PCI 4.0 16x.
Oder habe ich einen Rechenfehler oder gar Denkfehler?
Wenn dem so ist, welche Option habe ich alles aus 4 Platten im Ceph-Pool herauszuholen?
Gibt es eine HBA Empfehlung von euch?
Meistens sehe ich, dass die Serverkonfiguartoren einiger Serveranbieter NVMe Setups mit HBA PCIE 3.0 16x aufsetzen.
Da stellt sich mir die Frage, ob es überhaupt Sinn macht hier auf PCIE4 zu gehen und der 3.0 die Platten nicht ausbremst.
Vielen Dank für eure Hilfe
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 661698
Url: https://administrator.de/contentid/661698
Ausgedruckt am: 21.11.2024 um 23:11 Uhr
8 Kommentare
Neuester Kommentar
moin...
Hintergrund:
Ich bin gerade dabei mir ein Server-Cluster zusammen zu stellen.
Ist:
Ubuntu 18.04 LTS 2-Node Cluster DRBD Corosync ohne HA
Soll
Ziel Proxmox 3-Node HA-Cluster mit Ceph zur Virtualisierung.
SQL-Server
einige - WIN-Client
Ubuntu Server als AD-Controller
Fileserver
Meine Isthardware ist nun mittlerweile 6 Jahre alt und aufgrund von einigen Konstruktionsfehlern im Bezug auf Hardwareabstimmung und Clusteraufbau komme ich nun an die Grenzen meiner Möglichkeiten in meinem alten Setup.
Grund war teilweise das Mischen von Consumer mit Server Hardware um Kosten zu reduzieren. Aber auch auf das Verzichten von RAID um HDDs mit RAID10 die performance zu steigern.
ok...
Als Nvme dachte ich folgende
3200GB Micron 9300 MAX sequentiel (r/w 3500/3100)
das ist eine U2
Vielen Dank für eure Hilfe
Frank
Zitat von @nickyblackmarket:
Hallo zusammen,
bin neu hier und hoffe mit meiner Frage oder Fragen richtig zu sein.
Hallo...Hallo zusammen,
bin neu hier und hoffe mit meiner Frage oder Fragen richtig zu sein.
Hintergrund:
Ich bin gerade dabei mir ein Server-Cluster zusammen zu stellen.
Ist:
Ubuntu 18.04 LTS 2-Node Cluster DRBD Corosync ohne HA
Soll
Ziel Proxmox 3-Node HA-Cluster mit Ceph zur Virtualisierung.
SQL-Server
einige - WIN-Client
Ubuntu Server als AD-Controller
Fileserver
Meine Isthardware ist nun mittlerweile 6 Jahre alt und aufgrund von einigen Konstruktionsfehlern im Bezug auf Hardwareabstimmung und Clusteraufbau komme ich nun an die Grenzen meiner Möglichkeiten in meinem alten Setup.
Grund war teilweise das Mischen von Consumer mit Server Hardware um Kosten zu reduzieren. Aber auch auf das Verzichten von RAID um HDDs mit RAID10 die performance zu steigern.
______________________________
Nun bräuchte ich Hilfe im Bezug auf die Konstruktion meines neuen Setups. Im speziellen bei der Abstimmung Chassis / Backplane / HBA / NVMe
Hier fehlt mir Detailwissen, da ich hiermit noch nichts gemacht habe.
Chassis:
Ich brauche/suche ich ein EATX Chassis mit Backplane die NVMe möglich macht.
du meinst aber U2... oder?Nun bräuchte ich Hilfe im Bezug auf die Konstruktion meines neuen Setups. Im speziellen bei der Abstimmung Chassis / Backplane / HBA / NVMe
Hier fehlt mir Detailwissen, da ich hiermit noch nichts gemacht habe.
Chassis:
Ich brauche/suche ich ein EATX Chassis mit Backplane die NVMe möglich macht.
Ich benötige zu beginn 4 nvme die ich bis auf 8 ausbauen kann.
ok...Ich hatte noch keine NVMe in der Hand.
Welches Kabel geht von NVME zur Backplane?
kommt auf den Hersteller an...Welches Kabel geht von NVME zur Backplane?
Mit welchem SFF- Kabel wird Backplane mit HBA verbunden?
mitAls Nvme dachte ich folgende
3200GB Micron 9300 MAX sequentiel (r/w 3500/3100)
Hier stellt sich mir die Frage, wie viele Platten hänge ich auf einen HBA 4.0 16x mit 31,5 GB/s das durch die Schnittstelle möglich ist?
write 3100*8/1000=24,8 GB/s
Wenn ich mit der sequentiellen Möglichkeit rechne, nutze ich ja schon fast mit einer Platte die volle Bandbreite des PCI 4.0 16x.
Oder habe ich einen Rechenfehler oder gar Denkfehler?
kann dein Server Board den überhaubt PCIe 4.0?write 3100*8/1000=24,8 GB/s
Wenn ich mit der sequentiellen Möglichkeit rechne, nutze ich ja schon fast mit einer Platte die volle Bandbreite des PCI 4.0 16x.
Oder habe ich einen Rechenfehler oder gar Denkfehler?
Wenn dem so ist, welche Option habe ich alles aus 4 Platten im Ceph-Pool herauszuholen?
Gibt es eine HBA Empfehlung von euch?
Gibt es eine HBA Empfehlung von euch?
Meistens sehe ich, dass die Serverkonfiguartoren einiger Serveranbieter NVMe Setups mit HBA PCIE 3.0 16x aufsetzen.
Da stellt sich mir die Frage, ob es überhaupt Sinn macht hier auf PCIE4 zu gehen und der 3.0 die Platten nicht ausbremst.
was nutzt dir das, wenn dein MB nur PCIe3 3.0 macht... oder kann dein Server Mainboard das ?Da stellt sich mir die Frage, ob es überhaupt Sinn macht hier auf PCIE4 zu gehen und der 3.0 die Platten nicht ausbremst.
Vielen Dank für eure Hilfe
Zitat von @nickyblackmarket:
Das würde zwar das Setup erleichtern, aber das ist keine Lösung für mich.
Eingeschränkte Skalierbarkleit.
Kein Hot-Swap
Auch war ich der Meinung gelesen zu haben, dass die Performance über M.2 im Vergleich zu U.2 SSD schlechter ist.
für U2 gibet auch PCIe Karten... natürlich kann eine U2 schneller als M2 sein, es kommt aber darauf an, was du verwendest...Das würde zwar das Setup erleichtern, aber das ist keine Lösung für mich.
Eingeschränkte Skalierbarkleit.
Kein Hot-Swap
Auch war ich der Meinung gelesen zu haben, dass die Performance über M.2 im Vergleich zu U.2 SSD schlechter ist.
Trotzdem Danke.
Moin,
also hier wird man doch sicherlich fündig, da du ja nur das Gehäuse, nicht aber die Hardware wie Mainboard etc. benötigst:
http://www.chenbro.com/en-global/products/BareboneServer/1U_BBServer/RB ...
https://www.ipc.in-win.com/nvme-storage-server
Müsstest nur schauen (ggf. dort ne Mail hinschieben), ob die Backplane passt...
Gruß
em-pie
also hier wird man doch sicherlich fündig, da du ja nur das Gehäuse, nicht aber die Hardware wie Mainboard etc. benötigst:
http://www.chenbro.com/en-global/products/BareboneServer/1U_BBServer/RB ...
https://www.ipc.in-win.com/nvme-storage-server
Müsstest nur schauen (ggf. dort ne Mail hinschieben), ob die Backplane passt...
Gruß
em-pie