fragensteller
Goto Top

Server aber welche CPU?

Guten Tag,

ich suche zwei "ideale" Server. Server1 um einen HyperV drauf laufen zu lassen plus 3-4 VMs (Exchange 2019, DC, TS und einen File Server). Server2 soll als Backup Host laufen.
Auf dem TS arbeiten max. 15. Personen plus auf dem Exchange sind max. 20 Postfächer.
Was für einen Server in welcher Größenordnung könnt Ihr mir empfehlen?
Habe aktuell an 4x16gb RAM gedacht im ersten Host und für den Backup 16gb. Bzgl. Speicher steht schon alles bereit. Nur mit den CPUs komme ich nicht so zu recht bzw. habe keine Vorstellung wieviel Kerne, Cores etc. ich am besten bräuchte.

Evtl. hat jemand ja einen guten Vorschlag.
Danke im voraus.

VG

Content-ID: 4410076328

Url: https://administrator.de/contentid/4410076328

Ausgedruckt am: 05.11.2024 um 13:11 Uhr

Hubert.N
Hubert.N 26.10.2022 aktualisiert um 18:16:13 Uhr
Goto Top
Moin

Was erwartest Du für eine Antwort, wenn Du von "ideal" schreibst???

Zitat von @fragensteller:
ich suche zwei "ideale" Server. Server1 um einen HyperV drauf laufen zu lassen plus 3-4 VMs (Exchange 2019, DC, TS und einen File Server). Server2 soll als Backup Host laufen.
Auf dem TS arbeiten max. 15. Personen plus auf dem Exchange sind max. 20 Postfächer.
Was für einen Server in welcher Größenordnung könnt Ihr mir empfehlen?
Habe aktuell an 4x16gb RAM gedacht im ersten Host und für den Backup 16gb. Bzgl.

Wenn Du mal in die empfohlenen Specs von Exchange 2019 schaust, dann wirst Du dort schon lesen, dass 128GB RAM empfohlen sind. Der läuft zwar auch mit weniger, aber das bedeutet auch nicht, dass der sich mit 16GB zufrieden gibt.
Also: mehr RAM...
Terminalserver: Da müsste man wissen, was da drauf laufen soll. Rechner aber mal mit 3GB pro Session. Und das, wenn es um Standardapplikationen geht.
DC: ist das, was kaum Ressourcen benötigt. Rechne mal 4GB
Standard Fileserver: Braucht auch nicht viel. Rechne mal mindestens 6GB.

Fazit zum RAM: wenigstens 128GB. Eher mehr.

Nur mit den CPUs komme ich nicht so zu recht bzw. habe keine Vorstellung wieviel Kerne, Cores etc. ich am besten bräuchte.

Für Terminaldienste ist es wichtiger hoch getaktete CPUs zu haben als viele Cores. Da musst Du auch ein wenig schauen, was das Budget so hergibt...

Evtl. hat jemand ja einen guten Vorschlag.

Ja.. Ich... Lass den Exchange 2019 weg. Buche die Postfächer im 365 und gut ist es. hat auch den Vorteil, dass Du kene Last mit der Systempflege hast. Die Welt ist voll von verzweifelten Admins, deren Exchange nach dem Update nicht mehr so will, wie er vorher wollte...
Für 20 Postfächer halte ich einen OnPremise-Exchange für "überkandidelt"

Speicher steht schon alles bereit.

Erst kaufen und dann Gedanken machen?! face-smile


Gruß
Visucius
Visucius 26.10.2022 aktualisiert um 18:16:21 Uhr
Goto Top
... und Gott fragte: "Welche Farbe sollte das Einhorn nochmal haben?"

PS: Lass Dir doch hier mal einen zusammenstellen - wenigstens als Richtschnur? https://www.thomas-krenn.com/de
mbehrens
mbehrens 26.10.2022 um 18:16:49 Uhr
Goto Top
Zitat von @fragensteller:

Nur mit den CPUs komme ich nicht so zu recht bzw. habe keine Vorstellung wieviel Kerne, Cores etc. ich am besten bräuchte.

Bei dem detailliert dargelegten Anforderungsprofil sollten es schon mehrere aus der Xeon Platinum Baureihe sein face-wink
em-pie
em-pie 26.10.2022 um 18:55:38 Uhr
Goto Top
Moin,

@Hubert N.
Ja.. Ich... Lass den Exchange 2019 weg. Buche die Postfächer im 365 und gut ist es.
Sollte man vielleicht erwähnen, dass es in den letzten drei Jahren mehr M365 Probleme gab als bei uns mit einem OnPrem?
Ich erwähne mal den Thread hier:
Mailversand an outlook.com aktuell verzögert

Gut, den Supergau Anfang 2021 mit dem OnPrem-Exchange darf man auch nicht vergessen…

Und beim M365-Exchange hängst du am Fliegenfänger: mal eben den Server aus dem Backup holen (aus welchem eigentlich?), um wieder produktiv arbeiten zu können ist da nicht…


@to
Achte bei der CPU auf die Lizenzen von Windows… es wird ja nicht nach Sockel sondern nach Core lizensierst.

Beim RAM ist’s wie beim Motor: RAM ist durch nichts zu ersetzen, außer noch mehr RAM

Gruß
em-pie
radiogugu
radiogugu 26.10.2022 um 19:51:08 Uhr
Goto Top
Nabend.

Der Backup Host, welcher als Hot- oder Cold-Standby dienen soll, sollte diesselbe Ausstattung haben, wie der primäre.

Ansonsten hilft der dir ja mal gar nix, wenn er den DC und den Fileserver abbilden kann, aber den Exchange und den RDS nicht mehr.

Läuft denn vor dem Exchange noch eine WAF oder / und ein Mailgateway in irgendeiner Form?

Es klingt als wäre der Gang zu einem Dienstleister durchaus angebracht.

Ansonsten alles, was die Kollegen geschrieben haben.

Gruß
Marc
MysticFoxDE
MysticFoxDE 26.10.2022 aktualisiert um 20:05:33 Uhr
Goto Top
Moin fragensteller,

Evtl. hat jemand ja einen guten Vorschlag.

schau dass du in den Server mindestens 256G RAM rein bekommst, ansonsten würde ich bei dem was du geschrieben hast, dir die folgende CPU empfehlen ...

https://ark.intel.com/content/www/us/en/ark/products/215274/intel-xeon-g ...

Aber bitte nur eine pro Server davon.

Alternativ zwei von diesen ...

https://ark.intel.com/content/www/us/en/ark/products/215275/intel-xeon-s ...

Beste Grüsse aus BaWü

Alex
Lochkartenstanzer
Lochkartenstanzer 26.10.2022 um 20:51:52 Uhr
Goto Top
Moin,

Beim Exchange würde ich orüfen, ob wirklich mehr als nur Terminverwaltung und E-Mail benötigt wird. Wenn nicht, würde ich statt dem Exchange einen IMAP und Kalender-Server auf Unix-Basis nehmen, der viel ressourcenschonender ist.

lks
Visucius
Visucius 26.10.2022 aktualisiert um 22:11:12 Uhr
Goto Top
Und beim M365-Exchange hängst du am Fliegenfänger: mal eben den Server aus dem Backup holen (aus welchem eigentlich?), um wieder produktiv arbeiten zu können ist da nicht…

Mein Gott, wenn ich das so lese: 128 GB RAM, Multi-Core-Prozessoren, HW-abhängige Lizenzen, laufende Updatezyklen mit mannigfachen Problemen im Monatsabstand face-wink

Das ganze mal 2 – was ja auch alles immer auf dem Laufenden gehalten werden muss und mehr oder weniger ständig mitläuft, ...

zzgl. Backup, Kühlung, Lärm, Stromverbrauch, USVs ... Der ganze Kram noch mit Wartungsintervallen und Verträgen.

Für 20 Postfächer und ein paar Terminplaner face-wink

Wäre vielleicht einfacher wieder Briefe zu schreiben ... oder faxen!
Lochkartenstanzer
Lochkartenstanzer 26.10.2022 um 21:22:10 Uhr
Goto Top
Zitat von @Visucius:

Wäre vielleicht einfacher wieder Briefe zu schreiben ... oder faxen!

Oder einfach zwei RasPis clustern für ausfallsicheren email-Betrieb. face-smile

lks
Vision2015
Vision2015 27.10.2022 um 06:59:27 Uhr
Goto Top
moin...

Die Welt ist voll von verzweifelten Admins, deren Exchange nach dem Update nicht mehr so will, wie er vorher wollte...

oha... ich habe Corona, aber verzweifelt bin ich jetzt nicht! face-smile

Frank
em-pie
em-pie 27.10.2022 um 07:09:44 Uhr
Goto Top
@Visucius
Wir beide dürfen nicht pauschalisieren. Bei uns, ca. 50VMs ist der Exchange „nur“ Beiwerk… Wartung und Infrastruktur haben wir eh, da ist ein M365 weniger attraktiv.
Wollte nur darauf hinweisen, dass Cloud-Produkte nicht immer Vorteile bringen und man sich mit anderen Dingen beschäftigen muss…
E-Mail-Archivierung (GoBD) ist da so ein Thema…

Bei einer kleinen Buden (nicht muss) kann ein M365-Exchange wiederum passen… wobei man auch überlegen kann, einen anderen Mailprovider auf Basis von IMAP und CalDAV zu nutzen, wenn die Möglichkeiten eines Exchange nicht voll benötigt werden…

Wie immer: It depends
2423392070
2423392070 27.10.2022 um 07:47:23 Uhr
Goto Top
Budget?
Was sind die Top10 Apps auf den TS?
OlliSe
OlliSe 27.10.2022 um 07:59:25 Uhr
Goto Top
Zitat von @em-pie:

Moin,

@Hubert N.
Ja.. Ich... Lass den Exchange 2019 weg. Buche die Postfächer im 365 und gut ist es.
Sollte man vielleicht erwähnen, dass es in den letzten drei Jahren mehr M365 Probleme gab als bei uns mit einem OnPrem?
Ich erwähne mal den Thread hier:
Mailversand an outlook.com aktuell verzögert

Gut, den Supergau Anfang 2021 mit dem OnPrem-Exchange darf man auch nicht vergessen…

Und beim M365-Exchange hängst du am Fliegenfänger: mal eben den Server aus dem Backup holen (aus welchem eigentlich?), um wieder produktiv arbeiten zu können ist da nicht…


@to
Achte bei der CPU auf die Lizenzen von Windows… es wird ja nicht nach Sockel sondern nach Core lizensierst.

Beim RAM ist’s wie beim Motor: RAM ist durch nichts zu ersetzen, außer noch mehr RAM

Gruß
em-pie

Das wird ein ewiger Streitpunkt sein.
Wie gehen auch zu Exchange, genau aus deinen genannten Gründen.
Ich hole mir allerdings einen Exchange Fachmann als DL, da meine Erfahrungswerte eher rudimentär sind.

Den Rest Administriere ich. Punkt.
HeinrichM
HeinrichM 27.10.2022 um 09:46:15 Uhr
Goto Top
Moin Moin,

also wir haben bei fast denselben Anforderungen mehrere Server mit folgenden Komponenten am Laufen.
CPU: Intel Xeon Silver 4215
128 GB RAM
Laufwerk C: im Host eine Intel SSD 250 GB
Laufwerk D: ist ein RAID 10 mit 5x 2TB SSD, wo die VMs drauf laufen.

Ausfallsicherheit durch zweite Hardware ist nicht vorhanden. Unsere Empfehlung den Host nach 4-6 Jahren zu tauschen. Datensicherung auf RDX im 2-3 Std. Takt und in die Cloud einmal pro Woche.

Läuft wie schon erwähnt, bei einigen Kunden ohne Probleme.

Gruß HeinrichM
ukulele-7
ukulele-7 27.10.2022 um 10:12:48 Uhr
Goto Top
Das meiste wurde schon gesagt, hier noch mein Senf:

Es ist nicht ganz eindeutig was du mit "Backuphost" meinst. Ein Host der die Last des ersten übernimmt wenn der ausfällt oder ein Host für die Backuplösung? Welche Backupsoftware kommt denn zum Einsatz?

Ich hoffe du willst die Hardware nicht selbst zusammen kleben, davon rate ich ab. Bei den Servern von der Stange ist das mit der CPU dann aber schnell so eine Sache, da gibt es häufig Budget Modelle die dann relativ günstig im Vergleich zu anderen Modellen abschneiden, also quasi das was grade da ist. Du solltest also dich nicht auf ein exaktes Modell versteifen sondern auch etwas Rechts und Links in der Produktreihe schauen, manchmal gibts da gute Basisgeräte. Hast du schon eine Wunsch-Marke?
Visucius
Visucius 27.10.2022 aktualisiert um 10:49:12 Uhr
Goto Top
@em-pie:
Selbstredend. Ich wollte nur mal auf den "Wahnsinn" hinweisen. In der Folge heißt das ja auch häufig (meistens?), komplette MS-Struktur über diverse VMs und Server hinweg, von den Clients ganz zu schweigen.

Und ich habe halt mal nen Kunden übernommen, bei dem in so einer Struktur ein Virus "einschlug" und ganz offenbar 3 Monate vor sich hinwerkelte. Sowas wünscht man seinem ärgsten Konkurrenten nicht.
NoAiming
NoAiming 27.10.2022 um 14:57:43 Uhr
Goto Top
Hallo zusammen,
auf die Gefahr hin, dass ich mich völlig blamiere... aber wie macht man ein RAID 10 mit einer ungeraden Anzahl an Platten?

Laufwerk D: ist ein RAID 10 mit 5x 2TB SSD, wo die VMs drauf laufen.

Grüße,
goscho
goscho 27.10.2022 um 15:35:02 Uhr
Goto Top
Zitat von @NoAiming:

Hallo zusammen,
auf die Gefahr hin, dass ich mich völlig blamiere... aber wie macht man ein RAID 10 mit einer ungeraden Anzahl an Platten?

Laufwerk D: ist ein RAID 10 mit 5x 2TB SSD, wo die VMs drauf laufen.
Gute Frage, kann eigentlich nur ein RAID 10 aus 4 SSDs sein + 1x Hotspare.

Zitat von @HeinrichM
Laufwerk C: im Host eine Intel SSD 250 GB
Wozu braucht der Hyper-V-Host als Bootlaufwerk eine SSD?
Damit er schneller bootet?
Da reichen auch gute Server-HDDs aus, allerdings nicht single sondern im RAID.
Vision2015
Vision2015 27.10.2022 um 15:41:00 Uhr
Goto Top
Moin...
Zitat von @NoAiming:

Hallo zusammen,
auf die Gefahr hin, dass ich mich völlig blamiere... aber wie macht man ein RAID 10 mit einer ungeraden Anzahl an Platten?

Laufwerk D: ist ein RAID 10 mit 5x 2TB SSD, wo die VMs drauf laufen.
2 X als Standby... vermute ich mal.

Grüße,

Frank
Vision2015
Vision2015 27.10.2022 um 15:42:49 Uhr
Goto Top
Moin...
Zitat von @goscho:

Zitat von @NoAiming:

Hallo zusammen,
auf die Gefahr hin, dass ich mich völlig blamiere... aber wie macht man ein RAID 10 mit einer ungeraden Anzahl an Platten?

Laufwerk D: ist ein RAID 10 mit 5x 2TB SSD, wo die VMs drauf laufen.
Gute Frage, kann eigentlich nur ein RAID 10 aus 4 SSDs sein + 1x Hotspare.

Zitat von @HeinrichM
Laufwerk C: im Host eine Intel SSD 250 GB
Wozu braucht der Hyper-V-Host als Bootlaufwerk eine SSD?
Damit er schneller bootet?
Da reichen auch gute Server-HDDs aus, allerdings nicht single sondern im RAID.
da würde ich heute aber auch nur SSD´s nehmen.

Frank
Lochkartenstanzer
Lochkartenstanzer 27.10.2022 aktualisiert um 16:05:05 Uhr
Goto Top
Zitat von @goscho:

Zitat von @HeinrichM
Laufwerk C: im Host eine Intel SSD 250 GB
Wozu braucht der Hyper-V-Host als Bootlaufwerk eine SSD?
Damit er schneller bootet?

  • Nicht nur aber auch. Du mußt Bedenken, daß in der Zeit in der der Hypervisor bootet die VMs "stehen".
  • Die Updates werden schneller eingespielt,
  • Wartungsarbeiten gehen schneller von Hand
  • Der Preis für kleine SSDs ist so klein <<100€, das sich die Kostenfrage beim Kauf kaum stellt.


Da reichen auch gute Server-HDDs aus, allerdings nicht single sondern im RAID.

Boot-SSDs würde ich auch im RAID betreiben.

Meine Empfehlung ist heutzutage für alles auf dem ein OS läuft, egal ob baremetal oder virtuell eine SSD zu nehmen und die HDDs nur als Datenablage zu benutzen. Die Preise für (kleine) SSDs sind inzwischen niedrig genug, das selbst wenige Minuten Arbeitszeitersparnis der Admins die Mehrkosten Rückzug ausgleichen.

lks
HansDampf06
HansDampf06 28.10.2022 um 01:12:43 Uhr
Goto Top
Meine 5 Cents - vieles wurde bereits erwähnt, aber ich möchte meine Erfahrungen mit ein paar Ergänzungen spiegeln.

1.
Systemlaufwerk eines Servers - Baremetal oder Hypervisor: Immer SSD im 10er RAID (= 4 SSD, bei Bedarf 1 x Hotspare (habe ich in über zwölf Jahren nicht einmal benötigt)). Hyper-V-Server kommt mit 60 bis 100 GB als Partition locker aus. Auf dem Systemlaufwerk werden aber keinerlei VHD(X)-Datei abgelegt. Ein Systemlaufwerk ist ein Systemlaufwerk und nichts anderes. Alle Daten gehören immer auf dedizierte zusätzliche Laufwerke -> VHDX-Dateien sind in Relation zum Hypervisor Datendateien und haben deswegen auf dem Systemlaufwerk nichts zu suchen. Es gibt noch weitere Gründe, das Systemlaufwerk des Hypervisors betreffend die VM's nicht zu belästigen.

Bezüglich den SSD's bin ich damals mit den 80GB-SSD von Intel eingestiegen. Diese liefen von Herbst 2010 bis Herbst 2020 im Dauerbetrieb 24/7 durch, völlig anstandslos, und zwar an einem Promise- und später Adaptec-RAID-Controller, jeweils mit Batteriepufferung. Laut dem Intel-SSD-Tool hatten sie dann noch eine Restlebensdauerprognose von rund 75 Prozent. Ich bin ausschließlich bei Intel geblieben.

Für die RAID's, soweit innerhalb des Servers und kein externes Storagesystem verwendet wird, wird nie das Mainboard, sondern immer ein dedizierter Hardware-RAID-Controller (Steckkarte mit Batteriepufferung) verwendet. Dieser Controller ist eben der Spezialist genau für diese Aufgabe.

Was noch bei den SSD's im Vergleich zu HDD's eine Rolle spielt, aber seltener erwähnt wird, ist die Leistungsaufnahme - sprich: der als Wärme verbratene Strom. Es gibt bei den SSD's immer Modelle, die im Betriebsmodus mit ihrem Leistungsbedarf laut Herstellerangabe nicht über ein Watt gehen (geizhals.de ist hier beim Suchen und Finden als Startpunkt ganz hilfreich). Eine mechanische 3,5-Zoll-HDD frisst zumeist 10 bis 15 Watt im Betrieb (Spitze sogar 20 Watt), im Idle sind es auch noch mehrere Watt. 2,5-Zoll-HDD's sind etwas besser bei der Leistungsaufnahme, kommen aber dennoch nicht an die SSD's heran. Und dieser Leistungsunterschied ist eine gehörige Wärmequelle und zudem eine entsprechende Lärmquelle. Denn, wenn viel Wärme entsteht, werden zusätzliche Maßnahmen zur Wärmeabfuhr/-bekämpfung benötigt, die abermals Energie und somit sinnlos Geld kosten. Mit anderen Worten: Der Mehrpreis einer SSD gegenüber einer vergleichbaren HDD wird einerseits durch einen drastisch geringeren Ressourcen- und Geldverbrauch im Betrieb und andererseits durch einen unvergleichlichen Performance-Gewinn in relativ kurzer Zeit amortisiert. Der flüsterleise Betrieb greift natürlich sofort.

Die VHDX-Dateien der Systemlaufwerke der Virtuellen Maschinen laufen auf einem eigenen Host-Laufwerk (RAID 10, kann auch 5 sein). Auch bei den VM's werden die Daten wieder vom Systemlaufwerk getrennt auf einem oder mehreren dedizierten Laufwerken (VHDX-Dateien) bedient. Diese Daten-VHDX-Dateien sind ebenfalls auf einem (oder mehreren bei Bedarf) eigenen dedizierten Host-Laufwerk(en) (RAID 10 oder 5) abgelegt. Daher sollte bei vollständiger Installation des Storage innerhalb des Servergehäuses der Hardware-RAID-Controller mindestens 16 Kanäle besitzen.

2.
Anzahl der echten Prozessorkerne = Anzahl der Virtuellen Cores für die Virtuellen Maschinen plus zwei Kerne für den Hypervisor. Ein Überbuchen der real vorhandenen Kerne mit der Anzahl der vCores ist zwar grundsätzlich möglich, aber sorgt für einen erhöhten Verwaltungsaufwand des Hypervisors und somit für einen Performance-Verlust für alle VM's.
Optimal hat sich für mich erwiesen, den VM's entweder 1, 2 oder 4 vCores zuzuteilen (letzteres ist derzeit für keine VM eingestellt). Das kommt nämlich dem Verwaltungsaufwand des Hypervisors bei der Ressourcenzuteilung an die VM's entgegen. Zusätzlich kann mit Bedacht der Zuteilungsanteil der jeweiligen VM angepasst werden, falls erforderlich.


3.
Wird, wie Kollege @Lochkartenstanzer bereits anmerkte, anstelle von Windows-Monotonie für dedizierte Aufgaben gezielt auf Linux gesetzt, können erhebliche Ressourcen eingespart werden. Ja, Windows ist nicht nur ein Ressourcenfresser, sondern im Vergleich zu Linux ein Ressourcenmonster, und zwar in jeglicher Hinsicht.

- Exchange Server für 20 Postfächer <-> Alternative: dedizierte Ubuntu- oder Debian-VM, auf der Horde Groupware Webmail im Verbund mit Postfix/Dovecot betrieben wird (Mail, Kalender etc. wie bei Exchange gebündelt) -> Bedarf: 2 vCore, 4GB-RAM, 10GB-System-LW-VHDX, Daten-LW-VHDX nach Bedarf (läuft hier in dieser Konfiguration seit mehr als 2,5 Jahren unter Ubuntu Server 18.04 LTS und hat den vorherigen Exchange Server (OnPremise) völlständig ersetzt).

- DC <-> Alternative: wie zuvor Linux-VM, Windows-AD auf Samba als DC mit Bind-DLZ und ISC-DHCP (2 DC's mit diesen Rollen als Tandem mit Replikation, auch beim DHCP) -> Bedarf (jeweils): 1 vCore, 3GB-RAM, 10GB-System-LW-VHDX (läuft hier ähnlich lange unter Ubuntu Server 20.04 LTS)

- File-Server <-> Alternative: Ubuntu Server 20.04 LTS -> Bedarf: 1 vCore, 4GB-RAM, 10GB-System-LW-VHDX, mehrere Daten-LW-VHDX nach dem gegebenen Bedarf (abermals ähnliche Laufzeit)

Die VM's werden hier (noch) auf einem Hyper-V-Server 2012 R2 betrieben. Dieser hat 96 GB an RAM, was hier für die regulär laufenden zehn aktive VM's locker genügt. Es ist genug Reserve vorhanden, um temporär weitere VM's starten zu können, ohne einen Engpass zu provozieren. Ein Terminal Server ist hier allerdings nicht dabei, weil das auch nicht benötigt wird (und auch noch nie wurde).

Eines der nächsten Projekte wird hier sein, den Hyper-V-Server gegen Debian (11) mit QEMU/KVM als Hypervisor zu ersetzen. Qemu kann mit seinen Tools eine VHDX-Datei problemfrei in eine qcow2-Datei (= QEMU/KVM-Pandent zu VHDX) umwandeln und die betreffende VM ist sofort ohne Probleme auf derselben oder auch auf anderer Hardware ausführbar. Genauso kann mit diesen Tools eine Baremetal-Partition direkt in eine qcow2-Datei umgewandelt werden und das betreffende Betriebssystem ist sofort als VM auf der bisherigen Hardware ausführbar.

4.
Cloud ja, aber nur MEINE eigene Cloud! Das heißt, ich war, bin und bleibe immer der absolute Herr über meine eigenen Daten - niemand kann sie mir vorenthalten oder sich daran irgendwie bereichern oder ... Ich kann jederzeit meine Backups nach Lust und Laune zurückspielen. Mir stehen alle Freiheitsgrade in Bezug auf jegliches System und alle Daten zur Verfügung.

So etwas wie MS365 kommt mir nicht ins Haus! (Einzige Ausnahme: Äußere berufliche Zwänge würden mich dazu nötigen.) Freilich gibt es nichts für umsonst, aber die dafür erforderliche Systempflege ist wahrlich keine Raketenwissenschaft. Zickereien, für die beispielsweise Exchange Server bekannt ist, sind mir bei Linux bisher fremd. Ganz im Gegenteil eröffnen sich immer mehr Möglichkeiten, die so unter Windows nicht möglich erscheinen, je mehr ich in Linux eintauche ...

Apropos: Eine administrative VM erledigt die Backup-Jobs (Ubuntu Server 18.04 LTS, 2 vCore, 4GB-RAM, 10GB-System-LW-VHDX, mehrere zusätzliche Daten-LW-VHDX). Als Backup-Lösung wird Bacula verwendet, wobei auf allen relevanten Linux- und Windows-Systemen der Bacuala-File-Daemon als "Agent" installiert ist. Das funktioniert bisher beanstandungsfrei (auch Restores funktionieren akzeptabel).

Viele Grüße
HansDampf06
HeinrichM
HeinrichM 28.10.2022 um 06:27:28 Uhr
Goto Top
Das war mal ein Kommentar! Daumen hoch!
Noch kurz zu den Fragen was mein Beitrag betrifft.
Ja ein RAID 10 benötigt nur 4 Platten ABER die Hotspare sollte unbedingt eingebaut werden. (ist bei uns immer drin, wurde aber ehrlicherweise noch nie gebraucht)
SSD für C:\ wurde ja schon richtigerweise gut Kommentiert. Kostet nicht viel mehr wie eine HDD, Spart Strom und vor allem bei Updates ist der Server viel schneller wieder da und da zählt manchmal jede Sekunde, weil, wie auch schon erwähnt, die VMs ja aus sind beim Booten vom Host. Ein RAID für C:\ macht für mich kaum Sinn, weil sollte einmal die Platte aussteigen, installiere ich Dir auf jeder schnell greifbaren SSD den Host in wenigen Minuten neu und die Maschinen laufen wieder. Die VMs immer auf einem eigenen RIAD, da hier die Daten liegen und somit besonderer Schutz geboten ist. Aber das aller wichtigste ist eine gute und funktionierende Sicherung. Nicht nur weil vielleicht mal etwas versehentlich gelöscht wurde, nein weil auch tatsächlich mal ein Server durch Updates sterben kann (war früher öfters mal, mittlerweile geht es) und man dann froh ist, wenn man ein möglichst aktuelles Backup hat um die Kiste wieder an den Start zu bekommen.
Linux mag seine Berechtigung haben, bei uns aber auch wegen fehlendem Wissen nicht. Wir setzen 100% auf Windows.
Noch einmal zur Eingangsfrage: Der Host sollte zwei CPU Kerne haben. Die VMs bekommen immer den Rest und den lassen wir vom Hyper-V verwalten. Also immer alle verfügbaren Kerne allen VMs zuordnen. Es sollten aber 2-4 pro VM verfügbar sein. Habe ich also einen Host mit 3 VMs sollte die CPU ein 8 Kerner mit 16 logischen Prozessoren sein. Z.B. ein Intel Silver 4215R der hat auch einen guten Takt mit 3,2 GHz (ohne R eben nur 2,5 GHz, was aber auch ausreicht) somit habe ich auch noch genug Reserve, wenn doch mal eine weitere VM dazu kommen sollte. Weil im Nachhinein tauscht wohl keiner eine CPU.

Gruß HeinrichM
ukulele-7
ukulele-7 28.10.2022 um 10:27:12 Uhr
Goto Top
Ein Sternchen für Effort aber so ganz verallgemeinern kann man da nun auch nicht.
Zitat von @HansDampf06:

1.
RAID 10, ob mit oder ohne HotSpare, finde ich für einen Hypervisor reichlich übertrieben. RAID 1 bietet die selbe Ausfallsicherheit und ausreichend Performance, das meiste liegt doch im Betrieb sowieso im RAM, auch unter Windows.

Und 100GB? Gut ich nutze kein Hyper-V, erscheint mir aber auch hier viel. Oder wird da auf den Hypervisor irgendwas gecached?

Es gibt ja noch andere Hypervisor. ESXi z.B. läuft auf einem 8GB USB Stick problemlos. Nach dem Boot ist alles im RAM, der Stick kann sogar abgezogen werden und die Kiste stürzt nicht ab (empfehlen würde ich es dennoch nicht face-smile ). Gut einen RAID 1 mit einem beliebigen Medium sehe ich noch ein und bei Windows muss man ja öfter mal neu starten, dann sicher auch auf SSD wenn man schon neu kauft.

2.
Anzahl der echten Prozessorkerne = Anzahl der Virtuellen Cores für die Virtuellen Maschinen plus zwei Kerne für den Hypervisor. Ein Überbuchen der real vorhandenen Kerne mit der Anzahl der vCores ist zwar grundsätzlich möglich, aber sorgt für einen erhöhten Verwaltungsaufwand des Hypervisors und somit für einen Performance-Verlust für alle VM's.

Das ist so nicht richtig und vor allem ungenau. Das Problem ist eigentlich keins solange nicht eine einzelne VM einen großen Anteil aller physischen Kerne belegt, oder sogar mehr als physische Kerne vorhanden sind. Also z.B. 12 pCore mit einer VM mit 10 vCore und einer VM mit 4 vCore, das wäre eine echte Bremse. Fünf VMs a 4 vCore wären aber kein Problem, die teilen sich die Ressourcen sehr gut auf, es müssen nicht alle gleichzeitig rechnen können.

Es kommt aber häufig vor das man es mit dem Terminal Server besonders gut meint. Eine VM wie ein RD-SH die immer beim Scheduler Rechenzeit anfordert darf aber nicht zu groß werden. Daher würde ich die 15 User auch unbedingt auf zwei virtuelle RD-SH verteilen.
Lochkartenstanzer
Lochkartenstanzer 28.10.2022 um 11:30:01 Uhr
Goto Top
Vorab: Schöner ausführlicher Kommentar!

Zitat von @HansDampf06:

Systemlaufwerk eines Servers - Baremetal oder Hypervisor: Immer SSD im 10er RAID (= 4 SSD, bei Bedarf 1 x Hotspare (habe ich in über zwölf Jahren nicht einmal benötigt)). Hyper-V-Server kommt mit 60 bis 100 GB als Partition locker aus.

Ein RAID 10 braucht es nciht, ein normales RAID1, ggf mit Hot-Spare reicht aus. Man kann dafür einfach zwei kleine 100er SSDs nehmen und da nur Hyper-V drauflassen. Kleiner als 100 würde ich es nicht machen, weil die Erfahrung zeigt, daß manchmal Logdateien sich aufplustern oder Microsoft beim nächsten Update den Platzbedarf verdoppelt. face-smile


Für die RAID's, soweit innerhalb des Servers und kein externes Storagesystem verwendet wird, wird nie das Mainboard, sondern immer ein dedizierter Hardware-RAID-Controller (Steckkarte mit Batteriepufferung) verwendet. Dieser Controller ist eben der Spezialist genau für diese Aufgabe.

Da kann ich nur zustimmen.

onbard-RAIDs kann man aber in Ausnahmefälen nehmen, wenn es nur ein "kleiner" Server sein darf (Hper-V, AD, File/Print) .


Die VHDX-Dateien der Systemlaufwerke der Virtuellen Maschinen laufen auf einem eigenen Host-Laufwerk (RAID 10, kann auch 5 sein). Auch bei den VM's werden die Daten wieder vom Systemlaufwerk getrennt auf einem oder mehreren dedizierten Laufwerken (VHDX-Dateien) bedient. Diese Daten-VHDX-Dateien sind ebenfalls auf einem (oder mehreren bei Bedarf) eigenen dedizierten Host-Laufwerk(en) (RAID 10 oder 5) abgelegt. Daher sollte bei vollständiger Installation des Storage innerhalb des Servergehäuses der Hardware-RAID-Controller mindestens 16 Kanäle besitzen.

Ob man Daten und System auf verschiedenene RAIDs oder auf dem gleichen RAID unterbringt, würde ich von der Anzahl des benötigeten IO-Durchsatzes abhängig machen. Auf jeden Fall ist es immer sinnvoll die OS-VHDX von den Daten-VHDX zu trennen, so kann man mit einem RAID anfangen udn dann später ggf. die umverteilen.


Anzahl der echten Prozessorkerne = Anzahl der Virtuellen Cores für die Virtuellen Maschinen plus zwei Kerne für den Hypervisor. Ein Überbuchen der real vorhandenen Kerne mit der Anzahl der vCores ist zwar grundsätzlich möglich, aber sorgt für einen erhöhten Verwaltungsaufwand des Hypervisors und somit für einen Performance-Verlust für alle VM's.
Optimal hat sich für mich erwiesen, den VM's entweder 1, 2 oder 4 vCores zuzuteilen (letzteres ist derzeit für keine VM eingestellt). Das kommt nämlich dem Verwaltungsaufwand des Hypervisors bei der Ressourcenzuteilung an die VM's entgegen. Zusätzlich kann mit Bedacht der Zuteilungsanteil der jeweiligen VM angepasst werden, falls erforderlich.

Die Anzhal der zugeteiltes Cores würde ich tatsächlich von der Anwendung abhängig machen, die in den VMs läuft. Aber ich würde immer mindestens 2 vCores zuweisen, weil sich die moernen Windows-Systeme (Server und Client) sehr zäh verhalten, wenn sie nur auf einem Core arbeiten.


3.
Wird, wie Kollege @Lochkartenstanzer bereits anmerkte, anstelle von Windows-Monotonie für dedizierte Aufgaben gezielt auf Linux gesetzt, können erhebliche Ressourcen eingespart werden. Ja, Windows ist nicht nur ein Ressourcenfresser, sondern im Vergleich zu Linux ein Ressourcenmonster, und zwar in jeglicher Hinsicht.

Wenn man die Core-Versionen der Windows-Server nimmt, it das OS selbst nicht mal so ganz "bloatet". Was ich meinte, ist eher, daß man sich nicht auf Exchange versteifen sollte, wenn man tatsächlich "nur ein wenig Mail und Kalender" braucht. Ich löse das gerne auf Linux-Basis, aber auch für Windows gibt es da genügend Lösungen, teilweise sogar kostenlos, die das genausogut können und nicht den Moloch Exchange benötigen.

lks
Lochkartenstanzer
Lochkartenstanzer 28.10.2022 um 11:40:06 Uhr
Goto Top
Zitat von @HeinrichM:

Ein RAID für C:\ macht für mich kaum Sinn, weil sollte einmal die Platte aussteigen, installiere ich Dir auf jeder schnell greifbaren SSD den Host in wenigen Minuten neu und die Maschinen laufen wieder.


Das Problem ist, daß das trotzdem eine downtime ist, in der alle(!) Systeme auf diesem Hpyervisor offline sind. Ein RAID 1 bietet Dir zumindest die Option, die SSD im laufenden Betrieb ohne downtime zu tauschen. So schnell kannst Du keine HYper-V neu installieren. face-smile

lks
HeinrichM
HeinrichM 28.10.2022 um 11:47:07 Uhr
Goto Top
Zitat von @Lochkartenstanzer:

Zitat von @HeinrichM:

Ein RAID für C:\ macht für mich kaum Sinn, weil sollte einmal die Platte aussteigen, installiere ich Dir auf jeder schnell greifbaren SSD den Host in wenigen Minuten neu und die Maschinen laufen wieder.


Das Problem ist, daß das trotzdem eine downtime ist, in der alle(!) Systeme auf diesem Hpyervisor offline sind. Ein RAID 1 bietet Dir zumindest die Option, die SSD im laufenden Betrieb ohne downtime zu tauschen. So schnell kannst Du keine HYper-V neu installieren. face-smile

lks

Da hat er wohl Recht face-smile

Aber mal ehrlich wann ist euch die letzte SSD um die Ohren geflogen?
Visucius
Visucius 28.10.2022 um 11:50:52 Uhr
Goto Top
2022 noch Festplatten - ist ja sehr funny face-wink

Davon abgesehen: Macht Ihr Eure Server-Updates ernsthaft in der Kern-Arbeitszeit, so das es auf "jede Sekunde ankommt"?!

VG
Lochkartenstanzer
Lochkartenstanzer 28.10.2022 aktualisiert um 12:09:32 Uhr
Goto Top
Zitat von @HeinrichM:

Aber mal ehrlich wann ist euch die letzte SSD um die Ohren geflogen?

letzen Monat. face-smile

War aber keine Server SSD. face-smile

Aber vor (vielen) Jahren hatte ich mal eine SSD-Serie, von der 6 SSDs im RAID5 mit hot-standby zwei kurz nacheinander die Grätsche gemacht haben, bevor das Hot-Standby eine davon übernhemen konnte. Gut, daß es Backups gab.

lks

PS: Ich hchte darauf, daß SSDs in Server "rechtzeitig" gewechselt werden, den nim gegensatz zu HDDs können die i.d.R. nicht "ewig" laufen., sondern ondern sind dann irgendwann z uunsicher, wen die TBW-grenzen überschritten werden.

PPS: Vor drei Jahre hatt eich bei einem "frischen" Server den Fall, daß die Intel-SSDs (NVME) dem Kunden um die Ohren geflogen sind, und zwar beide im RAID 1. Dasselbe passierte auch bei einem anderen Kunden. Ich vermue mal, daß das ein Serienfehler war. Wurde zwar problemlos getauscht, aber die Kunde waren "not amused" und das hat mich viel Zeit gekostet, das wieder geradezubiegen.
Lochkartenstanzer
Lochkartenstanzer 28.10.2022 aktualisiert um 12:20:04 Uhr
Goto Top
Zitat von @Visucius:

2022 noch Festplatten - ist ja sehr funny face-wink


Jenseits von Datenmengen von 4TB immer noch das Mittel der Wahl, wenn es die IOPs weniger wichtig als die Datenmengen sind.

Davon abgesehen: Macht Ihr Eure Server-Updates ernsthaft in der Kern-Arbeitszeit, so das es auf "jede Sekunde ankommt"?!

Normalerweise nicht, aber manchmal ergibt sich die Notwendigkeit, daß man während der normalen zeiten den Hyper-V durchstarten muß, warum auch immer. Und wenn da dann irgendwelche Updtes in der Queue hängen, ergibt das unerwartete Wartetezeiten.

Und es ist auch angenehm, wenn man nicht "ewig" auf den Server warten muß während er durchstartet., welbst wenn es außerhalb der Kern-Arebeitszeiten ist. Auch weich von meinen Kunden nach Zeit bezahlt werde, macht es doch keinen Spaß, die Zeit mit Warterei zu verbringen. Ich habe in meinem Leben schon genug Zeit "verschwendet", um grünen, blauen, gelben Balken und auch sich drehenden Kreisen zuzuschauen.

lks
HeinrichM
HeinrichM 28.10.2022 um 12:13:45 Uhr
Goto Top
Zitat von @Visucius:

Davon abgesehen: Macht Ihr Eure Server-Updates ernsthaft in der Kern-Arbeitszeit, so das es auf "jede Sekunde ankommt"?!

Im "NORMALFALL" natürlich nicht, aber es kann schon mal passieren, dass wir einen Server weil er hängt oder ähnlichem durchstarten müssen und wenn dann noch Updates ausstehen und die dann installiert werden ist es halt schon doof, wenn es ewig dauert.
HeinrichM
HeinrichM 28.10.2022 um 12:19:02 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Gut, daß es Backups gab.

Das kann ich nur unterschreiben!

PPS: Vor drei Jahre hatt eich bei einem "frischen" Server den Fall, daß die Intel-SSDs (NVME) dem Kunden um die Ohren geflogen sind, und zwar beide im RAID 1.

Daher die VMs im RAID 10 + Hotspare

Dasselbe passierte auch bei einem anderen Kunden. Ich vermue mal, daß das ein Serienfehler war. Wurde zwar problemlos getauscht, aber die Kunde waren "not amused" und das hat mich viel Zeit gekostet, das wieder geradezubiegen.

Kann ich gut verstehen.
Visucius
Visucius 28.10.2022 aktualisiert um 12:21:25 Uhr
Goto Top
Jenseits von Datenmengen von 4TB
Klar, aber wir reden hier (bisher) von Platten unter 1 TB. Das ich fürs "Datenfressen" auf Festplatten wechseln (kann) sei ja unbestritten. Und in dem Nutzer-Szenario haben sie doch diverse Nachteile.
Lochkartenstanzer
Lochkartenstanzer 28.10.2022 um 12:21:58 Uhr
Goto Top
Zitat von @Visucius:

Jenseits von Datenmengen von 4TB
Klar, aber wir reden hier (bisher) von Platten unter 1 TB. Das ich fürs "Datenfressen" auf Festplatten wechseln (kann) sei ja unbestritten.

Unter 2TB kommen bei mir gar keine HDDs mehr zum Einsatz. Unter 4TB nur in Ausnahmefällen.

lks
Philipp06
Philipp06 28.10.2022 aktualisiert um 23:05:19 Uhr
Goto Top
@HansDampf06 Ich würde im Bezug auf Mails noch die Mailcow in den Raum werfen.
Liefert SOGo (Kontakte, Kalender und Webmail) bereits mit. Achja und ExchangeActiveSync auch noch :D.
Hat obendrauf noch ein schickes Webinterface zur Konfiguration und Überwachung.
Läuft bei mir seit einiger Zeit anstandslos.

MfG
Philipp
HansDampf06
HansDampf06 28.10.2022 um 23:34:49 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Ein RAID 10 braucht es nciht, ein normales RAID1, ggf mit Hot-Spare reicht aus. Man kann dafür einfach zwei kleine 100er SSDs nehmen und da nur Hyper-V drauflassen. Kleiner als 100 würde ich es nicht machen, weil die Erfahrung zeigt, daß manchmal Logdateien sich aufplustern oder Microsoft beim nächsten Update den Platzbedarf verdoppelt. face-smile
Im Grundsatz sind wir einer Meinung. Aber warum präferiere ich dennoch ein 10er RAID auch als Systemlaufwerk? Es gibt zwei Gründe: Sicherheit und vor allem Performance.

Sicherheit: Bei einem 10er RAID können zwei Platten gleichzeitig ausfallen und das Laufwerk ist noch voll da, sofern die beiden Platten nicht zum selben Stripe gehören. Die Wahrscheinlichkeit, dass zeitnah zwei von vier Platten ausfallen, ist statistisch bereits äußerst gering - also ca. nur 25 % (bis 50 %) Ausfallrisiko. Ein 1er RAID verkraftet demgegenüber nur eine Platte - hier ist das Ausfallrisiko definitiv immer 50 % Prozent.

Performance: Hier kommt es natürlich entscheidend auf den RAID-Controller und dessen interne Steuerungssoftware an. Bei einem solchen von einem namhaften Hersteller sollte der Controller in der Lage sein, bei Lesevorgängen alle vier Platten gleichzeitig zu nutzen. Damit laufen Lesevorgänge beim 10er RAID doppelt so schnell (nämlich vierfach) wie beim 1er RAID (nur zweifach). Der Controller kann dann in jedem Fall mit schnellen SSD's die Pipe zur CPU etc. saturieren. Aber auch beim Schreiben gibt es einen vergleichbaren Geschwindigkeitsvorteil. Durch das Striping wird die doppelte Schreibgeschwindigkeit erreicht, und zwar auch dann, wenn der Controller die Spiegelblöcke parallel zu schreiben in der Lage sein sollte. Und gerade das ist selbst bei einem Hyper-V-Server (Core) nicht zu unterschätzen. Denn Windows schreibt jederzeit und ständig einiges in die Protokolle etc.

Meinem Eindruck nach sind bei einem 10er RAID nicht mehr die Platten der Flaschenhals, sondern allein der RAID-Controller und das auch nur selten. So erreiche ich bei einem Dateitransfer zwischen zwei VM's regelmäßig Transferraten von 260 MB/s - so jedenfalls behauptet die Anzeige von Windows das, bei Linux bestätigt das ein Blick auf die Uhr und die benötigte Zeitdauer.

Übrigens ist nach meiner Erfahrung auch bei den heute sehr schnellen SSD's ein RAID immer noch deutlich spürbar schneller als eine einzelne SSD. Deswegen gelten die RAID-Regeln aus der HDD-Zeit nach meinem Dafürhalten unvermindert fort.

Ich gebe Dir vollkommen Recht, dass ein reines 1er RAID mit einer Hotspare-Platte versehen sein sollte und dass ein solches RAID im Hinblick auf Ausfallsicherheit ein MUSS ist. Indes ist der Preisunterschied zu einem 10er RAID (ohne Hotspare) dann nicht mehr allzu groß (4 statt 3 Platten) und er wird durch den Performance-Gewinn allemal aufgewogen. Bei einem 10er RAID kann ich auch ohne Hotspare ruhig schlafen, zumal weder die damaligen Hitachi-Platten (6 bis 7 Jahre im 24/7-Betrieb) noch eine der nachfolgenden Intel-SSD bisher vorzeitig gestorben ist.

[Schnell auf Holz klopfen ... face-smile]

Die Anzhal der zugeteiltes Cores würde ich tatsächlich von der Anwendung abhängig machen, die in den VMs läuft. Aber ich würde immer mindestens 2 vCores zuweisen, weil sich die moernen Windows-Systeme (Server und Client) sehr zäh verhalten, wenn sie nur auf einem Core arbeiten.
Da bin ich ganz bei Dir. Außerdem zeigt sich ein weiteres Mal, dass Linux deutliche Performance-Vorteile gegenüber Windows hat. Dokumentiert man nämlich per regelmäßigem Cronjob über einen repräsentativen Zeitraum den Auslastunggrad der Linux-VM im regulären Betrieb in einer Log-Datei, ist ganz schnell zu erkennen, ob die (gegenüber Windows reduzierte) vCore- und RAM-Zuordnung (u.a. der Swap-Bedarf) passt.

Wenn man die Core-Versionen der Windows-Server nimmt, it das OS selbst nicht mal so ganz "bloatet".
Und wenn man darüber hinaus konsequent die Aufgaben der Windows-VM's durch äquivalente Linux-VM's übernehmen lässt, sieht man ganz deutlich, wie "bloatet" selbst das noch bei einem Core-Windows ist. Jedenfalls habe ich letztens die zentrale Syslog-Aufgabe von einer Windows-8.1-VM (es war die letzte Aufgabe, die diese VM hatte) auf eine laufende administrative Linux-VM verlagert. Während die Linux-VM so gut wie fast keinen zusätzlichen Leistungsbedarf zeigt, hat das Abschalten der Windows-VM zu einer Einsparung von mehreren Watt geführt.

Als AD-Member fügt sich Linux mittels Samba völlig unauffällig in das Active Directory ein. Beispielsweise hostet eine Linux-VM die Linux-Version von MS SQL-Server und ich konnte nach dessen Migration keinerlei Einbußen zur vorherigen Windows-Basis wahrnehmen, eher im Gegenteil.

An dieser Stelle zur ergänzenden Information, falls das nicht jedem bewusst sein sollte: 1 Watt im 24/7-Betrieb bedeutet einen Stromverbauch von 8,78 kWh/a. Diese Relation auf dem Schirm zu haben, hat nach meinem Verständnis nichts mit Erbsenzählerei zu tun, sondern etwas mit einer ganzheitlichen Betrachtung des EDV-Einsatzes. Insbesondere mit der aktuellen politisch-wirtschaftlichen Aussicht, dass die wirklichen Preissteigerungen bei den Energiekosten erst demnächst noch richtig durchschlagen werden, erlangt das eine ganz andere Dimension. Immerhin muss neben den drohenden Preissteigerungen ernsthaft in Betracht gezogen werden, dass die Versorgungsstabilität noch deutlich sinken kann (/wird). Dann ist jede Minute, die ein Server per USV einen Stromausfall überbrücken kann, hilfreich - Binsenweisheit: geringerer Verbrauch = längere Überbrückungszeit bei ein und derselben USV.

Viele Grüße
HansDampf06

PS: Es ist übrigens schlau, bei einem SSD-RAID nicht den gesamten adressierbaren Speicherplatz der SSD's zu verwenden, sondern einen gewissen Teil von vornherein unbenutzt/unpartitioniert zu lassen. Dann hat die jeweilige SSD-Logik massenhaft Speicherplatz in Reserve. Der Vorteil gegenüber einer vollen Partitionierung ist, dass nicht im laufenden Betrieb darauf geachtet werden muss, dass das logische SSD-RAID-Laufwerk nur zu 80 Prozent oder dergleichen gefüllt wird, weil diese Grenze per se ganz automatisch eingehalten wird. Das logische Laufwerk kann dann ganz normal und sogar vollständig genutzt werden, wenn es darauf ankommt.
Visucius
Visucius 29.10.2022 aktualisiert um 03:23:58 Uhr
Goto Top
und vor allem Performance.
kloar, weil Deine Festplatten so grottenlangsam sind 😏

Am Ende kann man alles noch 5 x absichern und sich vorrechnen, dass das alles damit noch sicherer ist. Nur steigt halt Aufwand und Kosten und Komplexität. Ich kann dem Server auch 3 gleichwertige Backup-Server danebenstellen am besten noch geographisch getrennt und ein Ersatzgebäude, falls es brennt. Und nen zweiten Satz MA-Clients, wegen potentieller Verschlüsselungs-Trojaner.

Aber es bleiben 20 Postfächer und Terminkalender … und nach 3 bis 7 Jahren beginnt das Spiel von neuem!

Es geht ja nicht um „absolute Sicherheit“, sonder relative – zumindest in meinen Augen.
MysticFoxDE
MysticFoxDE 29.10.2022 aktualisiert um 04:25:03 Uhr
Goto Top
Moin HansDampf06,

Im Grundsatz sind wir einer Meinung. Aber warum präferiere ich dennoch ein 10er RAID auch als Systemlaufwerk? Es gibt zwei Gründe: Sicherheit und vor allem Performance.

und warum nimmst du nicht einfach eine Optane-SSD zum Booten?
https://ark.intel.com/content/www/us/en/ark/products/229114/intel-optane ...

Die Dinger sind sau schnell und sind vor allem was die Latenz angeht, die bei den meisten Anwändungsfällen entscheidender ist als der Durchsatz, absolut einsame Spitze.
Zudem sind sie annähernd unzerstörbar/unsterblich. 😉

Wir verbauen OPTANE's schon seit Jahren in den Hyper-V Nodes als Bootlaufwerk und hatten mit diesen noch nie Ärger, im Gegenteil.

Und nein, Optane ist nicht Tod, die P58XXX Serie ist gerade erst gelaunched worden. 😁

Gruss Alex
MysticFoxDE
MysticFoxDE 29.10.2022 um 04:15:07 Uhr
Goto Top
Unter 2TB kommen bei mir gar keine HDDs mehr zum Einsatz. Unter 4TB nur in Ausnahmefällen.

lks

In die Server und Primär-SAN's verbauen wir schon seit etwa 10 Jahren keine HDD's mehr.
Diese verbauen wir zwar auch noch, aber nur in die "Langzeit-Backupsysteme".

Alex
ukulele-7
ukulele-7 30.10.2022 um 14:41:37 Uhr
Goto Top
@HansDampf06
Du denkst dein Konzept nicht zu Ende. Wenn dir Ausfallsicherheit + Geschwindigkeit + Stromverbrauch (und das auch noch wegen Wirtschaftlichkeit und nicht wegen Umweltschutz) so wichtig sind ist dein Ansatz mit mind. 4 SSDs im Host schlecht weil:

- Du verbaust einen RAID-Controller, der ist theoretisch ein Single Point of Failure. Auch wenn der keine so hohe Ausfallwahrscheinlichkeit hat wie eine HDD oder SSD selbst so muss der in einer ernsthaften Betrachtung mit einfließen. Außerdem kostet er natürlich Geld, in einem Setup in dem die Daten vielleicht sogar im SAN liegen wäre der Controller nur für ein lokales Boot Medium.

- Du lobst selbst Linux als performanter, sparsamer, etc. da stimme ich grundsätzlich zu. Aber warum betreibst du dann ausgerechnet Virtualisierung mit Hyper-V? Es gibt einige Alternativen die mindestens gleichwertigen Ersatz bieten und dann deine Kriterien auch ohne 4 SSDs für das Systemlaufwerk erfüllen. ESXi z.B. ist einmal gebootet nicht vom Log-Pfad abhängig, das stürzt nicht gleich komplett ab wenn das Boot Medium weg bricht.

- Es gibt sehr sehr solide SSDs die eigentlich kaum noch ausfallen. Ich habe hier leider noch keine Erfahrungen mit z.B. Optane aber ich behaupte jetzt einfach mal einzelne SSD oder sogar ein RAID 1 mit zwei SSD ist sehr sicher. Du steigerst die Ausfallsicherheit mit weiteren SSDs und RAID 10 also nur noch minimal aber natürlich nicht auf 100%. Warum lässt dich also diese eher geringe Steigerung der Ausfallsicherheit besser schlafen? - Du brauchst eher ein Backupkonzept mit dem du bei einem Ausfall eine schnelle Lösung parat hast.

Ich würde daher sagen das RAID Controller + 4 SSDs + RAID 10 für einen Hypervisor fast immer oversized sind und vor allem subjektiv die Sicherheit erhöhen. Du gewinnst wenig und investierst viel.
HansDampf06
HansDampf06 30.10.2022 um 16:33:16 Uhr
Goto Top
Zitat von @ukulele-7:
- Du verbaust einen RAID-Controller, der ist theoretisch ein Single Point of Failure. Auch wenn der keine so hohe Ausfallwahrscheinlichkeit hat wie eine HDD oder SSD selbst so muss der in einer ernsthaften Betrachtung mit einfließen.
Wir sind einer Meinung, was das Ausfallrisiko eines nicht redundanten Controllers betrifft. Es gibt aber selbst bei Redundanz keine hundertprozentige Sicherheit. Irgendwo bleibt immer ein Restrisiko. Das gilt selbst für das von Dir proklamierte SAN als Alternative.
ÜBERDIES: Wer ausreichend Platz in einem (Stand-alone-)Server hat, kann auch zwei dieser Controller verbauen. Gegebenenfalls bietet die Firmware dieser Controller einen Modus, bei dem identische RAID-Laufwerke im gespiegelten Modus laufen. Nur wird es dann mindestens bei der Anzahl der Platten langsam schon räumlich ziemlich eng.
Außerdem kostet er natürlich Geld, in einem Setup in dem die Daten vielleicht sogar im SAN liegen wäre der Controller nur für ein lokales Boot Medium.
Sicherlich kostet ein gescheiter RAID-Controller gutes Geld - ich meine zusammen mit dem Batteriemodul sind das gewiss mindestens 800 EUR.
ABER: Auch ein SAN gibt es nicht für Lau UND DAS NEBEN dem weiterhin nötigen internen Controller für das Boot-Medium, wenn auch mit weniger als 16 Kanälen. Denn die Mainboard-RAID-Controller bieten meines Wissens nach keine Batteriepufferung.
Ganz im Gegenteil werden bei einem SAN in aller Regel neben dem eigentlichen SAN-Gerät noch das passende Leitungsmaterial zwischen Server und SAN und wohl auch eine passende Steckkarte für den Server benötigt, weil sonst das Leistungsvermögen einer solchen Datenverbindung gar nicht gehoben werden kann. Soweit ich mich erinnere, bin ich dann bei erheblich mehr an reinen Investitionskosten, die bei einem Vielfachen des RAID-Controllers liegen dürften.
UND bitte immer den richtigen Fokus beibehalten: Der TO will einen Stand-alone-Server als aktiven Server betreiben. Da halte ich ein SAN für etwas übertrieben. Sobald er hingegen zu einer Clusterung von VM-Hosts mit Live-Migration kommen sollte, wird ein zentraler Storage wie ein SAN sicherlich diskussionswürdig werden, weil dann eine interne Speicherung in den Servern weniger sachdienlich ist. Unter diesem Level dürfte es wohl "ein Schießen mit Kanonen auf Spatzen" sein.

- Du lobst selbst Linux als performanter, sparsamer, etc. da stimme ich grundsätzlich zu. Aber warum betreibst du dann ausgerechnet Virtualisierung mit Hyper-V? Es gibt einige Alternativen die mindestens gleichwertigen Ersatz bieten und dann deine Kriterien auch ohne 4 SSDs für das Systemlaufwerk erfüllen. ESXi z.B. ist einmal gebootet nicht vom Log-Pfad abhängig, das stürzt nicht gleich komplett ab wenn das Boot Medium weg bricht.
Siehe meinen Kommentar vom 28.10.2022 um 01:12:43 Uhr:
Eines der nächsten Projekte wird hier sein, den Hyper-V-Server gegen Debian (11) mit QEMU/KVM als Hypervisor zu ersetzen. Qemu kann mit seinen Tools eine VHDX-Datei problemfrei in eine qcow2-Datei (= QEMU/KVM-Pandent zu VHDX) umwandeln und die betreffende VM ist sofort ohne Probleme auf derselben oder auch auf anderer Hardware ausführbar. Genauso kann mit diesen Tools eine Baremetal-Partition direkt in eine qcow2-Datei umgewandelt werden und das betreffende Betriebssystem ist sofort als VM auf der bisherigen Hardware ausführbar.
Im Übrigen hat jedes Hypervisor-Konzept seine Vor- und Nachteile, wenngleich man sich letztlich für eines entscheiden muss, will man virtualisieren. Ob ein Hypervisor noch gescheit weiterlaufen kann, wenn sein Systemlaufwerk wegbricht, hängt ganz entscheidend davon ab, ob die für den Betrieb relevanten Module, Daten, Log-Dateien etc. weiterhin gelesen und geschrieben werden können.
Ob ESXi im Gegensatz zu Hyper-V oder QEMU/KVM oder ... die bessere Wahl ist, ist nicht Diskussionsthema des TO, weil er nach der Hardware-Gestaltung fragt.

- Es gibt sehr sehr solide SSDs die eigentlich kaum noch ausfallen. Ich habe hier leider noch keine Erfahrungen mit z.B. Optane aber ich behaupte jetzt einfach mal einzelne SSD oder sogar ein RAID 1 mit zwei SSD ist sehr sicher. Du steigerst die Ausfallsicherheit mit weiteren SSDs und RAID 10 also nur noch minimal aber natürlich nicht auf 100%.
Du reimst Dir an dieser Stelle etwas zusammen! <-> Bitte immer vollständig und verständig lesen, was ich schreibe: Siehe meinen Kommentar vom 28.10.2022 um 23:34:49 Uhr:
Sicherheit: Bei einem 10er RAID können zwei Platten gleichzeitig ausfallen und das Laufwerk ist noch voll da, sofern die beiden Platten nicht zum selben Stripe gehören. Die Wahrscheinlichkeit, dass zeitnah zwei von vier Platten ausfallen, ist statistisch bereits äußerst gering - also ca. nur 25 % (bis 50 %) Ausfallrisiko. Ein 1er RAID verkraftet demgegenüber nur eine Platte - hier ist das Ausfallrisiko definitiv immer 50 % Prozent.

Warum lässt dich also diese eher geringe Steigerung der Ausfallsicherheit besser schlafen? - Du brauchst eher ein Backupkonzept mit dem du bei einem Ausfall eine schnelle Lösung parat hast.
Woher nimmst Du die Behauptung, ich hätte kein Backup-Konzept? Sind meine beiden vorgenannten Kommentare so kompliziert, dass ihnen nicht verständig gefolgt werden könnte? Die Reaktionen anderer Kommentatoren lassen das nicht vermuten! ABER auch hier siehe meinen Kommentar (die fett-kursive Hervorhebung hier beim Zitieren):
4.
Cloud ja, aber nur MEINE eigene Cloud! Das heißt, ich war, bin und bleibe immer der absolute Herr über meine eigenen Daten - niemand kann sie mir vorenthalten oder sich daran irgendwie bereichern oder ... Ich kann jederzeit meine Backups nach Lust und Laune zurückspielen. Mir stehen alle Freiheitsgrade in Bezug auf jegliches System und alle Daten zur Verfügung.
...
Apropos: Eine administrative VM erledigt die Backup-Jobs (Ubuntu Server 18.04 LTS, 2 vCore, 4GB-RAM, 10GB-System-LW-VHDX, mehrere zusätzliche Daten-LW-VHDX). Als Backup-Lösung wird Bacula verwendet, wobei auf allen relevanten Linux- und Windows-Systemen der Bacuala-File-Daemon als "Agent" installiert ist. Das funktioniert bisher beanstandungsfrei (auch Restores funktionieren akzeptabel).

Ich würde daher sagen das RAID Controller + 4 SSDs + RAID 10 für einen Hypervisor fast immer oversized sind und vor allem subjektiv die Sicherheit erhöhen. Du gewinnst wenig und investierst viel.
Das ist wohl eher eine Mutmaßung ins Blaue hinein als eine faktenbasierte Schlussfolgerung. Es spricht sogar alles dafür, dass Du Dich bisher noch nicht wirklich mit Hardware-RAID-Controllern, die direkt im Servergehäuse verwendet werden, beschäftigt hast. Erst recht dürfte es - im Gegensatz zu mir - daran fehlen, jemals eine Kosten-Nutzen-Risiko-Betrachtung unter Berücksichtigung vielfältiger Aspekte zwischen einem solchen internen Controller einerseits und einem SAN bzw. anderen externen Storage-Lösungen andererseits durchgeführt zu haben.


Viele Grüße
HansDampf06
ukulele-7
ukulele-7 31.10.2022 um 09:03:58 Uhr
Goto Top
Ich habe nie behauptet das ein SAN günstiger ist sondern nur das es fast immer eine günstigere Alternative zum Szenario RAID Controller + 4 SSDs mit RAID 10 für ein simples Bootlaufwerk gibt. Deine Aussage hingegen war gleich zu Anfang immer RAID 10 etc.
Zitat von @HansDampf06:

Systemlaufwerk eines Servers - Baremetal oder Hypervisor: Immer SSD im 10er RAID (= 4 SSD,
Wenn wegen lokaler Daten (wie hier gegeben) ein RAID Controller sowieso vorhanden ist okay, dann hänge ich da einen RAID 1 an und gut, ansonsten an einen onboard Controller. Alles darüber hinaus hat nur noch minimale Auswirkungen auf die Betriebssicherheit zu erhöhten Kosten. Grade bei lokalen Datenlaufwerken nehme ich die Ports des Controllers doch lieber für was sinnvolles.

Jedem seine Meinung, auch dir die Deine, aber ich bin auch schon 18 Jahre im Beruf und weiß sehr wohl wie RAID Controller funktionieren.
MysticFoxDE
MysticFoxDE 31.10.2022 um 15:42:13 Uhr
Goto Top
Moin @HansDampf06,

Wir sind einer Meinung, was das Ausfallrisiko eines nicht redundanten Controllers betrifft. Es gibt aber selbst bei Redundanz keine hundertprozentige Sicherheit. Irgendwo bleibt immer ein Restrisiko. Das gilt selbst für das von Dir proklamierte SAN als Alternative.

das Ausfallrisiko ist bei einem anständigen SAN mit redundanten Controller jedoch deutlich geringer.

ÜBERDIES: Wer ausreichend Platz in einem (Stand-alone-)Server hat, kann auch zwei dieser Controller verbauen. Gegebenenfalls bietet die Firmware dieser Controller einen Modus, bei dem identische RAID-Laufwerke im gespiegelten Modus laufen. Nur wird es dann mindestens bei der Anzahl der Platten langsam schon räumlich ziemlich eng.

Und genau deshalb sollte man auch ein SAN nehmen. Bei diesem brauchst du im Gegensatz zu deinem oberen Beispiel, die Datenträger nicht doppelt.

ABER: Auch ein SAN gibt es nicht für Lau UND DAS NEBEN dem weiterhin nötigen internen Controller für das Boot-Medium, wenn auch mit weniger als 16 Kanälen. Denn die Mainboard-RAID-Controller bieten meines Wissens nach keine Batteriepufferung.

Wenn man ein SAN hat, dann braucht man Serverseitig nur einen günstigen HBA (FC/SAS) und keinen teuren RAID-Controller.

Ganz im Gegenteil werden bei einem SAN in aller Regel neben dem eigentlichen SAN-Gerät noch das passende Leitungsmaterial zwischen Server und SAN und wohl auch eine passende Steckkarte für den Server benötigt, weil sonst das Leistungsvermögen einer solchen Datenverbindung gar nicht gehoben werden kann. Soweit ich mich erinnere, bin ich dann bei erheblich mehr an reinen Investitionskosten, die bei einem Vielfachen des RAID-Controllers liegen dürften.

Abhängig von der Anzahl der Hosts und ob du FC oder SAS verwendest, eben nicht.


- Du lobst selbst Linux als performanter, sparsamer, etc. da stimme ich grundsätzlich zu. Aber warum betreibst du dann ausgerechnet Virtualisierung mit Hyper-V? Es gibt einige Alternativen die mindestens gleichwertigen Ersatz bieten und dann deine Kriterien auch ohne 4 SSDs für das Systemlaufwerk erfüllen. ESXi z.B. ist einmal gebootet nicht vom Log-Pfad abhängig, das stürzt nicht gleich komplett ab wenn das Boot Medium weg bricht.
Siehe meinen Kommentar vom 28.10.2022 um 01:12:43 Uhr:

Im Übrigen hat jedes Hypervisor-Konzept seine Vor- und Nachteile, wenngleich man sich letztlich für eines entscheiden muss, will man virtualisieren. Ob ein Hypervisor noch gescheit weiterlaufen kann, wenn sein Systemlaufwerk wegbricht, hängt ganz entscheidend davon ab, ob die für den Betrieb relevanten Module, Daten, Log-Dateien etc. weiterhin gelesen und geschrieben werden können.

Für den Tagesbetrieb sind da eher Dinge wie korrektes weiterreichen der NUMA Architektur an die VM's viel entscheidender und das macht der Hypervisor, der deiner Aussage nach ohne Systemlaufwerk noch weiterlaufen kann, bei eingeschaltetem Hyperthreading überhaupt nicht richtig.

Das ist wohl eher eine Mutmaßung ins Blaue hinein als eine faktenbasierte Schlussfolgerung. Es spricht sogar alles dafür, dass Du Dich bisher noch nicht wirklich mit Hardware-RAID-Controllern, die direkt im Servergehäuse verwendet werden, beschäftigt hast.

Ich muss dir wiedersprechen, ich habe mit Storage mehr als genug zu tun und erkennen aus zwei Kilometern Entfernung, dass "ukulele-7" in dem Bereich auch gut Ahnung hat.

Erst recht dürfte es - im Gegensatz zu mir - daran fehlen, jemals eine Kosten-Nutzen-Risiko-Betrachtung unter Berücksichtigung vielfältiger Aspekte zwischen einem solchen internen Controller einerseits und einem SAN bzw. anderen externen Storage-Lösungen andererseits durchgeführt zu haben.

Ab einer gewissen Grösse, unterliegst du mit einem lokalem Storage bei korrekter Kalkulation sowohl Kosten-Nutzen als auch Risikotechnisch, fast immer einem SAN Konzept.

Beste Grüsse aus BaWü
Alex
Roland567
Roland567 31.10.2022 um 17:12:39 Uhr
Goto Top
Ich habe noch ein Tip zum Thema Ram.
Bitte nicht nur nach der Größe schauen, sondern auch unbedingt die Anzahl Riegel zur CPU beachten.
Die ist abhängig von der Anzahl Channel's, die die CPU hat.
Wenn deine CPU 4 Channel hat, dann sollten da auch mindestens 4 Riegel/CPU drinnen stecken.
Bei 6 Channels halt 6 Riegel

Und bei Erweiterung auch immer nur mit dem doppelten.
Also statt 4, dann 8, oder bei 6 dann halt 12
KEINESFALLS irgend so etwas wie ich nehme jetzt mal 5 oder 11 Riegel, weil die GB passend für mich wäre.

Ist eine absolutes NoGo und kann dir gewaltig die Performance versauen.
Dies gilt bei Intel wie auch AMD.

Gruss Roland