Esxi hardware
Hallo zusammen,
Im Zuge meiner Ausbildung möchte ich mich gerne mit einer virtualisierungsumgebung beschäftigen also ein testlab aufbauen.
Ich bin nun im dritten Lehrjahr und möchte nach meiner Ausbildung in die virtualisierung oder in die Netzwerktechnik gehen.
Haltet ihr es für sinnvoll mit esxi zu arbeiten oder reicht auch proxmox im Hinblick auf meine Aussichten.
Falls ihr euch für esxi entscheiden würdet, welche Hardware würdet ihr empfehlen um mit esxi 7.0 zu arbeiten? Möchte am besten so wenig wie möglich ausgeben. Ja, mir ist bewusst das die esxi lizenz auch Geld kostet, deshalb möchte ich am liebsten günstige Hardware haben die aber trotzdem läuft.
Bitte keine Antworten wie schau in der hcl von vmware. Ich habe dafür einfach zu wenig praxiserfahrung um zu wisse welche günstige hardware ich für den esxi nehmen könnte.
Im Zuge meiner Ausbildung möchte ich mich gerne mit einer virtualisierungsumgebung beschäftigen also ein testlab aufbauen.
Ich bin nun im dritten Lehrjahr und möchte nach meiner Ausbildung in die virtualisierung oder in die Netzwerktechnik gehen.
Haltet ihr es für sinnvoll mit esxi zu arbeiten oder reicht auch proxmox im Hinblick auf meine Aussichten.
Falls ihr euch für esxi entscheiden würdet, welche Hardware würdet ihr empfehlen um mit esxi 7.0 zu arbeiten? Möchte am besten so wenig wie möglich ausgeben. Ja, mir ist bewusst das die esxi lizenz auch Geld kostet, deshalb möchte ich am liebsten günstige Hardware haben die aber trotzdem läuft.
Bitte keine Antworten wie schau in der hcl von vmware. Ich habe dafür einfach zu wenig praxiserfahrung um zu wisse welche günstige hardware ich für den esxi nehmen könnte.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 5891843352
Url: https://administrator.de/contentid/5891843352
Ausgedruckt am: 25.11.2024 um 14:11 Uhr
25 Kommentare
Neuester Kommentar
Hallo,
ob Promox, vSphere ESXI, oder Hyper-V .......das ist die Frage wo die Reise bie dir hingehen soll.
Für alle 3 System bietet sich ein Intel NUC mit 64GB Ram an. Oder auch 32GB.
Mittlerweile gibts für den IntelNuc auch einen "offiziellen" ESXI Treiber.
Ich selbst betreibe einen Proxmox und einen vSphere ESXI jeweils auf einen NUC Gen11.
ob Promox, vSphere ESXI, oder Hyper-V .......das ist die Frage wo die Reise bie dir hingehen soll.
Für alle 3 System bietet sich ein Intel NUC mit 64GB Ram an. Oder auch 32GB.
Mittlerweile gibts für den IntelNuc auch einen "offiziellen" ESXI Treiber.
Ich selbst betreibe einen Proxmox und einen vSphere ESXI jeweils auf einen NUC Gen11.
In ein NUC kann man z. B.keine HBAs und CNAs stecken.
Hypervisieren ist mit allen Genannten kein Problem und schnell gelernt.
Einen Hosts dauerhaft ordentlich laufen zu haben ist die Kunst.
Hypervisieren ist mit allen Genannten kein Problem und schnell gelernt.
Einen Hosts dauerhaft ordentlich laufen zu haben ist die Kunst.
Zitat von @chiefteddy:
Hallo,
die Lizenz für den esx-Hypervisor ist kostenlos. Nur für die Verwaltung vSphere ist ein kostenpflichtige Lizenz notwendig. Das macht aber nur Sinn, wenn du ein Cluster aus mehreren Hosts aufbaust.
Jürgen
Hallo,
die Lizenz für den esx-Hypervisor ist kostenlos. Nur für die Verwaltung vSphere ist ein kostenpflichtige Lizenz notwendig. Das macht aber nur Sinn, wenn du ein Cluster aus mehreren Hosts aufbaust.
Jürgen
Das ist ja so auch nicht ganz korrekt
Kommt darauf an, was man benötigt, aber es gibt eine kostenlose Version
LG
In so einer Ausbildung hat man ja auch Schwerpunkte, genau wie später der Wunsch-Arbeitgeber. Du kannst es soweit treiben das du Hypervisoren in einem Hypervisor virtualisierst und kannst dir damit alle drei neben einander legen. Anderer Seits gilt zumindest für Hyper-V und ESXi erstmal der Grundsatz kennste einen kennste alle. Natürlich haben die Unterschiede aber die nimmst du meist eh erst wahr wenn du wirklich komplexere Setups mit zentraler Verwaltung betreibst.
Es stellt sich also die Frage wie weit willst du gehen. Zum kennen lernen ist jeder Hypervisor gut.
Es stellt sich also die Frage wie weit willst du gehen. Zum kennen lernen ist jeder Hypervisor gut.
Wird der Arbeitgeber ggf alles schon haben.
Wenn es nicht läuft, zielgerichtet weiter zu kommen ist die Kunst.
Wenn es nicht läuft, zielgerichtet weiter zu kommen ist die Kunst.
Du wirst aber nicht mit einem Anfänger ohne Erfahrung konkurrieren müssen.
Wo willst du den arbeiten, Admin einer lokalen Umgebung in einem mittelständischen Betrieb mit einem Server der jetzt seit kurzem virtualisiert oder ein Systemhaus das solche Kunden betreut? Proxmox ist glaube ich gut weil hier der Preis eine deutliche Rolle spielt. Eine "kleine" Umgebung die schon länger virtualisiert ist? Häufig kommt ESXi im Essentials Paket zum Einsatz. Eine Umgebung die stark Windows lastig läuft? Vermutlich Hyper-V weil es einfach dabei ist und jeder es bedienen kann. Eine richtig große Umgebung bei einem Hoster? Sicherlich kein Proxmox und vermutlich nicht nur Hyper-V sondern viel VMware.
Zitat von @Linux09:
Puhh, habe mich auf keine unternehmensgröße festgelegt, sondern nur auf den Job sprich junior system engineer oder junior network engineer
Dann ist die Antwort auf alle deine Fragen - Ja Puhh, habe mich auf keine unternehmensgröße festgelegt, sondern nur auf den Job sprich junior system engineer oder junior network engineer
Früher hat man geantwortet "es kommt darauf an" heute ist die Antwort auf eine Frage die man nicht klar beantworten kann (vor allem eine entweder-oder-Frage) dann einfach "Ja"
Ich beziehe mich jetzt auf die Wahl des Hypervisors, zur Hardware hast du ja Empfehlungen. Es geht auch ein alter Server, die sind aber meist recht hungrig. Wenn du nicht grade einen rum stehen hast oder dein jetztiger Arbeitgeber seinen verschenkt würde ich eher einen NUC nehmen.
Ich beziehe mich jetzt auf die Wahl des Hypervisors, zur Hardware hast du ja Empfehlungen. Es geht auch ein alter Server, die sind aber meist recht hungrig. Wenn du nicht grade einen rum stehen hast oder dein jetztiger Arbeitgeber seinen verschenkt würde ich eher einen NUC nehmen.
ESXI ist zumindest in den größeren Firmen fast immer vertreten.
Würde daher eher da ansetzen. Es gibt wie weiter oben erwähnt auch eine Free Lizenz.
Damit fährst du für den Anfang ganz gut, allerdings gibt es (legal) keine kostenlose vCenter Lizenz, welche in Verbindung mit ESXI im Regelfall eingesetzt wird.
Proxmox ist mit im Unternehmensumfeld jetzt noch nicht untergekommen, Hyper V auch nur in sehr kleinen Umgebungen.
Letztlich ist es aber relativ egal, was du nimmst, wenn dein Ziel ist, die Funktionsweise zu erproben und eine Umgebung aufzubauen.
Als Hardware würde ich auch einen Intel Nuc empfehlen, kommt halt stark darauf an was du vorhast.
Wenn du jetzt mit HBAs und Raid Karten Spielen willst, benötigst du eine andere Grundlage
Würde daher eher da ansetzen. Es gibt wie weiter oben erwähnt auch eine Free Lizenz.
Damit fährst du für den Anfang ganz gut, allerdings gibt es (legal) keine kostenlose vCenter Lizenz, welche in Verbindung mit ESXI im Regelfall eingesetzt wird.
Proxmox ist mit im Unternehmensumfeld jetzt noch nicht untergekommen, Hyper V auch nur in sehr kleinen Umgebungen.
Letztlich ist es aber relativ egal, was du nimmst, wenn dein Ziel ist, die Funktionsweise zu erproben und eine Umgebung aufzubauen.
Als Hardware würde ich auch einen Intel Nuc empfehlen, kommt halt stark darauf an was du vorhast.
Wenn du jetzt mit HBAs und Raid Karten Spielen willst, benötigst du eine andere Grundlage
Zitat von @Linux09:
Ich möchte mir eine kleine Unternehmensstrukur mit dhcp, dns, ad, clients usw. Aufbauen. Einfach um Erfahrung zu sammeln, das man beim neuen Arbeitgeber auch glänzen kann
Ich möchte mir eine kleine Unternehmensstrukur mit dhcp, dns, ad, clients usw. Aufbauen. Einfach um Erfahrung zu sammeln, das man beim neuen Arbeitgeber auch glänzen kann
Die Frage ist:
Willst Du im Bereich Hypervisor dazulernen, oder ist der Hypervisor nur Mittel zum Zweck, um o.g. Struktur aufzubauen?
Wenn du den Umgang mit Hypervisoren lernen willst, schau dir einfach alle an und arbeite mit der Plattform weiter, welche dir am besten gefällt. ESXi ist recht verbreitet, hier wirst Du viele Unternehmen finden, welche diesen einsetzen.
Einige nutzen auch MS Hyper-V und selten auch mal Promox.
Wenn du primär eine eigene IT-Infrastruktur aufbauen willst, wie Du sie in den meisten Unternehmen vorfinden wirst, spielt die Wahl des Hypervisors aus meiner Sicht eine untergeordnete Rolle. Dann würde ich einfach zu Promox greifen, da du hier vollumfängliche Funktionen hast, welche bei ESXi etc. nur gegen Lizenzen und somit Geld zu bekommen sind.
Du könntest Promox als kleine "Challenge" auch selbst installieren, in dem du ein nacktes Debian aufsetzt und dann Step-by-Step dir Proxmox darauf installierst. Das ganze ist seitens Promox sogar dokumentiert ;)
Vorteil wäre, dass Du hier auch den Umgang mit Linux-Systemen im kleinen Umfang lernen kannst, was immer nützlich ist. Früher oder später triffst Du immer auf ein Linuxsystem, und wenn es nur der SSH-Zugang deines SBCs, Firewall oder was auch immer ist, da werkelt zu 99% immer ein Linux-System unter der Haube.
Ich hab der Vergangenheit mir einfach mal einen Rootserver bei einem namenhaften Anbieter samt 2 IP-Adressen angemietet und einfach alles auf Basis von Proxmox aufgebaut.
PFSense Firewall + OpenVPN
NGINX Reverse Proxy
diverse Webdienste
ein paar Gameserver für meine Kollegen und mich.
Ich persönlich hab das damals als sehr lehrreich empfunden, und wenn man IT-Interessiert ist, machts sogar on-top noch Spaß
Zitat von @Linux09:
Primär möchte ich die virtualisierung an sich lernen, um dann später in diesem Bereich zu arbeiten. Proxmox gefällt mir halt auch besser eben weil es kostenlos ist und ich auch linux interessiert bin.
Ich mache mir nur Gedanken ob ich dann dadurch das ich mit proxmox lerne anstatt mit vmware unattraktiv für die Firmen werde.
Ich habe bisher leider nicht wirklich was an Erfahrung im Bereich esxi.
Erstmal riesen dankeschön für eure großen Antworten. Das hilft mir schon weiter hier dieses Forum.
Meint ihr den Firmen ist es egal ob man mit vmware oder esxi gearbeitet hat? Oder ist es ihnen wichtig das man die entsprechende praxis mit solcher software hat?
Primär möchte ich die virtualisierung an sich lernen, um dann später in diesem Bereich zu arbeiten. Proxmox gefällt mir halt auch besser eben weil es kostenlos ist und ich auch linux interessiert bin.
Ich mache mir nur Gedanken ob ich dann dadurch das ich mit proxmox lerne anstatt mit vmware unattraktiv für die Firmen werde.
Ich habe bisher leider nicht wirklich was an Erfahrung im Bereich esxi.
Erstmal riesen dankeschön für eure großen Antworten. Das hilft mir schon weiter hier dieses Forum.
Meint ihr den Firmen ist es egal ob man mit vmware oder esxi gearbeitet hat? Oder ist es ihnen wichtig das man die entsprechende praxis mit solcher software hat?
Kommt wieder ganz darauf an.
Wenn ein Unternehmen VMware einsetzt und du damit Erfahrung hast, kann das ein Pluspunkt sein.
Vor allem, wenn du dich auf eine Stelle in dem Bereich bewirbst. Selbst als Junior schadet es da nicht, zumindest mal einen ESXI installiert und konfiguriert sowie verwendet zu haben, auch wenn es nur im standalone Mode ist.
Jeder Hypervisor hat seine Eigenheiten, oberflächlich sind alle relativ schnell zu beherrschen.
Du musst dich ja nicht auf ein System festlegen. Kannst auch allmählich durchprobieren
Habe auf meinem Homeserver auch schon mehrmals das OS gewechselt, bzw. dann ein weiteres Gerät installiert.
LG
Wie die anderen schon geschreiben haben
-- Mittel bis Groß vmWare vSphere ( ESX ) Umgebung
-- Klein bis Mittel teilweise vmWare im Essentials Paket mit max 3 Hosts mit den Basic Features für vSphere
bzw.
Microsoft Hyper V da hier dann sowas wie S2D und erweitertes Clustering / Software Defined Networking usw.
genutzt werden kann falls man es denn braucht. Wobei die kleinen Firmen wenn diese denn Hyper-V einsetzen das i.d.R. machen wegen S2D und dem Clustering inkl. Livemigration von Host zu Host. Aufgrund von S2D wird dann kein EXTERNER Speicher in Form von SAN oder anderem Shared Storage benötigt.
Bezüglich der Lizenz bitte den Schluss des Posts beachten
Woran du denken solltest beim Aufbau eines LABS ist folgender bzw. folgende Punkte:
Das aufsetzen eines einfachen Setups in Form eines Hosts kann eigentlich jeder.
Die Kunst ist es dann mit der zentralen Verwaltung über den vCenter Server entsprechend einen Cluster
mit HA und DRS und ggf. DPM einzurichten und zu berteiben. Die Intressanten Funktionen stecken nämlich erst in der
Zentralen Verwaltung und nicht in der Installation an sich. Es ist auch hier ein Konzept. Ein ESX Host mach kein Cluster bzw. ein Cluster muss aber wiederum nicht nur aus 2 Hosts bestehen.
Die Kunst ( egal ob ESX oder Hyper V oder Natanix oder Proxmox* ) besteht eher darin das ganze ohne nennenswerte Unterbrechungen ( Geplante Unterbrechungen mal außen vor ) am laufen zu halten auch wenn es mal irgendwo im Storage oder Netzwerk Probleme gibt. Das ganze, was wichtig ist in solchen Umgebungen, ist das Zusammenspiel der einzelnen Bausteine zu verstehen. Hier ein paar Beispiele damit deutlich word was ich meine:
Was für ein System habe ich ?
Ich denke du weißt wo ich raus will. Es reicht eben nicht nur VMWare ESX zu kennen, es ist das GESAMTPAKET drum herum was das System zum System macht. Die Kentnissse sind dann wichtig wenn es Probleme gibt oder anforderungen gestellt werden die dann umgesetzt werden müssen. Wenn man hier sagt: JA KLAR MACH ICH und dann hinterher zu Kreutze kriechen muss weil es eben so nicht geht dann wird erwartet das der IT´ler mit einer Lösung um die Ecke kommt -- hierzu muss ich das System kennen......
Die Kunst ist es eben das ganze am Leben zu halten so das keiner etwas vom Betrieb der Infrastruktur merkt. Einer meiner EX Chefes hat mal gesagt: IT ist für die Büromitarbeiter wie Strom und der kommt aus der Steckdose. So ist es auch mit der IT. Den MA im Büro interessiert es nicht was im Hintergrund läuft es interessiert Ihn nur das es läuft - deswegen der vergleich mit dem Strom aus der Steckdose.
Ich habe damals mit vmWare vSphere 5.0 bzw. 5.5 und passendem vCenter Server angefangen welche auf zwei HP DL380 G5 liefen. Die 380G5 waren damals die, fürs Hobby bzw. private Weiterbildung, Server bei denen Preis / Leistung gestimmt haben. Irgendwann kam dann ein 3 Server hinzu. mit den 3 Servern habe ich dann erstmal einen AD fürs LAB aufgebaut, genau so einen DHCP und zwei extra DNS Server. Router und Firewall habe ich auf dem System nicht virtualisiert da das damals nichts auf einem virt. System zu suchen hatte ( m.M.n. heute auch nicht ). Dann folgten solche Sachen wie: Ich will die VM´s LIVE verschieben können von einem System zum anderen OHNE Ausfall bzw. ohne das es bemerkt wird. Also ins Thema eingelesen und festgestellt das ich einen shared Storage brauche. Hier dann alles an Infos aufgesaugt und dann einen shared Storage besorgt welcher iSCSI und FC konnte. Damals habe ich mit 2 HP MAS 2012 oder P2000 gearbeitet. Storage angebunden über iSCSI - Netzwerk für iSCSI gebaut und konfiguriert, Anbindungen getestet Cluster aufgebaut usw.... Dann die Livemigration eingerichtet und bis zum umfallen gequält alla´ Server 1 fällt aus was passiert jetzt ? Wunsch: Alle VM´s wandern direkt ohne Unterbrechung auf den nächsten freien Server. Realität: Funktioniert nicht so wie ich will also zurück an die Hersteller Dokumentation und nachlesen und dann verstehen. Dann war irgendwann der wechsel auf 6.0 / 6.5 bzw. zuletzt auf 6.7. Immer ein bisschen mehr ausgebaut und das System erweitert. Hier und da dann die Hardware ausgetauscht / Storage Hardware erneuert bzw. umgebaut usw.... Aber versucht das alles LIVE zu machen. Sozusagen als würden echte Benutzer dahinter sitzen welche den Ausfall so wenig wie möglich bemerken sollten. Wenn etwas LIVE nicht umzubauen / zu erneuern was dann die Zeit geschätzt wie lange ich in etwa brauchen werde und dann die Zeit "gestoppt" und geschaut ob ich richtig lag. Falls nein dann geschaut wo es Probleme gab........
Mitlerweile habe ich eine LAB Umgebung Zuhause welche sich sehen lassen kann. Wenn ich die Hardware hätte kaufen müssen bzw. keine gebraucht Hardware genommen hätte dann würde da mit dem jetzigen LAB ein Einfamilienhaus rauskommen
Aktuell setzte ich ein:
3 HP dl380 2 x 8 Core / 265 GB Ram / 10 SAS 2,5 HDDs + 2 SATA SSD´s / 2 x dual Port 10G Nic + 1 40G dual Port
4 HP dl360 2 x 8 Core 128-256 GB Ram / 5 SAS HDDs + 3 SATA SSD+s + 2 M2 SSD+s / 2 x 10G Dual + 1 40G dual
1 HP MAS Storage 1040 System mit 15 SAS HDD´s und 2 Service Module mit je 2 10 G Ports iSCSI + 2 8G FC Ports
2 HP MAS Storage 2040 Systeme im Cluster mit der konfig von oben. Alle MSA sehr ausreichend Lizenziert
2 HP 3PAR 7200 dual Node SAN Systeme mit 2 8G FC + 2 10G iSCSI Ports je Node und 10 SAS HDD´s 1,8TB und 4 SAS SSD´s ( 400 GB ) + 4 Exp. Units mit je 22 SAS HDD´s 1,2 TB + 2 SAS SSD´s 200GB im Cluster ( Peer Persistence )
Die kisten sind beide für 96 Disks mit allen Features lizenziert.
1 Synolgy 12 x 6 TB und dual 10G Nic als Backup
1 HP DL360 G9 als Backupserver mit 4 x 3,5" 8 TB HDD´s mit 2 x 2 10G Ports und 1 M2 / VEEAM Backup Rep. Enterprise Lizenz aus dem NFR Programm
3 HP DL360 2x4 Core 128GB Ram 4 1,2 TB SAS HDD´s + 2 480GB SATA SSD´s / 4 10GB Nic Ports / System läuft als Windows Hyper V Cluster mit Storage Spaces Direct und ist als Failover Cluster eingerichtet. Shared Storage ist auch eingebunden.
1 HP C7000 Bladecenter mit 6 bl460G8 ( 2 x 8 Core Xeon E-5 / 128 GB bis 512 GB Ram je nach Modul ) und 4 HP VC Flex Netzwerkswitches / Karten im Baldecenter. Läuft aber so gut wie nie es sei denn es wird eine Große Migration geplant welche ich vorher testen will. War sehr sehr günstig da musste ich zuschlagen. Habe nur die Entsorgungskosten gezahlt + Abholung in Graz ( AT )
2 Intel / Wortmann Modular Server mit je 6 Server Blades mit 2 x 4 od. 6 Core Xeon 5560 CPU´s und 64 GB Ram je System. Zweite Netzwerkkarte ( Mezzanie Karte verbaut ) 2 Switch Modulen und zwei Storage Modulen. 14 x 1,2 TB SAS HDD´s ( mix aus 10k und 7,2k )
1 HP DL360G8 mit 4 x 10G SATA 3,5" HDDs als NAS mit dual 10 G und 32 GB RAM
und dann noch diverses Netzwerkzeug welches ich billig bekommen habe
Als Start würde ich dir aber zwei gebrauchte HP ML Server ( Towergehäuse und nicht so laut ) und zwei Managed Switches ans Herz legen. HDD´s dann entsprechend deinen wünschen. GGF falls das Bugdet noch da ist ein kleines iSCSI Storage System für Shared Storage ( ggf. im Eigenbau oder ein HP DL360G8 mit 4 x 3,5" HDDs )
Was die Lizenz angeht kannst du mal bei der VMUG schauen.
Wenn du bereit bist etwas Geld auszugeben dann bietet sich VMUG Advantage an.
Hier bekommst du für den Test / Lab / Spielbetrieb 1 Jahres Lizenz für fast alle
VMWare Produkte so das diese nicht nach 60 oder 30 Tagen ablaufen.
Hier ist auch NSX und Horizon VDI mit drin. Workstation vSphere vCenter Server
usw.....
Übersicht: ( Entsprechende Lizenzen mit Laufzeit )
VMware vCloud Suite Standard
VMware vCenter Server 7 Standard for vSphere®
VMware vCenter Server 8 Standard for vSphere®
VMware Cloud Foundation
VMware vSphere 7
VMware vSphere 8
VMware vSphere with VMware Tanzu Basic
VMware Cloud Director
VMware NSX Data Center Evaluation
VMware vRealize Network Insight
VMware NSX Advanced Load Balancer
VMware vSAN 7
VMware vSAN 8
VMware Site Recovery Manager
VMware vRealize Orchestrator
VMware vCloud Suite® Standard
Mware Horizon® Advanced Edition 7
VMware Horizon® Advanced Edition 8
VMware vRealize Operations for Horizon
VMware Fusion 13 Pro
VMware Workstation 17 Pro
Bei mir waren die Lizenzen i.d.R. immer knapp 1 3/4 Jahr gültig.
Wenn man jetzt bedenk das man für mache Sachen überhaupt oder nur sehr schwer eine
Trail Lizenz beziehen kann finde ich das schon klasse. Ja es kostet GELD aber es lohnt sich je nach dem
wo man hin will und was man Testen will. Bei mir zahlt das der Arbeitgeber jedes Jahr.
Du hast für den Preis aber noch mehr drin wie z.B. Rabatt wenn du eine Zertifizierung machen willst.
VMWare Cloud Labs als Lab as a Service im Internet usw......
Vorteilhaft, so finde ich, ist das man eine Umgebung nach und nach einrichten kann und danach auch damit
arbeiten kann. Ich meine wer baut schon innerhalb von 30 / 60 Tagen eine komplette VMWare vSphere Umgebung mit vCenter Server in Kombi mit VSAN und NSX auf ? Dann kommt später nochmal die VDI Sachen bei und schon wird es eng mit der Zeit, vorausgesetzt man hat keine Freunde oder andere Beschäftigungen dann schaft man es durchaus in den 30/60 Tagen
**Einer der Intel Modular Server Chassis läuft bei mir permanent mit 3 Blades ( VMWare ESX als Hypervisior ) für infrastruktur Dienste ( AD / DHCP / DNS / piHole / Fileserver / Printserver / virt. WLAN Controller con CISCO / Radius für WLAN und VPN / MFA Server für VPN ( Vasco ) / NodeRed für Hausautomation / MSSQL Server 2014 ( alte Lizenz vom AG ) / Exchange Server in Hybrid Konfig mit O365, ja privat / Hausautomation über virtuelle SPS etc.pp. was man halt als leidenschaftlicher ITler so am laufen hat.
Ach schon wieder mehr als notwendig geschrieben aber vielleicht hilt es ja jemand.
ich hoffe das ich nicht gesteinigt oder mit der 12 Pair CAT 7 Peitsche mir RJ45 Steckern ausgepeitscht werde.
Falls doch, hmmmm heute zwischen 12:30 und 13 Uhr hätte ich noch ein Zeitfenster frei. Die Auspeitschung dann bitte hinter Haus 4 damit alles was mitbekommen )
-- Mittel bis Groß vmWare vSphere ( ESX ) Umgebung
-- Klein bis Mittel teilweise vmWare im Essentials Paket mit max 3 Hosts mit den Basic Features für vSphere
bzw.
Microsoft Hyper V da hier dann sowas wie S2D und erweitertes Clustering / Software Defined Networking usw.
genutzt werden kann falls man es denn braucht. Wobei die kleinen Firmen wenn diese denn Hyper-V einsetzen das i.d.R. machen wegen S2D und dem Clustering inkl. Livemigration von Host zu Host. Aufgrund von S2D wird dann kein EXTERNER Speicher in Form von SAN oder anderem Shared Storage benötigt.
Bezüglich der Lizenz bitte den Schluss des Posts beachten
Woran du denken solltest beim Aufbau eines LABS ist folgender bzw. folgende Punkte:
Das aufsetzen eines einfachen Setups in Form eines Hosts kann eigentlich jeder.
Die Kunst ist es dann mit der zentralen Verwaltung über den vCenter Server entsprechend einen Cluster
mit HA und DRS und ggf. DPM einzurichten und zu berteiben. Die Intressanten Funktionen stecken nämlich erst in der
Zentralen Verwaltung und nicht in der Installation an sich. Es ist auch hier ein Konzept. Ein ESX Host mach kein Cluster bzw. ein Cluster muss aber wiederum nicht nur aus 2 Hosts bestehen.
Die Kunst ( egal ob ESX oder Hyper V oder Natanix oder Proxmox* ) besteht eher darin das ganze ohne nennenswerte Unterbrechungen ( Geplante Unterbrechungen mal außen vor ) am laufen zu halten auch wenn es mal irgendwo im Storage oder Netzwerk Probleme gibt. Das ganze, was wichtig ist in solchen Umgebungen, ist das Zusammenspiel der einzelnen Bausteine zu verstehen. Hier ein paar Beispiele damit deutlich word was ich meine:
Was für ein System habe ich ?
- Cluster - Ich muss wissen wie das mit dem Clustering unter vmWare funktioniert und welche Funktionen ich im Cluster einsetzen kann / muss. Ich muss hier wissen was geht und was nicht bzw. Sinnvoll oder auch nicht.
- Storage ? Welchen Storage habe ich ? VSAN ? Hier muss ich wissen wie VSAN funktioniert und was ich für den Betrieb alle benötige inkl. Netzwerkkonfiguration für vSAN. Habe ich ein SAN auf iSCSI Basis sollte ich die Basics eines SAN´s kennen und wisssen wie das funktioniert. Habe ich ein SAN auf Fibrechannel dann sollte ich die Basics der Fibrechannel Installation und Konfiguration kennen. Wenn wir jetzt noch Software Defined Storage haben dann ebenfalls auch hier noch eine grundlegende Kenntnis über den Bereich haben. Generell schadet es nicht die Systeme und Techniken im Backend kennen. Ich sage kennen und nicht bis ins letzte Eck konfigurieren können.
- Netzwerk, Habe ich einzelne vSwitches mit VLAN / ohne VLAN. kommen ggf. Distributet vSwitches zum Einsatz so muss ich hier auch wissen was im Netzwerk abgeht und wie das funktioniert. etc. pp. Portgruppen mit und ohne VLAN ..... vmKernel Ports für die vmWare Services etc.....
- NSX als Netzwerkvisualisierung vorhanden ? Hier also auch die Konfiguration kennen und verstehenn.........
Ich denke du weißt wo ich raus will. Es reicht eben nicht nur VMWare ESX zu kennen, es ist das GESAMTPAKET drum herum was das System zum System macht. Die Kentnissse sind dann wichtig wenn es Probleme gibt oder anforderungen gestellt werden die dann umgesetzt werden müssen. Wenn man hier sagt: JA KLAR MACH ICH und dann hinterher zu Kreutze kriechen muss weil es eben so nicht geht dann wird erwartet das der IT´ler mit einer Lösung um die Ecke kommt -- hierzu muss ich das System kennen......
Die Kunst ist es eben das ganze am Leben zu halten so das keiner etwas vom Betrieb der Infrastruktur merkt. Einer meiner EX Chefes hat mal gesagt: IT ist für die Büromitarbeiter wie Strom und der kommt aus der Steckdose. So ist es auch mit der IT. Den MA im Büro interessiert es nicht was im Hintergrund läuft es interessiert Ihn nur das es läuft - deswegen der vergleich mit dem Strom aus der Steckdose.
Ich habe damals mit vmWare vSphere 5.0 bzw. 5.5 und passendem vCenter Server angefangen welche auf zwei HP DL380 G5 liefen. Die 380G5 waren damals die, fürs Hobby bzw. private Weiterbildung, Server bei denen Preis / Leistung gestimmt haben. Irgendwann kam dann ein 3 Server hinzu. mit den 3 Servern habe ich dann erstmal einen AD fürs LAB aufgebaut, genau so einen DHCP und zwei extra DNS Server. Router und Firewall habe ich auf dem System nicht virtualisiert da das damals nichts auf einem virt. System zu suchen hatte ( m.M.n. heute auch nicht ). Dann folgten solche Sachen wie: Ich will die VM´s LIVE verschieben können von einem System zum anderen OHNE Ausfall bzw. ohne das es bemerkt wird. Also ins Thema eingelesen und festgestellt das ich einen shared Storage brauche. Hier dann alles an Infos aufgesaugt und dann einen shared Storage besorgt welcher iSCSI und FC konnte. Damals habe ich mit 2 HP MAS 2012 oder P2000 gearbeitet. Storage angebunden über iSCSI - Netzwerk für iSCSI gebaut und konfiguriert, Anbindungen getestet Cluster aufgebaut usw.... Dann die Livemigration eingerichtet und bis zum umfallen gequält alla´ Server 1 fällt aus was passiert jetzt ? Wunsch: Alle VM´s wandern direkt ohne Unterbrechung auf den nächsten freien Server. Realität: Funktioniert nicht so wie ich will also zurück an die Hersteller Dokumentation und nachlesen und dann verstehen. Dann war irgendwann der wechsel auf 6.0 / 6.5 bzw. zuletzt auf 6.7. Immer ein bisschen mehr ausgebaut und das System erweitert. Hier und da dann die Hardware ausgetauscht / Storage Hardware erneuert bzw. umgebaut usw.... Aber versucht das alles LIVE zu machen. Sozusagen als würden echte Benutzer dahinter sitzen welche den Ausfall so wenig wie möglich bemerken sollten. Wenn etwas LIVE nicht umzubauen / zu erneuern was dann die Zeit geschätzt wie lange ich in etwa brauchen werde und dann die Zeit "gestoppt" und geschaut ob ich richtig lag. Falls nein dann geschaut wo es Probleme gab........
Mitlerweile habe ich eine LAB Umgebung Zuhause welche sich sehen lassen kann. Wenn ich die Hardware hätte kaufen müssen bzw. keine gebraucht Hardware genommen hätte dann würde da mit dem jetzigen LAB ein Einfamilienhaus rauskommen
Aktuell setzte ich ein:
3 HP dl380 2 x 8 Core / 265 GB Ram / 10 SAS 2,5 HDDs + 2 SATA SSD´s / 2 x dual Port 10G Nic + 1 40G dual Port
4 HP dl360 2 x 8 Core 128-256 GB Ram / 5 SAS HDDs + 3 SATA SSD+s + 2 M2 SSD+s / 2 x 10G Dual + 1 40G dual
1 HP MAS Storage 1040 System mit 15 SAS HDD´s und 2 Service Module mit je 2 10 G Ports iSCSI + 2 8G FC Ports
2 HP MAS Storage 2040 Systeme im Cluster mit der konfig von oben. Alle MSA sehr ausreichend Lizenziert
2 HP 3PAR 7200 dual Node SAN Systeme mit 2 8G FC + 2 10G iSCSI Ports je Node und 10 SAS HDD´s 1,8TB und 4 SAS SSD´s ( 400 GB ) + 4 Exp. Units mit je 22 SAS HDD´s 1,2 TB + 2 SAS SSD´s 200GB im Cluster ( Peer Persistence )
Die kisten sind beide für 96 Disks mit allen Features lizenziert.
1 Synolgy 12 x 6 TB und dual 10G Nic als Backup
1 HP DL360 G9 als Backupserver mit 4 x 3,5" 8 TB HDD´s mit 2 x 2 10G Ports und 1 M2 / VEEAM Backup Rep. Enterprise Lizenz aus dem NFR Programm
3 HP DL360 2x4 Core 128GB Ram 4 1,2 TB SAS HDD´s + 2 480GB SATA SSD´s / 4 10GB Nic Ports / System läuft als Windows Hyper V Cluster mit Storage Spaces Direct und ist als Failover Cluster eingerichtet. Shared Storage ist auch eingebunden.
1 HP C7000 Bladecenter mit 6 bl460G8 ( 2 x 8 Core Xeon E-5 / 128 GB bis 512 GB Ram je nach Modul ) und 4 HP VC Flex Netzwerkswitches / Karten im Baldecenter. Läuft aber so gut wie nie es sei denn es wird eine Große Migration geplant welche ich vorher testen will. War sehr sehr günstig da musste ich zuschlagen. Habe nur die Entsorgungskosten gezahlt + Abholung in Graz ( AT )
2 Intel / Wortmann Modular Server mit je 6 Server Blades mit 2 x 4 od. 6 Core Xeon 5560 CPU´s und 64 GB Ram je System. Zweite Netzwerkkarte ( Mezzanie Karte verbaut ) 2 Switch Modulen und zwei Storage Modulen. 14 x 1,2 TB SAS HDD´s ( mix aus 10k und 7,2k )
1 HP DL360G8 mit 4 x 10G SATA 3,5" HDDs als NAS mit dual 10 G und 32 GB RAM
und dann noch diverses Netzwerkzeug welches ich billig bekommen habe
Als Start würde ich dir aber zwei gebrauchte HP ML Server ( Towergehäuse und nicht so laut ) und zwei Managed Switches ans Herz legen. HDD´s dann entsprechend deinen wünschen. GGF falls das Bugdet noch da ist ein kleines iSCSI Storage System für Shared Storage ( ggf. im Eigenbau oder ein HP DL360G8 mit 4 x 3,5" HDDs )
Was die Lizenz angeht kannst du mal bei der VMUG schauen.
Wenn du bereit bist etwas Geld auszugeben dann bietet sich VMUG Advantage an.
Hier bekommst du für den Test / Lab / Spielbetrieb 1 Jahres Lizenz für fast alle
VMWare Produkte so das diese nicht nach 60 oder 30 Tagen ablaufen.
Hier ist auch NSX und Horizon VDI mit drin. Workstation vSphere vCenter Server
usw.....
Übersicht: ( Entsprechende Lizenzen mit Laufzeit )
VMware vCloud Suite Standard
VMware vCenter Server 7 Standard for vSphere®
VMware vCenter Server 8 Standard for vSphere®
VMware Cloud Foundation
VMware vSphere 7
VMware vSphere 8
VMware vSphere with VMware Tanzu Basic
VMware Cloud Director
VMware NSX Data Center Evaluation
VMware vRealize Network Insight
VMware NSX Advanced Load Balancer
VMware vSAN 7
VMware vSAN 8
VMware Site Recovery Manager
VMware vRealize Orchestrator
VMware vCloud Suite® Standard
Mware Horizon® Advanced Edition 7
VMware Horizon® Advanced Edition 8
VMware vRealize Operations for Horizon
VMware Fusion 13 Pro
VMware Workstation 17 Pro
Bei mir waren die Lizenzen i.d.R. immer knapp 1 3/4 Jahr gültig.
Wenn man jetzt bedenk das man für mache Sachen überhaupt oder nur sehr schwer eine
Trail Lizenz beziehen kann finde ich das schon klasse. Ja es kostet GELD aber es lohnt sich je nach dem
wo man hin will und was man Testen will. Bei mir zahlt das der Arbeitgeber jedes Jahr.
Du hast für den Preis aber noch mehr drin wie z.B. Rabatt wenn du eine Zertifizierung machen willst.
VMWare Cloud Labs als Lab as a Service im Internet usw......
Vorteilhaft, so finde ich, ist das man eine Umgebung nach und nach einrichten kann und danach auch damit
arbeiten kann. Ich meine wer baut schon innerhalb von 30 / 60 Tagen eine komplette VMWare vSphere Umgebung mit vCenter Server in Kombi mit VSAN und NSX auf ? Dann kommt später nochmal die VDI Sachen bei und schon wird es eng mit der Zeit, vorausgesetzt man hat keine Freunde oder andere Beschäftigungen dann schaft man es durchaus in den 30/60 Tagen
**Einer der Intel Modular Server Chassis läuft bei mir permanent mit 3 Blades ( VMWare ESX als Hypervisior ) für infrastruktur Dienste ( AD / DHCP / DNS / piHole / Fileserver / Printserver / virt. WLAN Controller con CISCO / Radius für WLAN und VPN / MFA Server für VPN ( Vasco ) / NodeRed für Hausautomation / MSSQL Server 2014 ( alte Lizenz vom AG ) / Exchange Server in Hybrid Konfig mit O365, ja privat / Hausautomation über virtuelle SPS etc.pp. was man halt als leidenschaftlicher ITler so am laufen hat.
Ach schon wieder mehr als notwendig geschrieben aber vielleicht hilt es ja jemand.
ich hoffe das ich nicht gesteinigt oder mit der 12 Pair CAT 7 Peitsche mir RJ45 Steckern ausgepeitscht werde.
Falls doch, hmmmm heute zwischen 12:30 und 13 Uhr hätte ich noch ein Zeitfenster frei. Die Auspeitschung dann bitte hinter Haus 4 damit alles was mitbekommen )
Seine Stromrechnung möchte ich auch nicht zahlen haha
3par Zuhause?
Wie läuft das mittelfristig, wenn man keine Software mehr bekommt?
Ist da mittlerweile viel "Neues" dazu gekommen?
Hatten 3par Mal aufm Schirm als Dell kaufen wollte.
Wie läuft das mittelfristig, wenn man keine Software mehr bekommt?
Ist da mittlerweile viel "Neues" dazu gekommen?
Hatten 3par Mal aufm Schirm als Dell kaufen wollte.
Er spart doch die Gasheizung.
Nun ja muss dazusagen das läuft ja nicht alles immer gleichzeitig bzw. ist das in kleinere Labs unterteilt.
Strom ist kein Problem. 18 KW PV auf Dach und einen 20 KW bat.Speicher.
Also da ich die 3Par sehr sehr günstig bekommen habe ist´s ok. Die beiden 3Par sind derzeit mit der großen Lizenz ausgerüstet so das ich mir da keine Gedanken mache bzw machen muss. Ob da jetzt Features hinzugekommen sind kann ich so nicht sagen da ich schätzungsweise nur max. 30% der Funktionen nutze.
Nutzung i.d.R. nur als Storage für ESX und Hyper V. Entsprechend dann Storage Tiering / VSS / vVOL / Peer Persistence / Peer Motion / Remote copy / etc im Einsatz. Coll ist halt bei der 3Par das man auch aus VEEAM direkt vom Storage sichern kann und die Peer Persistence. Fällt eine 3 Par aus dann merkt das System noch nicht mal was und die andere 3Par übernimmt. Strom brauchen die aber nicht gerade wenig
Derzeit laufen lediglich 3 bis 4 Server aus dem Intel modular Server und der dl360G8 als NAS mit 30TB im Raid .
Nun ja läuft ja wie gesagt nicht alles. Großteil der Hardware hat mich den Sprit gekostet und den Kilopreis für Altmetall und ja nätürlich auch die Zeit. Weiteste Strecke was Frankfurt / Steiermark an der Ungarischen Grenze ( 920 KM ). Hätte ich das alles kaufen müssen dann hätt ich das wohl nicht.
Teilweise hab ich auch Hardware ( dl380G9 12 x 3,5" HDD´s ) an die Firma vermacht damit ich zuhause wieder Platz habe. Der Dl380G9 läuft hier heute noch als Zweitbackup Server für die Entwicklung bezüglich Softwaredeployment / Buildhost.
Die Prod. Umgebung in der Firma besteht aus 2 x Bladecenter 7000 mit je 5 bl460g8 (g9) Servern und 2 Datacore SDS Systemen und einer 3 Par mit Basic Funktionen. 1 Backup Server + 3 Repository Server + ext Repo als NAS im Datacenter. Geplant sind noch 2 dl380g10 mit Grafikkarten als VDI System für max. 50 Benutzer. Ist eher eine Security Anforderung. Würde ich sonst nicht bauen bzw. gut heißen da TCO zu teuer.
Ein bisschen Routing und Switching mit 10G ( insg. 4 Nexus 5000 ) + ein paar Client Switches ( ca.9 48 Port Cisco Cat. 3850 ) und Firewall Konzept aus 3 Red. Firewalls + 2 ext. Domänencontroller
Strom ist kein Problem. 18 KW PV auf Dach und einen 20 KW bat.Speicher.
Zitat von @2423392070:
Er spart doch die Gasheizung.
Die Überlegung mit der Heizung hatte ich damals, so 5-8 Jahre her, überlegt. Plan war damals Bitcoins schürfen und die Wärme mittel Wärmepumpe in die Heizung / Warmwasser schicken.Er spart doch die Gasheizung.
Zitat von @2423392070:
3par Zuhause?
Wie läuft das mittelfristig, wenn man keine Software mehr bekommt?
Ist da mittlerweile viel "Neues" dazu gekommen?
Hatten 3par Mal aufm Schirm als Dell kaufen wollte.
3par Zuhause?
Wie läuft das mittelfristig, wenn man keine Software mehr bekommt?
Ist da mittlerweile viel "Neues" dazu gekommen?
Hatten 3par Mal aufm Schirm als Dell kaufen wollte.
Also da ich die 3Par sehr sehr günstig bekommen habe ist´s ok. Die beiden 3Par sind derzeit mit der großen Lizenz ausgerüstet so das ich mir da keine Gedanken mache bzw machen muss. Ob da jetzt Features hinzugekommen sind kann ich so nicht sagen da ich schätzungsweise nur max. 30% der Funktionen nutze.
Nutzung i.d.R. nur als Storage für ESX und Hyper V. Entsprechend dann Storage Tiering / VSS / vVOL / Peer Persistence / Peer Motion / Remote copy / etc im Einsatz. Coll ist halt bei der 3Par das man auch aus VEEAM direkt vom Storage sichern kann und die Peer Persistence. Fällt eine 3 Par aus dann merkt das System noch nicht mal was und die andere 3Par übernimmt. Strom brauchen die aber nicht gerade wenig
Derzeit laufen lediglich 3 bis 4 Server aus dem Intel modular Server und der dl360G8 als NAS mit 30TB im Raid .
Nun ja läuft ja wie gesagt nicht alles. Großteil der Hardware hat mich den Sprit gekostet und den Kilopreis für Altmetall und ja nätürlich auch die Zeit. Weiteste Strecke was Frankfurt / Steiermark an der Ungarischen Grenze ( 920 KM ). Hätte ich das alles kaufen müssen dann hätt ich das wohl nicht.
Teilweise hab ich auch Hardware ( dl380G9 12 x 3,5" HDD´s ) an die Firma vermacht damit ich zuhause wieder Platz habe. Der Dl380G9 läuft hier heute noch als Zweitbackup Server für die Entwicklung bezüglich Softwaredeployment / Buildhost.
Die Prod. Umgebung in der Firma besteht aus 2 x Bladecenter 7000 mit je 5 bl460g8 (g9) Servern und 2 Datacore SDS Systemen und einer 3 Par mit Basic Funktionen. 1 Backup Server + 3 Repository Server + ext Repo als NAS im Datacenter. Geplant sind noch 2 dl380g10 mit Grafikkarten als VDI System für max. 50 Benutzer. Ist eher eine Security Anforderung. Würde ich sonst nicht bauen bzw. gut heißen da TCO zu teuer.
Ein bisschen Routing und Switching mit 10G ( insg. 4 Nexus 5000 ) + ein paar Client Switches ( ca.9 48 Port Cisco Cat. 3850 ) und Firewall Konzept aus 3 Red. Firewalls + 2 ext. Domänencontroller