Server 2019: Umzug von SATA-SSD auf NVMe-SSD
Hallo Zusammen,
ich habe folgendes Anliegen:
ich habe einen WIndows Server 2012R2 mittels INplace-Upgrade auf Server 2016 und dann auf 2019 gebracht.
läuft nun soweit.
als nächster Schritt steht der Umzug auf die NVMe-SSD an.
mit Acronis hab ich ein Backup erstellt und dann auf der NVMe-SSD wiederhergestellt inkl Umstellen von legacy auf UEFI
allerdings startet der nicht, es kommt die Meldung mit "inaccessible boot volume"
analog das verhalten wenn man Windows Server 2019 unter UEFI neu auf der NVMe SSD neu installiert und im Anschluss die Sicherung wiederherstellt.
Board ist ein H11SSL-i mit einer Samsung 970 Pro.
hat jemand einen heißen Tipp?
Danke euch & viele grüße
Johannes
ich habe folgendes Anliegen:
ich habe einen WIndows Server 2012R2 mittels INplace-Upgrade auf Server 2016 und dann auf 2019 gebracht.
läuft nun soweit.
als nächster Schritt steht der Umzug auf die NVMe-SSD an.
mit Acronis hab ich ein Backup erstellt und dann auf der NVMe-SSD wiederhergestellt inkl Umstellen von legacy auf UEFI
allerdings startet der nicht, es kommt die Meldung mit "inaccessible boot volume"
analog das verhalten wenn man Windows Server 2019 unter UEFI neu auf der NVMe SSD neu installiert und im Anschluss die Sicherung wiederherstellt.
Board ist ein H11SSL-i mit einer Samsung 970 Pro.
hat jemand einen heißen Tipp?
Danke euch & viele grüße
Johannes
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 505822
Url: https://administrator.de/forum/server-2019-umzug-von-sata-ssd-auf-nvme-ssd-505822.html
Ausgedruckt am: 23.12.2024 um 07:12 Uhr
13 Kommentare
Neuester Kommentar
Windows umziehen oder Motherboard wechseln mit Fehler 0x0000007B inaccessible boot device
Sollte immer noch helfen. NVMe-Treiber vorher einspielen.
lks
Sollte immer noch helfen. NVMe-Treiber vorher einspielen.
lks
Mahlzeit,
hast du von legacy auf UEFI umgestellt?
Das Problem hatte ich zuletzt bei einer HP-Workstation mit Windows 10 1809 mit dem Restore auf eine andere SSD. Dazu nutze ich Veritas System Recovery.
Der Restore klappte schnell und einfach, aber das System bootete nicht.
Letztendlich habe ich es hinbekommen, indem ich die EFI-Partition neu erstellt habe.
Hier eine Anleitung, wie das mit einem Windows PE-Medium klappt Method 2):
Missing EFI Partition in Windows 10 – Solvedel
Anschließend musste ich noch den unteren Teil aus dieser Anleitung durchführen:
Windows 10 uEFI based systems get error 0xc000000e on boot after successful restore to blank disk using Veritas System Recovery
Da du keine Veritas Recovery Disk haben wirst, solltest du ein W2019-Installationsmedium dazu nutzen (muss im EFI-Modus gestartet werden).
Ab 3. Run: DISKPART
hast du von legacy auf UEFI umgestellt?
Das Problem hatte ich zuletzt bei einer HP-Workstation mit Windows 10 1809 mit dem Restore auf eine andere SSD. Dazu nutze ich Veritas System Recovery.
Der Restore klappte schnell und einfach, aber das System bootete nicht.
Letztendlich habe ich es hinbekommen, indem ich die EFI-Partition neu erstellt habe.
Hier eine Anleitung, wie das mit einem Windows PE-Medium klappt Method 2):
Missing EFI Partition in Windows 10 – Solvedel
Anschließend musste ich noch den unteren Teil aus dieser Anleitung durchführen:
Windows 10 uEFI based systems get error 0xc000000e on boot after successful restore to blank disk using Veritas System Recovery
Da du keine Veritas Recovery Disk haben wirst, solltest du ein W2019-Installationsmedium dazu nutzen (muss im EFI-Modus gestartet werden).
Ab 3. Run: DISKPART
Zitat von @macobi83:
vorgehen wie folgt:
- Windows 2019 neu auf der NVMe SSD installieren (als UEFI)
- Bootpartition aus der Sicherung wiederherstellen (ich hab Acrnis verwendet)
- Universal Restore explizit erneut drüberlaufen lassen.
- Neustart und rechner sollte starten; Treiber erneut installieren.
Dann könntest du das identische Problem haben, wie ich.vorgehen wie folgt:
- Windows 2019 neu auf der NVMe SSD installieren (als UEFI)
- Bootpartition aus der Sicherung wiederherstellen (ich hab Acrnis verwendet)
- Universal Restore explizit erneut drüberlaufen lassen.
- Neustart und rechner sollte starten; Treiber erneut installieren.
Test doch mal meinen Vorschlag, Bootpartition löschen und selbst erstellen.
Acronis wird doch auch ein Bootmedium mit Windows PE haben, welches du für das Erstellen der EFI-Partition nutzen kannst.
Das Bootmedium muss aber im UEFI-Modus und nicht im Legacy-Modus gestartet werden (BIOS-Auswahl).
Du hast doch geschrieben, dass der Server nach Umstieg auf die NVMe-SSD nicht bootet.
Hast du bei einem produktivem Server wirklich kein RAID im Einsatz?
Hast du bei einem produktivem Server wirklich kein RAID im Einsatz?
ist zwar offtopic aber trotzdem:
Die HDDs fallen sehr oft aus -> entweder Hotspare verwenden oder - was häufiger der Fall ist - neue bestellt und ausgetauscht - Rebuild und gut.
Ein Kunde hatte mal einen Ausfall einer HDD eines RAID 1 in seinem 7 Jahre alten Server. Er hat auf die Wiedereinrichtung des Raids verzichtet und den Server mit einer einzelnen HDD weiter betrieben. Genau 1 Jahr später wurde ich gerufen und da war auch die 2. HDD ausgefallen. Dann sollte ich die Daten aus der Sicherung wiederherstellen. Diese lief bereits ein halbes Jahr nicht mehr. Hat halt keiner in der Firma beachtet und gaben auch kein Geld dafür aus, dass es jemand anderes macht.
RAID ist keine Dasi, aber hilft bei Ausfall einzelner HDDs
Zitat von @macobi83:
habe bei keinem meiner Server RAID im Einsatz:
mehr Schwierigkeiten mit Controllern, Treiber und Co. als Nutzen.
Ich betreue seit mehr als 20 Jahren Firmen mit IT. Alle Server sind seither mit RAID-Controllern und natürlich auch RAID-Konfigurationen versehen gewesen.habe bei keinem meiner Server RAID im Einsatz:
mehr Schwierigkeiten mit Controllern, Treiber und Co. als Nutzen.
Die HDDs fallen sehr oft aus -> entweder Hotspare verwenden oder - was häufiger der Fall ist - neue bestellt und ausgetauscht - Rebuild und gut.
Ein Kunde hatte mal einen Ausfall einer HDD eines RAID 1 in seinem 7 Jahre alten Server. Er hat auf die Wiedereinrichtung des Raids verzichtet und den Server mit einer einzelnen HDD weiter betrieben. Genau 1 Jahr später wurde ich gerufen und da war auch die 2. HDD ausgefallen. Dann sollte ich die Daten aus der Sicherung wiederherstellen. Diese lief bereits ein halbes Jahr nicht mehr. Hat halt keiner in der Firma beachtet und gaben auch kein Geld dafür aus, dass es jemand anderes macht.
RAID ist keine Dasi, aber hilft bei Ausfall einzelner HDDs
Zitat von @macobi83:
bisher hielten sich die Defekte von Festplatten in Grenzen, daher setze ich ausschließlich auf SSDs
schneller und die MTBF deutlicher höher, allerdings im Falle Datenwiederherstellung deutlich aufwändiger (werde ich hoffentlich nicht brauchen)
im Zusammenspiel mit einer funktionierenden Datensicherung hat sich es bewährt.
Aber ohne RAID hast du bei einem Ausfall der einzelnen SSD immer Datenverlust (Ausnahme: SSD stirbt direkt nach der Datensicherung).bisher hielten sich die Defekte von Festplatten in Grenzen, daher setze ich ausschließlich auf SSDs
schneller und die MTBF deutlicher höher, allerdings im Falle Datenwiederherstellung deutlich aufwändiger (werde ich hoffentlich nicht brauchen)
im Zusammenspiel mit einer funktionierenden Datensicherung hat sich es bewährt.
Bei meinem Beispiel oben handelte es sich um eine 2 Jahre alte HP-Workstation mit SSD. Die Veritas Sicherung meldete Lesefehler und das die SSD bald den Geist aufgeben würde und brach einfach ab. Die HP Diagnose ergab das selbe.
Neue SSD bestellt (Garantiefall) - > nächster Arbeitstag war sie da.
Das Backup (Lesefehler ignorieren) und Restore ging in Minuten.
Bis ich den Fehler mit dem EFI-Bootsektor gelöst hatte, vergingen fast 2 Tage. Das wollte ich wegen eines HDD/SSD-Defekts bei einem Server nicht haben.
Wenn im Server eine als fehlerhaft gemeldet wird, mache ich folgendes:
Dort klicke ich im Raidmanager (zumeist HP Array Configuration Utility) auf "Identifizieren", nehme die blinkende HDD/SSD raus und setze die neue ein. Rebuild und gut.
ein 7 Jahre alter Server:
ich tausche die Server alle 3 bis spät. 5 Jahre aus.
die Erfahrung ist natürlich eine Verkettung von ungünstigen Umständen:
Festplatte defekt in Verbindung mit einen nicht funktionierendem Backup.
und kein Mitleid wenn man nichts investiert.
Der Kunde hatte nach dem Ausfall der 1. HDD nicht mal das Geld, diese zu ersetzen (stand kurz vor der Insolvenz).ich tausche die Server alle 3 bis spät. 5 Jahre aus.
die Erfahrung ist natürlich eine Verkettung von ungünstigen Umständen:
Festplatte defekt in Verbindung mit einen nicht funktionierendem Backup.
und kein Mitleid wenn man nichts investiert.
1 Jahr später (nach Ausfall der 2. HDD) hat er dann alles neu eingerichtet (Server + 3 Arbeitsplätze ) - Vorkasse.
aus meiner Sicht fehlt hier das Monitoring dass etwas nicht läuft um es im Vorfeld zu erkennen.
Es wird nicht immer angezeigt, dass die HDD/SSD bald ausfällt. Manchmal fallen die Teile einfach aus.Dann bedarf es auch keines Monitorings mehr.