LTO (Ltfs) wie oft Neuansatz Band bei großen Dateien?
Hi,
ich schreibe gerade mit einem LTO-9 Streamer (HH) ca. 100GB große Einzel-Dateien (Rar) auf ein LTFS formatiertes LTO-8 Band. Standardeinstellungen. System Windows 11.
Ist es normal, dass der Streamer ca. 2-4x pro Datei abbricht und neuansetzt? Die Daten werden durchschnittlich mit 280 MB/s geschrieben. Das RAID kann garantierte 800 MB/s liefern.
Die Daten werden über Copy / Paste im Explorer aufs Laufwerk eingefügt (ExtremeCopy Pro). Benutze ich den Windows-Standard-Kopierer setzt das Band ca. doppelt so oft neu an. Kann ich da gerade bei LTFS noch etwas optimieren? Blockgröße?
Wie ist das dann eigentlich beim Lesen der Daten vom Band einer z.B. 100GB großen Datei, bei der 4x beim Schreiben neu angesetzt / unterbrochen wurde? Muss der Streamer dann generell beim Lesen an diesen angesetzten Stellen auch erneut neu ansetzen und setzt eine kurze Zwangspause ein? Mir scheint das so.
Grüße von einem LTO-Einsteiger
ich schreibe gerade mit einem LTO-9 Streamer (HH) ca. 100GB große Einzel-Dateien (Rar) auf ein LTFS formatiertes LTO-8 Band. Standardeinstellungen. System Windows 11.
Ist es normal, dass der Streamer ca. 2-4x pro Datei abbricht und neuansetzt? Die Daten werden durchschnittlich mit 280 MB/s geschrieben. Das RAID kann garantierte 800 MB/s liefern.
Die Daten werden über Copy / Paste im Explorer aufs Laufwerk eingefügt (ExtremeCopy Pro). Benutze ich den Windows-Standard-Kopierer setzt das Band ca. doppelt so oft neu an. Kann ich da gerade bei LTFS noch etwas optimieren? Blockgröße?
Wie ist das dann eigentlich beim Lesen der Daten vom Band einer z.B. 100GB großen Datei, bei der 4x beim Schreiben neu angesetzt / unterbrochen wurde? Muss der Streamer dann generell beim Lesen an diesen angesetzten Stellen auch erneut neu ansetzen und setzt eine kurze Zwangspause ein? Mir scheint das so.
Grüße von einem LTO-Einsteiger
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 4926319238
Url: https://administrator.de/forum/lto-ltfs-wie-oft-neuansatz-band-bei-grossen-dateien-4926319238.html
Ausgedruckt am: 12.04.2025 um 15:04 Uhr
11 Kommentare
Neuester Kommentar
Hallo,
"aufwendige Datenbank" ? Ist alles integriert und in der GUI sieht man nicht mehr als nötig. DB in irgendeiner Form ist bei jeder Backup Software Standard.
Wenn es jetzt eh schon abbricht, wäre es doch gan z neckisch ein Programm zu haben was ggf. auch Daten validieren kann?!?!?
Ist der falsche Ansazt, bzw. an falschen Ende gespart. Wenn man als Hobbyist mal was probieren will - OK. Aber für eine DaSi gibt es ja ein paar Mindeststandards. Bzw. alt bewerte Methoden. Da würde ich nicht "auf Lücke setzen". Zumal die Backukp Programme auch deduplizieren können. Funktioniert bei RAR ja nur wenn die Dateien in einen Archiv sind. Ist bei den Programmen ähnlich, aber allein differentiell, inkrementell fehlt bei dir.
Selbst für die Sicherung von Daten die nicht mehr angelangt werden ist vernünftiges Bakcup Programm deutlich im Vorteil.
mfg Crusher
"aufwendige Datenbank" ? Ist alles integriert und in der GUI sieht man nicht mehr als nötig. DB in irgendeiner Form ist bei jeder Backup Software Standard.
Wenn es jetzt eh schon abbricht, wäre es doch gan z neckisch ein Programm zu haben was ggf. auch Daten validieren kann?!?!?
Ist der falsche Ansazt, bzw. an falschen Ende gespart. Wenn man als Hobbyist mal was probieren will - OK. Aber für eine DaSi gibt es ja ein paar Mindeststandards. Bzw. alt bewerte Methoden. Da würde ich nicht "auf Lücke setzen". Zumal die Backukp Programme auch deduplizieren können. Funktioniert bei RAR ja nur wenn die Dateien in einen Archiv sind. Ist bei den Programmen ähnlich, aber allein differentiell, inkrementell fehlt bei dir.
Selbst für die Sicherung von Daten die nicht mehr angelangt werden ist vernünftiges Bakcup Programm deutlich im Vorteil.
mfg Crusher
Moin,
- Hängt das Laufwerk am selben Controller wie das RAID oder an einem separaten HBA?
- Ist das ein internes oder externes Laufwerk und verfügt es über ausreichend Kühlung - die mögen es überhaupt nicht, wenn es im Betrieb zu warm wird?
Generell sind HH-Laufwerk bis zum einem Drittel langsamer als FH-Laufwerke (vgl. Wikiepedia)
LTFS nutzt seit Gen5 2 Partitionen auf dem Band, die erste ist für Metadaten. Das könnte auch das Verhalten bei Dir erklären, wenn er bei großen Dateien zwischendrin dort aktualisiert.
Gruß
cykes
Die Daten werden durchschnittlich mit 280 MB/s geschrieben. Das RAID kann garantierte 800 MB/s liefern.
Dazu folgende Fragen:- Hängt das Laufwerk am selben Controller wie das RAID oder an einem separaten HBA?
- Ist das ein internes oder externes Laufwerk und verfügt es über ausreichend Kühlung - die mögen es überhaupt nicht, wenn es im Betrieb zu warm wird?
Generell sind HH-Laufwerk bis zum einem Drittel langsamer als FH-Laufwerke (vgl. Wikiepedia)
LTFS nutzt seit Gen5 2 Partitionen auf dem Band, die erste ist für Metadaten. Das könnte auch das Verhalten bei Dir erklären, wenn er bei großen Dateien zwischendrin dort aktualisiert.
Gruß
cykes
Zitat von @nofate:
Hi,
bei LTFS wird in der Standardeinstellung alle 5 Minuten der Index aufs Band geschrieben.
Hi,
bei LTFS wird in der Standardeinstellung alle 5 Minuten der Index aufs Band geschrieben.
Sagt ich's nicht?
lks