Verständnis Aggregates in NetApp
Hi Leute,
ich befasse mich derzeit mit einem NetApp System (Fas2720) mit zwei Nodes und einem zusätzlichen Shelve.
Nachdem ich mein Testcluster eingerichtet habe, sind nun die zwei Nodes: Testcluster_1 und Testcluster_2 vorhanden. Wenn ich mir nun die Disks anzeigen lasse, habe ich eine hälfte der Platten welche als Besitzer Testcluster_1 und die andere Hälfte Testcluster_2 haben. Möchte ich nun ein großes Aggregate erstellen, dann kann ich nur die Platten des gleichen Besitzers zu einem Aggregate zusammenführen, also müsste ich 2 "Halb"große Aggregate erstellen. Ist das alles so korrekt oder habe ich einen Konfigurationsfehler gemacht?
Zwei Aggregate (root?) hat er von selbst erzeugt: aggr0_Testcluster_1_0 und aggr0_Testcluster_2_0. Beide nutzen jeweils 5 Platten mit insgesamt 152.13 GB Belegten Speicherplatz und haben auch hier wieder je einen Besitzer: Testcluster_1 und Testcluster_2.
Ich hoffe ihr könnt mir dabei helfen hier etwas Licht ins Dunkle zu bringen.
Viele Grüße
ich befasse mich derzeit mit einem NetApp System (Fas2720) mit zwei Nodes und einem zusätzlichen Shelve.
Nachdem ich mein Testcluster eingerichtet habe, sind nun die zwei Nodes: Testcluster_1 und Testcluster_2 vorhanden. Wenn ich mir nun die Disks anzeigen lasse, habe ich eine hälfte der Platten welche als Besitzer Testcluster_1 und die andere Hälfte Testcluster_2 haben. Möchte ich nun ein großes Aggregate erstellen, dann kann ich nur die Platten des gleichen Besitzers zu einem Aggregate zusammenführen, also müsste ich 2 "Halb"große Aggregate erstellen. Ist das alles so korrekt oder habe ich einen Konfigurationsfehler gemacht?
Zwei Aggregate (root?) hat er von selbst erzeugt: aggr0_Testcluster_1_0 und aggr0_Testcluster_2_0. Beide nutzen jeweils 5 Platten mit insgesamt 152.13 GB Belegten Speicherplatz und haben auch hier wieder je einen Besitzer: Testcluster_1 und Testcluster_2.
Ich hoffe ihr könnt mir dabei helfen hier etwas Licht ins Dunkle zu bringen.
Viele Grüße
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 436770
Url: https://administrator.de/forum/verstaendnis-aggregates-in-netapp-436770.html
Ausgedruckt am: 14.05.2025 um 05:05 Uhr
5 Kommentare
Neuester Kommentar
Moin,
Zwei Aggregate (root?) hat er von selbst erzeugt: aggr0_Testcluster_1_0 und aggr0_Testcluster_2_0. Beide nutzen jeweils 5 Platten mit insgesamt 152.13 GB Belegten Speicherplatz und haben auch hier wieder je einen Besitzer: Testcluster_1 und Testcluster_2.
Passt.
Gruß,
Dani
Ist das alles so korrekt oder habe ich einen Konfigurationsfehler gemacht?
JA, ist korrekt.Passt.
Gruß,
Dani
Hi,
Die zweite NetApp braucht nur die Platten für sein "Root"-Aggregat, in welchem sein Volume0 ist. Die anderen Platten kann man alle der ersten NetApp zuweisen. Diese erstellt dann damit ein "großes" Aggregat. Im Failoverfall übernimmt die zweite NetApp dieses Aggregat (bzw. die ganze logische erste NetApp) Und umgekehrt: Wenn die zweite NetApp ausfällt, dann übernimmt die erste das "Root"-Aggregat der zweiten.
E.
Zitat von @leguser:
Schade. Ich hätte gedacht, dass ich einen großen Speicher mit der gesamten Kapazität erstellen könnte - oder ist dies auch möglich?
Da kann man machen.Schade. Ich hätte gedacht, dass ich einen großen Speicher mit der gesamten Kapazität erstellen könnte - oder ist dies auch möglich?
Die zweite NetApp braucht nur die Platten für sein "Root"-Aggregat, in welchem sein Volume0 ist. Die anderen Platten kann man alle der ersten NetApp zuweisen. Diese erstellt dann damit ein "großes" Aggregat. Im Failoverfall übernimmt die zweite NetApp dieses Aggregat (bzw. die ganze logische erste NetApp) Und umgekehrt: Wenn die zweite NetApp ausfällt, dann übernimmt die erste das "Root"-Aggregat der zweiten.
Warum ist eigentlich ein Node der Besitzer der Platte und nicht das Cluster?
Weil es hier nur einen Gott je Festplatte geben kann.nutzen jeweils 5 Platten mit insgesamt 152.13 GB
Das müssen aber sehr kleine Platten sein?Achja und noch eine Frage hätte ich: Das System belegt 152.13 GB an Speicherplatz, hat das ein Grund weshalb dies so groß ausfällt?
Er braucht Platz für den Notfall, z.B. für Logfiles oder bei System-Updates.E.
Für deine Nutzdaten kannst du auch ein einziges großes Aggregate bauen.
Du musst dir dabei aber der Nachteile bewusst sein:
Die I/Os laufen nur über einen Controller, inkl. aller SVM.
Bei deiner 2720 verlierst du damit 8 GB an Write-Cache und schmerzhafte 512GB an NVMe Read-Cache.
Der 2te übernimmt dann nur im Failover. Der Read-Cache startet beim Failover übrigens leer.
Ist also fast schon eine Sünde.
Ich würde an deiner Stelle prüfen, ob nicht ein paar (kleine) Leseintensive Anwendungen dabei sind, und diese in ein 2tes kleines Aggregat packen. Dann haben beide Controller was zu tun, und die 512GB an Read Cache wirst du bei einem reinen Platten oder selbst einem Hybrid Modell deutlich merken.
Nicht zu vergessen bei deinem großen Aggregate: Dedup auf Aggregate-Ebene gibts nur bei den AFF. Die FAS ist da (noch) außen vor.
Grüße,
Philip
Du musst dir dabei aber der Nachteile bewusst sein:
Die I/Os laufen nur über einen Controller, inkl. aller SVM.
Bei deiner 2720 verlierst du damit 8 GB an Write-Cache und schmerzhafte 512GB an NVMe Read-Cache.
Der 2te übernimmt dann nur im Failover. Der Read-Cache startet beim Failover übrigens leer.
Ist also fast schon eine Sünde.
Ich würde an deiner Stelle prüfen, ob nicht ein paar (kleine) Leseintensive Anwendungen dabei sind, und diese in ein 2tes kleines Aggregat packen. Dann haben beide Controller was zu tun, und die 512GB an Read Cache wirst du bei einem reinen Platten oder selbst einem Hybrid Modell deutlich merken.
Nicht zu vergessen bei deinem großen Aggregate: Dedup auf Aggregate-Ebene gibts nur bei den AFF. Die FAS ist da (noch) außen vor.
Grüße,
Philip