Fragen zu Synolgy-NAS als iSCSI-Target für Hyper-V
Hallo zusammen,
ich recherchiere gerade verschiedene Optionen für den Ausbau eines kleinen Netzwerkes mit dem Ziel von möglichst kurzen Downtimes bei Hardware-Defekten der Server-Hardware. Dabei bin ich bis vor kurzem davon ausgegangen, dass als Ziel für VHDs nur SAN-Storage in Frage käme, die aber in kleinen Umgebungen nicht wirklich bezahlbar sind und wohl auch in Bezug z.B. auf FibreChannel wohl eniges mehr an Fachwissen erfordern ...
Tja ... nun bin ich auf die Synology-NAS-Geräte gestossen und habe iSCSI entdeckt und entwerfe hier gerade Pläne, wie ich das für mein aktuelles Projekt nutzen kann. Ich will einfach mal abklopfen, ob ich das alles richtig verstanden habe, und worauf ich sonst noch achten sollte.
Mein aktueller Plan sähe so aus:
ich recherchiere gerade verschiedene Optionen für den Ausbau eines kleinen Netzwerkes mit dem Ziel von möglichst kurzen Downtimes bei Hardware-Defekten der Server-Hardware. Dabei bin ich bis vor kurzem davon ausgegangen, dass als Ziel für VHDs nur SAN-Storage in Frage käme, die aber in kleinen Umgebungen nicht wirklich bezahlbar sind und wohl auch in Bezug z.B. auf FibreChannel wohl eniges mehr an Fachwissen erfordern ...
Tja ... nun bin ich auf die Synology-NAS-Geräte gestossen und habe iSCSI entdeckt und entwerfe hier gerade Pläne, wie ich das für mein aktuelles Projekt nutzen kann. Ich will einfach mal abklopfen, ob ich das alles richtig verstanden habe, und worauf ich sonst noch achten sollte.
Mein aktueller Plan sähe so aus:
- Eine Synology-DS713+ mit 2 x 2TB im RAID1 als exklusiver iSCSI-Target für die VHDs
- 2 x Server mit 2 "kleinen" lokalen Festplatten im RAID1 als Hyper-V-Host.
- Je eine dedizierte DUAL-LAN-Karte pro Server die via Link-Aggregation über einen dedizierten Switch mit wiederum 2 LAN-Ports der DS713 verbunden ist.
- Server 1 hostet:
- "HauptServer" mit ~ 400 GB VHD (AD-DC, DHCP, DNS, Print, WSUS, etc.)
- SQL-Server (Win7 Pro 64 Bit) für Branchen-Anwendung mit VHD für OS=100 GB + VHD für Daten/-Anwendung=150GB
- 2 x Client für Entwickling, Tests, etc.(Win7 Pro 64 Bit) je einmal 100GB-VHD
- Server 2 hostet:
- "Backup-Anmeldeserver" mit ~ 150 GB VHD (RODC, DNS)
- Reicht die Performance für diese Anzahl an VHDs in so einem Setup überhaupt aus?
- Könnte bzw. sollte ich die jeweils 2 Netzwerk-Verbindungen zwischen jedem Server und der NAS über 2 separate Switches führen, damit beim Ausfal eines Switches immer noch die halbe Bandbreite zwischen Initiator und Target verfügbar ist?
- Wie sichere ich in regelmässigen Abständen die VHDs ohne allzulange Downtimes auf den betroffenen VMs? (Snapshots sind ja zumindest bei DCs nicht empfehlenswert?!)
Falls nun Server1 wegen Hardware-Defekt aussteigt, kann ich ja innerhalb kurzer Zeit vom Server2 aus, die Verbindung zu den entsprechenden iSCSI-Targets herstellen und die eigentlich auf Server1 gehosteten VMs starten. Mir ist klar, dass hier die Synology-NAS der SinglePointOfFailure ist !
Hier nun meine Fragen:
Bin gespannt auf euer Feedback,
Manne.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 217350
Url: https://administrator.de/contentid/217350
Ausgedruckt am: 22.11.2024 um 10:11 Uhr
19 Kommentare
Neuester Kommentar
Hi,
also ich habe zu Testzwecken schon mal ein iSCSI-Storage über eine QNAP mit RAID5 für meine VMware VSphere Struktur eingebunden. Ich muss sagen, die VMs haben einigermaßen flott gebootet, aber sobald es an hohen IO kommt, bricht die Sache schlagartig ein. Ganz schlimm wird es, wenn man von seinen VMs Snapshots macht, der Prozess dauert grob geschätzt 5-8 mal solange wie über ein anständig per FC angebundenes Storage, geschweige denn bei parallelen Vorgängen.
Die sache mit iSCSI ist also recht schick, wenn man schnell mehr Speicher für eine Testumgebung braucht, aber für den Produktivbetrieb würde ich von dieser Konstellation mit iSCSI nur über GBit-Lan abraten. Muss aber gestehen, es nicht über Port-Trunking mit Jumboframes getestet zu haben!
mfg
also ich habe zu Testzwecken schon mal ein iSCSI-Storage über eine QNAP mit RAID5 für meine VMware VSphere Struktur eingebunden. Ich muss sagen, die VMs haben einigermaßen flott gebootet, aber sobald es an hohen IO kommt, bricht die Sache schlagartig ein. Ganz schlimm wird es, wenn man von seinen VMs Snapshots macht, der Prozess dauert grob geschätzt 5-8 mal solange wie über ein anständig per FC angebundenes Storage, geschweige denn bei parallelen Vorgängen.
Die sache mit iSCSI ist also recht schick, wenn man schnell mehr Speicher für eine Testumgebung braucht, aber für den Produktivbetrieb würde ich von dieser Konstellation mit iSCSI nur über GBit-Lan abraten. Muss aber gestehen, es nicht über Port-Trunking mit Jumboframes getestet zu haben!
mfg
Hallo,
bei so einer kleinen Umgebung ist FC wohl Overkill - man muss hier auch die Kosten/Nutzen betrachten. Klar kann er ein FC Storage nehmen, 2 FC Switches, FC Hostadapter dann ist er locker bei 15000€+ - finde ich übertrieben für 5 VMs. Man kann auch über iSCSI 1GBit sinnvoll ne virtuelle Infrastruktur betreiben. Wichtig ist, dass das NAS die volle GBit-Geschwindigkeit bedienen kann (kommt auf den Prozessor und die NICs an) und am Besten die Server-NICs und das NAS Jumbo Frames unterstützen.
Wir haben hier eine vSphere-Umgebung mit 3 Hosts und einer HP MSA2312i über 2x HP 2910 Switches angebunden und erreichen > 111 MB/s, das MSA kann beide Controller im Active-Active-Mode betreiben es steht also eine Bandbreite von 2GBit zur Verfügung. Auf dieser Umgebung laufen 15 Server-VMs produktiv seit 3 Jahren ohne nennenswerte Probleme.
Was mir allerdings Bauchschmerzen bereiten würde ist der schon angesprochene single point of failure - das NAS, weil wenn das NAS wegbricht auch die VMs nicht korrekt heruntergefahren werden.
Wenn du virtualisierst, kannst du übrigens die VMs direkt auf einem anderen Host starten, sollte ein Host hardwaretechnisch wegbrechen, bzw. im Betrieb von einem Host auf den anderen migrieren (zumindest bei VMware auch in einer der kleineren Editionen: Essentials Plus - denke ist bei Hyper-V ähnlich).
mfg
bei so einer kleinen Umgebung ist FC wohl Overkill - man muss hier auch die Kosten/Nutzen betrachten. Klar kann er ein FC Storage nehmen, 2 FC Switches, FC Hostadapter dann ist er locker bei 15000€+ - finde ich übertrieben für 5 VMs. Man kann auch über iSCSI 1GBit sinnvoll ne virtuelle Infrastruktur betreiben. Wichtig ist, dass das NAS die volle GBit-Geschwindigkeit bedienen kann (kommt auf den Prozessor und die NICs an) und am Besten die Server-NICs und das NAS Jumbo Frames unterstützen.
Wir haben hier eine vSphere-Umgebung mit 3 Hosts und einer HP MSA2312i über 2x HP 2910 Switches angebunden und erreichen > 111 MB/s, das MSA kann beide Controller im Active-Active-Mode betreiben es steht also eine Bandbreite von 2GBit zur Verfügung. Auf dieser Umgebung laufen 15 Server-VMs produktiv seit 3 Jahren ohne nennenswerte Probleme.
Was mir allerdings Bauchschmerzen bereiten würde ist der schon angesprochene single point of failure - das NAS, weil wenn das NAS wegbricht auch die VMs nicht korrekt heruntergefahren werden.
Wenn du virtualisierst, kannst du übrigens die VMs direkt auf einem anderen Host starten, sollte ein Host hardwaretechnisch wegbrechen, bzw. im Betrieb von einem Host auf den anderen migrieren (zumindest bei VMware auch in einer der kleineren Editionen: Essentials Plus - denke ist bei Hyper-V ähnlich).
mfg
Hallo @Rudbert,
eine Synology ist aber, genauso wie eine QNAP keine HP oder DELL NAS/SAN Lösung. Was beachtet werden muss. Was bringt es einem, wenn die Lösung prinzipiell gut ist, die Soft/Hardware aber die IOs einfach nicht zu leisten vermag?
VG,
Christian
certified IT
eine Synology ist aber, genauso wie eine QNAP keine HP oder DELL NAS/SAN Lösung. Was beachtet werden muss. Was bringt es einem, wenn die Lösung prinzipiell gut ist, die Soft/Hardware aber die IOs einfach nicht zu leisten vermag?
VG,
Christian
certified IT
Zitat von @mad-manne:
> Zitat von @certifiedit.net:
> ----
> eine Synology ist aber, genauso wie eine QNAP keine HP oder DELL NAS/SAN Lösung.
Das ist klar ... die Frage ob die Performance ausreichend sein wird ist leider ohne echte Tests wohl schwer zu beantworten.
Deshalb hatte ich ja gehofft hier Leute zu "treffen", die damit Erfahrungen haben.
> Zitat von @certifiedit.net:
> ----
> eine Synology ist aber, genauso wie eine QNAP keine HP oder DELL NAS/SAN Lösung.
Das ist klar ... die Frage ob die Performance ausreichend sein wird ist leider ohne echte Tests wohl schwer zu beantworten.
Deshalb hatte ich ja gehofft hier Leute zu "treffen", die damit Erfahrungen haben.
Da wirst du aber hier vermute ich an der falschen Adresse sein. Ich kann dir nur so viel sagen: Versuche meines Ex-Chefs bzgl VMware und QNAP liefen darauf hinaus das regelmäßig die Firma lahm lag. Denke das ist nicht im Sinne des Fail Overs, denn dann kannst du auch direkt beim Cold Standby bleiben.
Hallo,
ich denke QNAP hat sehr wohl ordentliche NAS Geräte im Angebot die mit denen man so etwas realisieren kann.
Doch diese kommen mit einer echten CPU und nicht mit einem AtomDäumling her und auch 3 - 4 GB RAM
ebenso wie einer DUAL 10 GBit/s LAN Karte. Und das sollte man dann eben auch an den Servern vorfinden.
Ebenso sollte der Switch mindestens zwei 10 GBit/s Ports haben damit das dann alles richtig flutscht und
die Switche sollten schon gestapelt sein damit da dann auch die Latenzen richtig niedrig sind.
Zusammen mit WWR (Weighted Round Robin) über ein LAG (LACP) und die Sache läuft auch rund.
Ich habe auch schon Leute hier erlebt die das ganze nur mit 1 GBit/s Verbindungen zum laufen bekommen haben
aber irgend wie traue ich der ganze Sache nicht so recht!
wackelig vorkommt mit einem zweiten NAS replizieren. Alles zu teuer, kein Geld?
Dann schnell ein paar gebrauchte Server "schießen" und gar nicht erst mit VMs anfangen,
denn irgend wo muss man eben auch mit dem Sparen aufhören, sonst hat man es kaputt gespart.
Gruß
Dobby
ich denke QNAP hat sehr wohl ordentliche NAS Geräte im Angebot die mit denen man so etwas realisieren kann.
Doch diese kommen mit einer echten CPU und nicht mit einem AtomDäumling her und auch 3 - 4 GB RAM
ebenso wie einer DUAL 10 GBit/s LAN Karte. Und das sollte man dann eben auch an den Servern vorfinden.
Ebenso sollte der Switch mindestens zwei 10 GBit/s Ports haben damit das dann alles richtig flutscht und
die Switche sollten schon gestapelt sein damit da dann auch die Latenzen richtig niedrig sind.
Zusammen mit WWR (Weighted Round Robin) über ein LAG (LACP) und die Sache läuft auch rund.
Ich habe auch schon Leute hier erlebt die das ganze nur mit 1 GBit/s Verbindungen zum laufen bekommen haben
aber irgend wie traue ich der ganze Sache nicht so recht!
Eine Synology-DS713+ mit 2 x 2TB im RAID1 als exklusiver iSCSI-Target für die VHDs
Ich würde mal lieber zu einem RADI 5 bzw. 6 tendieren und dann eventuell wenn es Dir zuwackelig vorkommt mit einem zweiten NAS replizieren. Alles zu teuer, kein Geld?
Dann schnell ein paar gebrauchte Server "schießen" und gar nicht erst mit VMs anfangen,
denn irgend wo muss man eben auch mit dem Sparen aufhören, sonst hat man es kaputt gespart.
Gruß
Dobby
@certifiedit
obwohl eigentlich mit einer Entwickleroffensive weltweit von ca. 600 Leuten dem entgegen gewirkt
werden sollte!
@Dani hat hier zuletzt in einem Kommentar zu einem anderen Beitrag abgelassen, den ich wirklich gut fand.
Auf drei FTS RX 300S6 sollen ca. 50 VMs laufen, das hieße dann ja das ein einziger FTS RX 300S6
gut und gern bis 15 VMs locker unterbringt, klar ein bisschen mehr RAM sollte dann schon rein,
also dann nicht für ~2600 € sondern eben ~2900 € was mit einem guten bzw. größerem NAS ja
auch gut zu vergleichen ist aber irgend wie einen ganz anderen Eindruck macht.
Gruß
Dobby
Aber es war eben von der Software her nicht optimal.
Habe ich leider in einem anderen Zusammenhang hier auch schon mehrfach gelesen im Forum,obwohl eigentlich mit einer Entwickleroffensive weltweit von ca. 600 Leuten dem entgegen gewirkt
werden sollte!
@Dani hat hier zuletzt in einem Kommentar zu einem anderen Beitrag abgelassen, den ich wirklich gut fand.
Auf drei FTS RX 300S6 sollen ca. 50 VMs laufen, das hieße dann ja das ein einziger FTS RX 300S6
gut und gern bis 15 VMs locker unterbringt, klar ein bisschen mehr RAM sollte dann schon rein,
also dann nicht für ~2600 € sondern eben ~2900 € was mit einem guten bzw. größerem NAS ja
auch gut zu vergleichen ist aber irgend wie einen ganz anderen Eindruck macht.
Gruß
Dobby
Moin Dobby,
Finger weg von QNAP, Synology und Co in solch einem Fall. Während einem Rebuild von RAID kannst du nicht mehr vernünftig arbeiten. Je nach Plattengröße gehen schon mal 4-6 Stunden in die Wüste.
Aktuelles Beispiel aus einem Testlabor: Ein Synology-Cluster eingerichtet, Firmware aktualisiert auf DSM 4.3, auf beiden das Volume defekt - trotz RAID 6! RS3412RPxs.
@Manne
Grüße,
Dani
Finger weg von QNAP, Synology und Co in solch einem Fall. Während einem Rebuild von RAID kannst du nicht mehr vernünftig arbeiten. Je nach Plattengröße gehen schon mal 4-6 Stunden in die Wüste.
Aktuelles Beispiel aus einem Testlabor: Ein Synology-Cluster eingerichtet, Firmware aktualisiert auf DSM 4.3, auf beiden das Volume defekt - trotz RAID 6! RS3412RPxs.
@Dani hat hier zuletzt in einem Kommentar zu einem anderen Beitrag abgelassen, den ich wirklich gut fand.
Danke für die Blumen.@Manne
Aber da reden wir doch eher über Preise die nahe am 5stelligen Bereich kratzen ??
Nahe? Weit darüber... die HP Switch dürften zusammen schon 2.500€ kosten, da diese für iSCSI ausgelegt sind. MSA kenn ich nicht, aber im Hause Netapp FAS2220 wirst du nochmal ca. 10.000€ kosten, da fehlen noch die VMWare-Lizenzen und die Hypervisor-Hosts. Also du wirst bei ca. 20.000€ liegen.Grüße,
Dani
Hi zusammen,
das MSA Beispiel hab ich nur gebracht, um zu verdeutlichen, dass man 1 GBit iSCSI auch produktiv einsetzen kann. Nur der Vollständigkeit halber hier mal der Kostenrahmen für diese Umgebung:
- 2x HP Switch ~2500€
- HP MSA bestückt mit 12 Platten (450GB SAS) ~12000€
- VMware Essentials Plus ~3000€
- 3x HP DL 360 G7/8 12000€
Die MSA ist allerdings auch nicht das gelbe vom Ei, was ich von einem Kollegen gehört habe, denen ist ein Controller abgekackt danach wurde ein RAID-Rebuild angestossen (warum auch immer); während des mehreren Stunden (>10) dauernden Rebuilds hat sich dann der 2. Controller verabschiedet - Desaster.
zurück zum Thema: Anstatt eines behelfs-SAN auf NAS-Basis gibts z.B. von VMware die sog. vSphere Storage Appliance, die Storage mehrerer physikalischer Hosts zu einem shared storage zusammenfasst, damit erhältst du Redundanz ganz ohne SAN (http://www.vmware.com/de/products/vsphere-storage-appliance/) ob und wie das bei Hyper-V umgesetzt werden kann kann ich dir leider nicht sagen.
Eine andere Idee die mir spontan noch einfällt ist: 1 deiner Server mit lokalem Storage als Produktivsystem, den anderen als Hot Standby (mit z.B. Veeam in bestimmten Abständen spiegeln) - damit bekommst du auch günstig Ausfallsicherheit und ein entsprechender Host kann locker 5 VMs verkraften.
mfg
das MSA Beispiel hab ich nur gebracht, um zu verdeutlichen, dass man 1 GBit iSCSI auch produktiv einsetzen kann. Nur der Vollständigkeit halber hier mal der Kostenrahmen für diese Umgebung:
- 2x HP Switch ~2500€
- HP MSA bestückt mit 12 Platten (450GB SAS) ~12000€
- VMware Essentials Plus ~3000€
- 3x HP DL 360 G7/8 12000€
Die MSA ist allerdings auch nicht das gelbe vom Ei, was ich von einem Kollegen gehört habe, denen ist ein Controller abgekackt danach wurde ein RAID-Rebuild angestossen (warum auch immer); während des mehreren Stunden (>10) dauernden Rebuilds hat sich dann der 2. Controller verabschiedet - Desaster.
zurück zum Thema: Anstatt eines behelfs-SAN auf NAS-Basis gibts z.B. von VMware die sog. vSphere Storage Appliance, die Storage mehrerer physikalischer Hosts zu einem shared storage zusammenfasst, damit erhältst du Redundanz ganz ohne SAN (http://www.vmware.com/de/products/vsphere-storage-appliance/) ob und wie das bei Hyper-V umgesetzt werden kann kann ich dir leider nicht sagen.
Eine andere Idee die mir spontan noch einfällt ist: 1 deiner Server mit lokalem Storage als Produktivsystem, den anderen als Hot Standby (mit z.B. Veeam in bestimmten Abständen spiegeln) - damit bekommst du auch günstig Ausfallsicherheit und ein entsprechender Host kann locker 5 VMs verkraften.
mfg
Bei Hyper-V kannst du das mit Replica lösen. Hierbei werden VMs die auf Servern mit lokal angebundenem Storage, entweder JBOD oder direkt im Server verbaut, alle fünf Minuten an einen zweiten Host repliziert. Finde ich für eine kleine Firma die praktikabelste Lösung. Es gibt auch Virtual Storage Appliances von Drittanbietern für Hyper-V, damit hab ich aber keine Erfahrung. Macht auch kein Sinn hier ein Hot-Standby zu nehmen und die Leistung der zweiten Serverkiste brach liegen zu lassen, man kann hier seine VMs auf die zwei Server verteilen und gegenseitig replizieren.
Wichtig zu wissen ist das Replica z.B. für den Exchange Server nicht offiziell unterstützt wird. Im Normalfall funktioniert eine Replizierung auch hier, aber es wird halt von Microsoft nicht supported. Besser als nur die Tagessicherung zu haben ist es aber allemal. Man kann hier auch mit DAGs arbeiten und auf jedem der Hosts einen Exchange Server ablegen, dann ist man richtig redundant. SQL Server ist zwar supported, auf eine stündliche Log Sicherung würde ich hier aber nicht verzichten wollen.
Der Vorteil von Hyper-V ist das man sich die VMWare Lizenzen spart. Veeam Backup Essentials gibts auch für Hyper-V, wird nach Prozessoren lizenziert.
Nas würd ich nicht machen, zum ersten wegen der angesprochenen Performance, zum anderen sind die richtig guten Geräte auch nicht wirklich billiger als echter Server, und sie rauchen prinzipiell genau so leicht ab.
Die kannst du als Sicherungsziel verwenden dazu sind sie gut.
Wichtig zu wissen ist das Replica z.B. für den Exchange Server nicht offiziell unterstützt wird. Im Normalfall funktioniert eine Replizierung auch hier, aber es wird halt von Microsoft nicht supported. Besser als nur die Tagessicherung zu haben ist es aber allemal. Man kann hier auch mit DAGs arbeiten und auf jedem der Hosts einen Exchange Server ablegen, dann ist man richtig redundant. SQL Server ist zwar supported, auf eine stündliche Log Sicherung würde ich hier aber nicht verzichten wollen.
Der Vorteil von Hyper-V ist das man sich die VMWare Lizenzen spart. Veeam Backup Essentials gibts auch für Hyper-V, wird nach Prozessoren lizenziert.
Nas würd ich nicht machen, zum ersten wegen der angesprochenen Performance, zum anderen sind die richtig guten Geräte auch nicht wirklich billiger als echter Server, und sie rauchen prinzipiell genau so leicht ab.
Die kannst du als Sicherungsziel verwenden dazu sind sie gut.
Benutze auf keinen Fall ein NAS für sowas.
Wir setzten viele SAN Systeme von Fujitsu ein .
Und ich denke dass wäre genau das richtige für Dich.
http://www.fujitsu.com/de/products/computing/storage/disk/eternus/dx60/
Gruß Marcus
Wir setzten viele SAN Systeme von Fujitsu ein .
Und ich denke dass wäre genau das richtige für Dich.
http://www.fujitsu.com/de/products/computing/storage/disk/eternus/dx60/
Gruß Marcus
Diesem sehr allgemein gehaltenen Tipp muss ich leider widersprechen. Das kann man sehr wohl machen. Es ist nur eine Frage des finanziellen Rahmens. Wir setzen den QNap TS-879 ein: http://www.nasserver.org/qnap/ts-879-pro/
Der kostet aber um einiges mehr als der hier erwähnte DS713. Dafür hat man aber auch mehr Möglichkeiten, mit denen u.a. einige hier diskutierte Anforderungen sehr wohl umgesetzt werden können. Nichts für Ungut!
Der kostet aber um einiges mehr als der hier erwähnte DS713. Dafür hat man aber auch mehr Möglichkeiten, mit denen u.a. einige hier diskutierte Anforderungen sehr wohl umgesetzt werden können. Nichts für Ungut!
Hi,
seit bestimmt 1,5 Jahren, vielleicht länger, mittlerweile mit 8 x 4TB FP. Fürs Intranet, Filesharing und als FTP-Server (120 Mitarbeiter aufgeteilt in mehrere Arbeitsgruppen, Win/Linux Gemischtladen), lediglich mit sehr großen Dateien kommt man leicht an die Grenzen, jedoch bei normalen Dokumenten kein Problem. WWW und OS-Dienste laufen aber über andere Geräte.
seit bestimmt 1,5 Jahren, vielleicht länger, mittlerweile mit 8 x 4TB FP. Fürs Intranet, Filesharing und als FTP-Server (120 Mitarbeiter aufgeteilt in mehrere Arbeitsgruppen, Win/Linux Gemischtladen), lediglich mit sehr großen Dateien kommt man leicht an die Grenzen, jedoch bei normalen Dokumenten kein Problem. WWW und OS-Dienste laufen aber über andere Geräte.
Zitat von @Bigistrator:
Hi,
seit bestimmt 1,5 Jahren, vielleicht länger, mittlerweile mit 8 x 4TB FP. Fürs Intranet, Filesharing und als FTP-Server
(120 Mitarbeiter aufgeteilt in mehrere Arbeitsgruppen, Win/Linux Gemischtladen), lediglich mit sehr großen Dateien kommt man
leicht an die Grenzen, jedoch bei normalen Dokumenten kein Problem. WWW und OS-Dienste laufen aber über andere Geräte.
Hi,
seit bestimmt 1,5 Jahren, vielleicht länger, mittlerweile mit 8 x 4TB FP. Fürs Intranet, Filesharing und als FTP-Server
(120 Mitarbeiter aufgeteilt in mehrere Arbeitsgruppen, Win/Linux Gemischtladen), lediglich mit sehr großen Dateien kommt man
leicht an die Grenzen, jedoch bei normalen Dokumenten kein Problem. WWW und OS-Dienste laufen aber über andere Geräte.
Du kannst ein Filestorage nicht mir einem SAN vergleichen auf dem mehrere Virtuelle Maschinen laufen.
Beim Filezugriff wird die Datei einmal abgerufen und dann passiert nichts mehr.
Virtuellen Maschinen greifen permanent auf das Storage zu.
Gruß Marcus