Netzwerkplan - Grafikstudio (Recherche für ein Tutorial)

circassia
Goto Top

Fragen, These bzgl. Netzwerkplan für ein Grafikstudio

Hi leute,

ich möchte mit euch meine Gedanken bezüglich des Netzwerks eines Grafikstudios unter Beachtung folgender Kriterien teilen und hoffe auf Ergänzungen ;):

-> Hochleistungsnetzwerk
-> Stabile Rechner
-> Filebackup

Punkt 1) Erreichbarkeit der Dateien
Im Laufe der Zeit habe ich festgestellt, dass das größte Problem vieler Grafikstudios die zerstreutheit der Dateien ist. Grafiker_x erstellt eine Datei, speichert sie auf seinem Desktop ab, Grafiker_y weiß am nächsten Tag nicht wo die Datei ist, und wenn er Sie öffnet, kennt er den Auftrag nicht.

Problemlösung: Alle Dateien im Netzwerk auf einem Server abspeichern und abrufen.

~~~~Auftauchende Probeleme:
- Speicherzeit erhöht sich
- Das Netzwerk muss sehr schnell sein


~~~~Lösungsmöglickeiten meines Wissenstandes nach
- 1GBIT Netzwerk


~~~~Lösungsmöglichkeiten die ich mir Vorstelle, aber nicht beherrsche
- Netzwerk mit Lichtwellenleiter
- zwei Netzwerkkarten pro Rechner


Punkt 2) onemilliondoller Rechner
Das Vermögen eines Grafikstudios liegt meist in einer Festplatte, somit muss dem besondere Aufmerksamkeit geschenkt werden. Falls die Dateien durch ein Fehler nicht mehr erreichbar sind, kann das zeitraubend sein (Neugestaltung > verspätung des Auftrags > schlechtes Image...und etc.

Problemlösung: Die sich auf dem Server befindlichen Dateien regelmäßig absichern

~~~~~Lösungsmöglichkeiten mWn:
- Im Server eine zweite Festplatte, sicherheit gering
- Jeden Abend die Festplatten auf einem anderen Server im Unternehmen absichern
x Onlineabsicherungen kommen nicht in Frage, da die Bandbreiten nicht gegeben sind.

~~~~~Lösungsmöglichkeiten die ich mir vorstellen könnte
- Durch Lichtwellenleiter zwei Server verbinden und jeden Abend eine Absicherung starten, wobei man darauf achten sollte, dass der Rechner im abgesicherten Modus läuft, damit der PC weniger von Viren befallen gefährdet ist.


So, das ist mal so ein Gedankenkann, mein Zielist es, mit kleinen Fragen anzufangen um dann ein aufwendiges Tutorial zu schreiben bzgl. eines optimalen Netzwerks ;)

Danke euch, erwarte starke konstruktive kritik!

mfg

Content-Key: 80085

Url: https://administrator.de/contentid/80085

Ausgedruckt am: 03.07.2022 um 03:07 Uhr

Mitglied: creyzee
creyzee 06.02.2008 um 20:26:52 Uhr
Goto Top
hallo,

da mach ich mal mit face-smile

zuvor solltest du einige randbedingungen definieren?

1) welches budget steht zur verfügung?
2) wieviele mitarbeiter arbeiten im lan?
3) welche betriebssysteme kommen zum einsatz?
4) welche datenmengen werden aufkommen (wichtig für dimensionierung)
5) sollen alle rechner in einem netzwerk liegen?
6) wie steht es mit der datensicherheit?
7) welche ausfallzeiten/ verluste durch einen ausfall sind verktraftbar?
8) welche software kommt zum einsatz? (viele programme brauchen die daten LOKAL am rechner, also sollten dann die rechner selber ausfallsicherer sein)

also das beste netzwerk nützt nichts, wenn jeder macht was er will. die organisation per richtlinien muss von anfang an festgelegt werden: wer darf was, was gehört wie wohin, wer ist verantwortlich...

wir haben bei uns alles auf gbit ausgebaut und eine durchschnittliche netzlast von 1% mit maximalwerten um 18%. mehr schaffen normale rechner einfach nicht. das sollte aber genügen. eventuell könnte man das lan in mehrere subnetze unterteilen, um überlastungen zu vermeiden. auch sollten managed-switche mit qos zum einsatz kommen, mit denen man rechtzeitig engpässe finden kann.

um speicherfehler zu vermeiden sollte auf den servern mindestens ein raid5 über hardware-raidcontroller aufgebaut sein - natürlich mit schnellen festplatten. eventuell könnte volumeshadowcopy als echtzeitsicherung im arbeitstag helfen. ansonsten natürlich die normale datensicherung über ne gute software mit ausreichend kapazität.

nicht zu vergessen: ausfallsicherheit gegen stromprobleme! usv's sind pflicht, nicht unbedingt nur für die server, sondern auch für switche und wichtige arbeitsplatzrechner. ebenso gehört ein überspannungsschutz her.

was soll denn der abgesicherte modus? sichere doch lieber in ein san, das ist skalierbar und selber für viren unempfindlich.

nu bin ich auch erst mal leer im kopf - muss sortieren und bin gespannt was noch so kommt.

der creyzee
Mitglied: creyzee
creyzee 06.02.2008 um 20:41:59 Uhr
Goto Top
vielleicht noch ne idee zum verbinden mehrerer switche: anstelle von lwl kannst auch mehrere gbit-leitungen trunken. ich habe zwischen unseren switchen 2gbit-trunks eingerichtet: es werden also 2 leitungen zu einer virtuellen zusammengefasst. bei uns sind maximal 3gbit-trunks möglich.

das ist bestimmt günstiger face-big-smile

der creyzee
Mitglied: wiesi200
wiesi200 06.02.2008 um 21:20:53 Uhr
Goto Top
Gigbit bringt dir unwehsentlich mehr als ne 100Mbit denn die Festplatten können die Datenmenge nicht speichern aber da Gigbit eh schon Standart ist braucht man da eigentlich keinen Gedanken mehrverschwenden. Gut 10€ Hubs würd ich nicht einsetzten.
Du brauchst einen Server mit schnellen Platten "SAS".
Ein vernünftiges Konzept welche Ausfallsicherheit du brauchst, dementsprechend Datensicherung, Hardware, USV usw. anpassen.
Und als Zugabe eftl. ein Documentenmanagementsystem damit man die Daten strukturiert ablegen kann (aber das ist wirklich nicht unbedingt nötig).
Ach LWL sind auch nicht schneller als Kupferkabel du kannst nur besser längere Strecken überbrücken.
Mitglied: Rafiki
Rafiki 06.02.2008 um 21:39:31 Uhr
Goto Top
Die billige Lösung:
Jeder arbeitet auch weiterhin lokal auf "seinem" Computer. Ein Backupprogramm wie z.B. Cobiancopy sichert das Arbeitsverzeichnis mehrmals am Tag automatisch auf einen Server. Dann ist die Geschwindigkeit nicht ganz so wichtig.

Der kleine Plan:
Alle Arbeitsplätze die mit diesen großen Dateien arbeiten sollen haben einen GBit Anschluss. Als Switch kommt Beispielsweise ein HP Procurve 2810 in betracht. Mindestens zwei Server bieten die Daten an und kopieren sich gegenseitig die aktuellen Updates. Beispiel kann hier der Windows Server 2003 mit R2 sein. Das stark verbesserte DFS - Distributet File System, macht den Ausfall von einem Server gegenüber den Anwendern transparent.

Der teure Plan:
In einem großen Grafikstudio könnte es theoretisch zu einem Engpass bei Gigabit kommen. Anbieter vie EMC oder NetApp bieten dafür ein SAN - Sorage Area Network an. Ein gutes hoch performantes SAN hat z.B. FC - Fiberchannel für die Geräte und die Festplatten. Eine mehrfache Redundanz, eine Archivfunktion und stündliche Snapshots gehören zur Standard Ausrüstung.
Beispiel NetApp 3070 mit 4gbit FC, max. 250TB und bis zu 500 Festplatten, 4 ganze 19" Schränke voll.
Durch das geschickte verteilen der Daten auf mehrere Festplatten und durch optimale Cachetechnik können die Daten deutlich schneller gelesen werden als das mit Festplatten der Fall wäre die direkt in einen Server eingebaut werden.

Für das kleinste Modell von EMS oder NetApp würde ich mir ein tolles neues Auto kaufen. Selbstverständlich will man aber auch diese Geräte redundant haben. Dazu kommen noch die passende Stromversorgung mit Notstrom und auch eine Klimaanlage.

Gruß Rafiki
Mitglied: circassia
circassia 06.02.2008 um 22:21:00 Uhr
Goto Top
Hi,

bin echt überrascht über die vielen Ansätze, nochdazu um diese Uhrzeit face-smile

@creyzee

ich werde deine Punkte beachten und mal ein "BeispielProjekt" erstellen, dann können wir die weiteren Punkte abwägen. Mache mich an die arbeit...

face-smile Freu mich schon aufs Tut!
Mitglied: creyzee
creyzee 01.04.2008 um 20:45:58 Uhr
Goto Top
na, arbeitest du noch an dem beispielprojekt? habs noch nicht vergessen... face-big-smile