Outsourcing Rechenzentrum. Bandbreite?
Hallo,
Stand ist:
6 ESX-Hosts, darauf 200 virtuelle Server
Jeder ESX-Host ist mit 2x 25G angebunden, insgesamt also 300G
Stand soll (bzw. die Idee von manchen Entscheidern):
Die 200 virtuellen Server werden outgesourct in irgendein externes Rechenzentrum.
Liege ich falsch, wenn ich sage, dass das eine völlig absurde Idee ist. Selbst wenn die 300Mbit-Leitung durch 2 x 1Gbit-Leitungen (Redundanz) ersetzt werden, tausche ich damit
eine 300Gbit Verbindung zwischen Servern und Client's
in eine 1Gbit Verbindung zwischen Servern und Client's
Oder wie seht ihr das?
Danke
Gruß
Martin
Stand ist:
6 ESX-Hosts, darauf 200 virtuelle Server
Jeder ESX-Host ist mit 2x 25G angebunden, insgesamt also 300G
- 300 FAT-Client's
- 400 Thin-Client's (die dazugehörigen Terminalserver laufen auf den ESXen)
- 200 Drucker
- dutzende sonstige bildgebende Geräte, die nicht unwesentliche Daten an die Server schicken
- synchrone 300Mbit Internetanbindung
Stand soll (bzw. die Idee von manchen Entscheidern):
Die 200 virtuellen Server werden outgesourct in irgendein externes Rechenzentrum.
Liege ich falsch, wenn ich sage, dass das eine völlig absurde Idee ist. Selbst wenn die 300Mbit-Leitung durch 2 x 1Gbit-Leitungen (Redundanz) ersetzt werden, tausche ich damit
eine 300Gbit Verbindung zwischen Servern und Client's
in eine 1Gbit Verbindung zwischen Servern und Client's
Oder wie seht ihr das?
Danke
Gruß
Martin
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 4735455533
Url: https://administrator.de/forum/outsourcing-rechenzentrum-bandbreite-4735455533.html
Ausgedruckt am: 26.12.2024 um 21:12 Uhr
16 Kommentare
Neuester Kommentar
Hi.
Du siehst das falsch.
Wenn deine Server mit je 2x25 GBit ans lokale Netzwerk angebunden waren und deine Clients alle eine 1 GBit NIC hatten, ist die Geschwindigkeit zwischen Servern und Clients ja vorher schon 1 GBit gewesen.
Aufgrund des VPN Tunnels ins Rechenzentrum wird nicht die Fülle der 1 GBit Internetleitung zur Verfügung stehen.
Wenn 700 Clients auf Remote Desktop Server zugreifen sollen, würde ich da vielleicht 2 x 1 GBit Internetleitungen im Load Balancing betreiben.
Gerade wenn noch ein Offline Backup zur Firma gepumpt werden soll, wäre zumindest eine separate Leitung. empfehlenswert.
Gruß
Marc
Zitat von @AlbertMinrich:
Liege ich falsch, wenn ich sage, dass das eine völlig absurde Idee ist. Selbst wenn die 300Mbit-Leitung durch 2 x 1Gbit-Leitungen (Redundanz) ersetzt werden, tausche ich damit
eine 300Gbit Verbindung zwischen Servern und Client's
in eine 1Gbit Verbindung zwischen Servern und Client's
Liege ich falsch, wenn ich sage, dass das eine völlig absurde Idee ist. Selbst wenn die 300Mbit-Leitung durch 2 x 1Gbit-Leitungen (Redundanz) ersetzt werden, tausche ich damit
eine 300Gbit Verbindung zwischen Servern und Client's
in eine 1Gbit Verbindung zwischen Servern und Client's
Du siehst das falsch.
Wenn deine Server mit je 2x25 GBit ans lokale Netzwerk angebunden waren und deine Clients alle eine 1 GBit NIC hatten, ist die Geschwindigkeit zwischen Servern und Clients ja vorher schon 1 GBit gewesen.
Aufgrund des VPN Tunnels ins Rechenzentrum wird nicht die Fülle der 1 GBit Internetleitung zur Verfügung stehen.
Wenn 700 Clients auf Remote Desktop Server zugreifen sollen, würde ich da vielleicht 2 x 1 GBit Internetleitungen im Load Balancing betreiben.
Gerade wenn noch ein Offline Backup zur Firma gepumpt werden soll, wäre zumindest eine separate Leitung. empfehlenswert.
Gruß
Marc
2x 1GBit ist viel aber auch wenig. je nach dem was man macht.
Habt ihr die Möglichkeit die Interfaces über die die Clients kommen zu drosseln? Über den Switchport z. B.? Dann habt ihr einen Proof of Concept als Momentaufnahme.
Habt ihr die Möglichkeit die Interfaces über die die Clients kommen zu drosseln? Über den Switchport z. B.? Dann habt ihr einen Proof of Concept als Momentaufnahme.
Zitat von @AlbertMinrich:
Wenn deine Server mit je 2x25 GBit ans lokale Netzwerk angebunden waren und deine Clients alle eine 1 GBit NIC hatten, ist die Geschwindigkeit zwischen Servern und Clients ja vorher schon 1 GBit gewesen.
Das ist schon klar. Aber wenn 30 verschiedene Clients mit 30 Server "sprechen", können sie alle mit 1Gbit sprechen. Wenn Sie das gleiche über eine 1Gbit Internetleitung machen, bleiben für jeden Client nur 33Mbit.
Wenn deine Server mit je 2x25 GBit ans lokale Netzwerk angebunden waren und deine Clients alle eine 1 GBit NIC hatten, ist die Geschwindigkeit zwischen Servern und Clients ja vorher schon 1 GBit gewesen.
Das ist schon klar. Aber wenn 30 verschiedene Clients mit 30 Server "sprechen", können sie alle mit 1Gbit sprechen. Wenn Sie das gleiche über eine 1Gbit Internetleitung machen, bleiben für jeden Client nur 33Mbit.
Für RDP reicht das dicke.
Wenn ich mir vorstelle, 300 FAT-Client's ziehen morgens um 8 Uhr ihr Profil ... wie soll das gehen.
Roaming Profiles geht kaum via VPN / Internet, IMHO.
Die Fat Clients sollten perspektivisch auch auf RDS umgezogen werden, es sei denn das sind alles beispielsweise CAD Workstations. Dann wäre VDI hier der Ansatz (Lizenzkosten nicht zu verachten an der Stelle).
Größere Datenmengen sollten nicht von den Clients zu den RZ Servern übertragen werden.
Gruß
Marc
Also - wenn du für ne Terminal-Server-Verbindung ne GBit-Verbindung auslastest läuft irgendwas verkehrt... Vermutlich wird das aber ja auch nicht der Fall sein. Was also bedeutet das du zwar aktuell ggf. 1 GBit hast aber ich würde mal die NETTO-Rate angucken. Was bringts dir wenn du zwar 1 GBit hast aber davon grad mal 1 MBit genutzt wird?
Als nächstes würde ich klären WARUM das gemacht werden soll. Es kann ja durchaus gute Gründe geben - oder es ist nur mal wieder irgendein Bullsh...Bingo bei dem irgendwelchen Mgmt-Buzzwords erfolgreich durchgekommen sind. Dabei muss man aber eben wirklich neutral gucken - es KANN ja sein das es günstiger ist wenn man die Verbindung redundant auslegt (grad zB. in Zeiten von Homeoffice). Es kann auch sein das es zB. eh grad Zeit ist die Server zu ersetzen - auch das kann ja hier keiner wissen.
Am Ende ist es aber ja eh egal - wenn die obere Etage sagt "wollen wir aber unbedingt" dann kannst du nur dein bestes tun um es umzusetzen... Es wäre nicht das erste mal das auf externe gehört wird weil die ne tolle powerpoint hatten und die eigenen Leute ja angeblich nur keine Ahnung haben...
Als nächstes würde ich klären WARUM das gemacht werden soll. Es kann ja durchaus gute Gründe geben - oder es ist nur mal wieder irgendein Bullsh...Bingo bei dem irgendwelchen Mgmt-Buzzwords erfolgreich durchgekommen sind. Dabei muss man aber eben wirklich neutral gucken - es KANN ja sein das es günstiger ist wenn man die Verbindung redundant auslegt (grad zB. in Zeiten von Homeoffice). Es kann auch sein das es zB. eh grad Zeit ist die Server zu ersetzen - auch das kann ja hier keiner wissen.
Am Ende ist es aber ja eh egal - wenn die obere Etage sagt "wollen wir aber unbedingt" dann kannst du nur dein bestes tun um es umzusetzen... Es wäre nicht das erste mal das auf externe gehört wird weil die ne tolle powerpoint hatten und die eigenen Leute ja angeblich nur keine Ahnung haben...
Moin,
Ich schaue mir gerade die 200 Drucker an…
die darf man nicht unterschätzen. Wenn hier nicht via ThinPrint etc. eingegriffen wird, kann das man schnell für dünne Leitungen und latent aggressive Führungskräfte sorgen, weil deren 400MB Excel gerade nicht öffnet….
Bei den ThinClients ist das entspannt… die brauchen kaum was an Bandbreite.
Die FatClients könnte man gegen VDI-Lösungen ersetzen und als Endgerät dann auch ThinClients/ (private) Endgeräte nutzen…
Ich schaue mir gerade die 200 Drucker an…
die darf man nicht unterschätzen. Wenn hier nicht via ThinPrint etc. eingegriffen wird, kann das man schnell für dünne Leitungen und latent aggressive Führungskräfte sorgen, weil deren 400MB Excel gerade nicht öffnet….
Bei den ThinClients ist das entspannt… die brauchen kaum was an Bandbreite.
Die FatClients könnte man gegen VDI-Lösungen ersetzen und als Endgerät dann auch ThinClients/ (private) Endgeräte nutzen…
MoinMoin
Mein Senf darf nicht fehlen
Solche Berechnungen waren nie in meinem Bereich.
Ich kann nur sagen was Ich als Vor ort Supporter, vor 10 Jahren... , mit einem ähnliche Szenario erlebt hatte:
Es klappte mit ThinClient, bzw wer mal im Home-Office Arbeiten durfte auch mit einer Anbindung über eine Web-Interface-Lösung von VMWare, ganz gut.
Ja, die die zur Hauptanmelde zeit sich angemeldet haben haben gestöhnt weil das Anmelden zäh war.
Die die schon angemeldet waren hatten aber keine Probleme bis auf das es etwas langsamer wurde.
Niveau wenn der Virenscanner arbeitet.
Akzeptabel.
Sprich, die hatten ein vernünftiges Load-Balancing gefunden.
Ich hatte mich damals leider nicht mehr dafür interessiert als das ICh genaueres sagen kann.
Mein eigentliches Thema sind aber die 200 Drucker:
Bitte ganz schnell bei so einem Szenario klassische PrintServer vergessen !
Ein 5 Seiten PDF Dokument von 1,3MB hat umgewandelt als Druckdatenstrom gerne mal knapp 60MB.
Und es KOMMEN Zeiten wo irgendwas dringend von vielen fertig gestellt werden muss die ALLE drucken müssen...
Man kann aber mit zB vernünftigen Print & Follow Systemen agieren. Da kann man den Druckdatenstrom anders zum Drucker leiten.
Auch eine Möglichkeit wären XPS v4 Treiber.
Bei XPS v4 Treibern ist ein großes ABER dabei:
Druckdatenströme waren in meinem Test sogar kleiner als die Source PDF (0,1MB kleiner bei 1,4MB Größe).
Nur.
In der Kyo Welt wo Ich agiere, müssen die MFP die XPS Datenströme umrechnen bevor sie sie ausdrucken können.
==> Sie verlieren dabei VIEL Zeit und Performance.
Kann nebensächlich sein. Vor allem mit einem Print & Follow System wie MyQ wo man den Druckjob zum Server schickt und irgendwann sich am Drucker authentifiziert und die dann abholt.
Aber mit so einem System kann, und muss auch, man die Drucker abseits halten vom regulären.
Ja, wenn viel gedruckt werden soll, wäre die Überlegung an diesen Standorten einen kleinen "Printserver" als Zwischenlager hinzustellen.
Das kann wirklich ein simpler 1L PC mit vernünftiger CPU, genug RAM (32GB) und einer NVMe sein.
Der lagert die Jobs zwischen, damit die Belastung kleiner ist und die Übertragungszeiten geringer.
Fällt der aus wird die Gesamtlast "nur" größer und das Abholen langsamer.
Aber er muss aus dem Grund nicht echt redunant sein.
Es reicht einen auf Reserve zu haben damit der im Notfall getauscht werden kann.
Vor allem wenn die Lieferengpässe zunehmen
Kurz gesagt:
Druckdaten ströme sind WIRKLICH groß.
Man sollte das nicht auf die leichte Schulter nehmen.
Schau dir mal durchschnittliche Datenströme bei euch an.
Und kontaktiere einen Fachmann des Vertrauens.
Mein Senf darf nicht fehlen
Solche Berechnungen waren nie in meinem Bereich.
Ich kann nur sagen was Ich als Vor ort Supporter, vor 10 Jahren... , mit einem ähnliche Szenario erlebt hatte:
Es klappte mit ThinClient, bzw wer mal im Home-Office Arbeiten durfte auch mit einer Anbindung über eine Web-Interface-Lösung von VMWare, ganz gut.
Ja, die die zur Hauptanmelde zeit sich angemeldet haben haben gestöhnt weil das Anmelden zäh war.
Die die schon angemeldet waren hatten aber keine Probleme bis auf das es etwas langsamer wurde.
Niveau wenn der Virenscanner arbeitet.
Akzeptabel.
Sprich, die hatten ein vernünftiges Load-Balancing gefunden.
Ich hatte mich damals leider nicht mehr dafür interessiert als das ICh genaueres sagen kann.
Mein eigentliches Thema sind aber die 200 Drucker:
Bitte ganz schnell bei so einem Szenario klassische PrintServer vergessen !
Ein 5 Seiten PDF Dokument von 1,3MB hat umgewandelt als Druckdatenstrom gerne mal knapp 60MB.
Und es KOMMEN Zeiten wo irgendwas dringend von vielen fertig gestellt werden muss die ALLE drucken müssen...
Man kann aber mit zB vernünftigen Print & Follow Systemen agieren. Da kann man den Druckdatenstrom anders zum Drucker leiten.
Auch eine Möglichkeit wären XPS v4 Treiber.
Bei XPS v4 Treibern ist ein großes ABER dabei:
Druckdatenströme waren in meinem Test sogar kleiner als die Source PDF (0,1MB kleiner bei 1,4MB Größe).
Nur.
In der Kyo Welt wo Ich agiere, müssen die MFP die XPS Datenströme umrechnen bevor sie sie ausdrucken können.
==> Sie verlieren dabei VIEL Zeit und Performance.
Kann nebensächlich sein. Vor allem mit einem Print & Follow System wie MyQ wo man den Druckjob zum Server schickt und irgendwann sich am Drucker authentifiziert und die dann abholt.
Aber mit so einem System kann, und muss auch, man die Drucker abseits halten vom regulären.
Ja, wenn viel gedruckt werden soll, wäre die Überlegung an diesen Standorten einen kleinen "Printserver" als Zwischenlager hinzustellen.
Das kann wirklich ein simpler 1L PC mit vernünftiger CPU, genug RAM (32GB) und einer NVMe sein.
Der lagert die Jobs zwischen, damit die Belastung kleiner ist und die Übertragungszeiten geringer.
Fällt der aus wird die Gesamtlast "nur" größer und das Abholen langsamer.
Aber er muss aus dem Grund nicht echt redunant sein.
Es reicht einen auf Reserve zu haben damit der im Notfall getauscht werden kann.
Vor allem wenn die Lieferengpässe zunehmen
Kurz gesagt:
Druckdaten ströme sind WIRKLICH groß.
Man sollte das nicht auf die leichte Schulter nehmen.
Schau dir mal durchschnittliche Datenströme bei euch an.
Und kontaktiere einen Fachmann des Vertrauens.
Zitat von @maretz:
Also - wenn du für ne Terminal-Server-Verbindung ne GBit-Verbindung auslastest läuft irgendwas verkehrt...
Er hat 300 Fat-Clients und 200 Drucker. Dazu "dutzende sonstige bildgebende Geräte, die nicht unwesentliche Daten an die Server schicken". Also gehen da vermutlich recht viele und große Daten von den Servern zu den Fat-Clients und zu den Druckern.Also - wenn du für ne Terminal-Server-Verbindung ne GBit-Verbindung auslastest läuft irgendwas verkehrt...
ja - und jede
Ja - und jeder dieser "Fat Clients" hat 1 Gbit. Hier ist es einfach eine Abwägung was am Ende Sinn macht - und das kann hier keiner Wissen ohne den Betrieb zu kennen. Wenn von den 300 Rechnern 250 zB. nur Office machen und ab und an nen Word-File ausdrucken wären die ja schonmal kein grosser Aufwand. Wenn dann irgendwelche Grafik-Lastigen Rechner da stehen kann es halt Wirtschaftlich besser sein zu sagen das die Person dann eben mal 2 Min auf nen Druck wartet (wenn die zB. idR. nur eben einmal am Tag wirklich was druckt was länger dauert). Dafür spart man sich eben die gesamten internen Rechner (was ja auch idR. Wartungsverträge, Ersatzteile,... - und am Ende ggf. sogar Arbeitskräfte sind). Umgekehrt kanns natürlich genauso sein - wenn die Rechner irgendwelche Videobearbeitung machen, wirkliche Echtzeit-Anforderungen für Berechnungen haben,... -> dann kann das Ergebnis sein das es einfach nicht geht.
Aber die reine Aussage das die Rechner eben ne GBit-Anbindung haben sagt nunmal nix aus. Das hat mein Rechner auch (überraschend heute, oder? ;) ). Selbst wenn ich den aufs WLAN packen würde - der einzige Unterschied wäre das die Timemachine als Backup länger braucht (da die aber im Hintergrund läuft wäre das ja relativ egal). Wenn die Leitung eben 99% der Zeit kaum genutzt wird ist es schön wenn die nen GBit hat, es kann aber eben da durchaus sein das es wirtschaftlich besser wäre das umzubauen. Ohne die Firma u. die Verträge zu kennen glaube ich kann man da wenig zu sagen.
Zitat von @StefanKittel:
Zitat von @maretz:
Also - wenn du für ne Terminal-Server-Verbindung ne GBit-Verbindung auslastest läuft irgendwas verkehrt...
Er hat 300 Fat-Clients und 200 Drucker. Dazu "dutzende sonstige bildgebende Geräte, die nicht unwesentliche Daten an die Server schicken". Also gehen da vermutlich recht viele und große Daten von den Servern zu den Fat-Clients und zu den Druckern.Also - wenn du für ne Terminal-Server-Verbindung ne GBit-Verbindung auslastest läuft irgendwas verkehrt...
Ja - und jeder dieser "Fat Clients" hat 1 Gbit. Hier ist es einfach eine Abwägung was am Ende Sinn macht - und das kann hier keiner Wissen ohne den Betrieb zu kennen. Wenn von den 300 Rechnern 250 zB. nur Office machen und ab und an nen Word-File ausdrucken wären die ja schonmal kein grosser Aufwand. Wenn dann irgendwelche Grafik-Lastigen Rechner da stehen kann es halt Wirtschaftlich besser sein zu sagen das die Person dann eben mal 2 Min auf nen Druck wartet (wenn die zB. idR. nur eben einmal am Tag wirklich was druckt was länger dauert). Dafür spart man sich eben die gesamten internen Rechner (was ja auch idR. Wartungsverträge, Ersatzteile,... - und am Ende ggf. sogar Arbeitskräfte sind). Umgekehrt kanns natürlich genauso sein - wenn die Rechner irgendwelche Videobearbeitung machen, wirkliche Echtzeit-Anforderungen für Berechnungen haben,... -> dann kann das Ergebnis sein das es einfach nicht geht.
Aber die reine Aussage das die Rechner eben ne GBit-Anbindung haben sagt nunmal nix aus. Das hat mein Rechner auch (überraschend heute, oder? ;) ). Selbst wenn ich den aufs WLAN packen würde - der einzige Unterschied wäre das die Timemachine als Backup länger braucht (da die aber im Hintergrund läuft wäre das ja relativ egal). Wenn die Leitung eben 99% der Zeit kaum genutzt wird ist es schön wenn die nen GBit hat, es kann aber eben da durchaus sein das es wirtschaftlich besser wäre das umzubauen. Ohne die Firma u. die Verträge zu kennen glaube ich kann man da wenig zu sagen.
Wir haben Hunderttausende Gigabit Ports am Monitoring und ich kann sagen, dass der Bandbreitenbedarf auch und seitens Administratoren zu 99,999% astronomisch falsch eingeschätzt werden.
Moin,
Wie du sicherlich gemerkt hast, spielen viele Faktoren (technisch, wirtschaftlich, organisatorisch) und auch Rahmenbedingungen der Art der Nutzung bei den Überlegungen mit hinein. Das können wir hier im Forum gar nicht ausführlich besprechen. Weil es von vielen Details abhängt, die evtl. auch du noch gar nicht kennst. Die aber aufgezeigt und mit möglichen Optionen für ein Outsouring versehen werden müssen. Denn schlussendlich muss die Geschäftsführung alle Vor- und Nachteile für eine Entscheidung bekannt sein. Es nützt euch nichts, wenn am ersten Tag der Umstellung die IT steht und 700 Leute nichts tun können.
Gruß,
Dani
Die Fat Clients sollten perspektivisch auch auf RDS umgezogen werden, es sei denn das sind alles beispielsweise CAD Workstations. Dann wäre VDI hier der Ansatz (Lizenzkosten nicht zu verachten an der Stelle).
Nicht nur die Lizenzkosten... da spielen noch ganze andere Faktoren wie Storage I/O, Backup & Recovery, Dimensionierung der physikalischen Server, Wartung und Ausfall, Qualifizierung der IT, Eingabegeräte der Endnutzer, etc.) eine wichtige Rolle. Das ist auch nicht einfach mal so geplant und umgestellt.Also - wenn du für ne Terminal-Server-Verbindung ne GBit-Verbindung auslastest läuft irgendwas verkehrt...
Naja, das hängt schlussendlich von der Anzahl der Anwender und den Interaktionen ab. Ich sag nur USB-Stick, Smartphone, Tablet...Die FatClients könnte man gegen VDI-Lösungen ersetzen und als Endgerät dann auch ThinClients/ (private) Endgeräte nutzen…
Die objektive (wirtschaftlich als auch organsatorisch) Berechung möchte ich sehen, die den Umzug bei der Stückzahl bestätigt.Es klappte mit ThinClient, bzw wer mal im Home-Office Arbeiten durfte auch mit einer Anbindung über eine Web-Interface-Lösung von VMWare, ganz gut.
Temporär auf einer HTML5 Oberfläche zu arbeiten ist zumutbar. Aber dauerhaft kann ich dir sagen, dass viele Benutzer auf den jeweiligen Client wechseln. In den meisten mir bekannten Fällen geht es dabei um das gewohnte Verhalten des Arbeitsplatzes als würde man davor sitzen (Skalierung von Festern, Tastenkombinationen. Bildbearbeitung, CAD, Youtube, etc.).Druckdaten ströme sind WIRKLICH groß.
Man sollte das nicht auf die leichte Schulter nehmen.
Das Problem relativiert sich, wenn die restlichen 300 FAT Clients entweder auf RDS oder VDI umgezogen werden. Dann ist der Stream nämlich ein Download (RZ -> Drucker) was in der Bandbreite wirtschaftlich günstiger sein wird.Man sollte das nicht auf die leichte Schulter nehmen.
Wie du sicherlich gemerkt hast, spielen viele Faktoren (technisch, wirtschaftlich, organisatorisch) und auch Rahmenbedingungen der Art der Nutzung bei den Überlegungen mit hinein. Das können wir hier im Forum gar nicht ausführlich besprechen. Weil es von vielen Details abhängt, die evtl. auch du noch gar nicht kennst. Die aber aufgezeigt und mit möglichen Optionen für ein Outsouring versehen werden müssen. Denn schlussendlich muss die Geschäftsführung alle Vor- und Nachteile für eine Entscheidung bekannt sein. Es nützt euch nichts, wenn am ersten Tag der Umstellung die IT steht und 700 Leute nichts tun können.
Gruß,
Dani
Zitat von @Dani:
Es klappte mit ThinClient, bzw wer mal im Home-Office Arbeiten durfte auch mit einer Anbindung über eine Web-Interface-Lösung von VMWare, ganz gut.
Temporär auf einer HTML5 Oberfläche zu arbeiten ist zumutbar. Aber dauerhaft kann ich dir sagen, dass viele Benutzer auf den jeweiligen Client wechseln. In den meisten mir bekannten Fällen geht es dabei um das gewohnte Verhalten des Arbeitsplatzes als würde man davor sitzen (Skalierung von Festern, Tastenkombinationen. Bildbearbeitung, CAD, Youtube, etc.).Naja,
Das war vor ca 10 Jahren wie beschrieben. Und da war HO / mobiles Arbeiten der absolute Luxus
Ja, für dauerhaftes Arbeiten ist das nicht wirklich ausreichend. Da hatten wir auch entsprechende Software von VM.
Die wir aber ungerne in Fällen von einmaligen HO oder so installiert haben.
(HTML5 konnte jeder nutzen der so eine VM hatte. Vor dem Installieren haben wir eine Genehmigung geschoben )
Moin,
Gruß,
Dani
Ich überspitze mal ein wenig. Ja, ein Umzug des RZ's in die Cloud ist möglich, aber nur unter folgenden
Voraussetzungen:
Nein, mit entsprechender Bandbreite ist das kein Problem. Das gilt es natürlich genau zu betrachten, zu planen und zu bewerten. Das ist schließlich eines der wichtigsten Kriterien für die restlichen Bewertungen wie Fat-Clients, etc. Das muss objektiv und realsistisch betrachtet werden.Voraussetzungen:
Gruß,
Dani