Netzwerkstrukturen Server mit und ohne Internetzugriff
Hallo zusammen,
ich arbeite nun seit einiger Zeit im Bereich der IT und habe hier bei einigen Firmen Praktikas absolviert und konnte mir einiges über Firmen Netzwerke aneignen.
Bei meinen Stationen ist mir vor allem eines aufgefallen und zwar die sehr unterschiedlichen Strukturen (Designs) der Netzwerke in den unterschiedlichen Firmen.
Zum Beispiel folgendes:
Firma A: Hat ein komplettes vom Internet abgeriegeltes Netzwerk. Kein Server hat eine bestehende Internetverbindung. Lediglich ein paar Clients kommen ins Internet.
Firma B: Hat ein gemischtes Netzwerk mit DMZ hier stehen einige Server mit einem Bein im Internet und manche wiederum nicht.
Firma C: Hier haben viele Server unter anderem auch DC's usw. eine bestehende Internetverbindung.
In meinen Augen hatte alles seine Vor- und Nachteile, natürlich wird wohl die sicherste Variante die der Firma A sein.
Was ich nun nicht ganz verstehe ist, wie entscheidet man, welche Variante man in eine Firma einführt?
Gibt es da soetwas wie eine goldene Regel? Die für mich einleuchtenste Variante wäre normalerweise eine Netzwerkstruktur mit einer funktionierenden DMZ. Da man z.B. Mailserver somit auch im Internet erreichen kann.
Oder beruht das Ganze auf Vertrauen der Sicherheitstechnologien in einem Netzwerk, dass z.B. Firma C Server mit dem Internet kommunizieren lässt?
Ich hoffe ich habe das Thema im richtigen Segment eröffnet und meine Frage stößt etwas auf Akzeptanz, die Frage stelle ich mir schon sehr lange und die Administratoren der unterschiedlichen Firmen konnten mir immer nur eine pauschale Antwort für ihren Fall in der Firma geben, aber keine die das Thema auflößt.
ich arbeite nun seit einiger Zeit im Bereich der IT und habe hier bei einigen Firmen Praktikas absolviert und konnte mir einiges über Firmen Netzwerke aneignen.
Bei meinen Stationen ist mir vor allem eines aufgefallen und zwar die sehr unterschiedlichen Strukturen (Designs) der Netzwerke in den unterschiedlichen Firmen.
Zum Beispiel folgendes:
Firma A: Hat ein komplettes vom Internet abgeriegeltes Netzwerk. Kein Server hat eine bestehende Internetverbindung. Lediglich ein paar Clients kommen ins Internet.
Firma B: Hat ein gemischtes Netzwerk mit DMZ hier stehen einige Server mit einem Bein im Internet und manche wiederum nicht.
Firma C: Hier haben viele Server unter anderem auch DC's usw. eine bestehende Internetverbindung.
In meinen Augen hatte alles seine Vor- und Nachteile, natürlich wird wohl die sicherste Variante die der Firma A sein.
Was ich nun nicht ganz verstehe ist, wie entscheidet man, welche Variante man in eine Firma einführt?
Gibt es da soetwas wie eine goldene Regel? Die für mich einleuchtenste Variante wäre normalerweise eine Netzwerkstruktur mit einer funktionierenden DMZ. Da man z.B. Mailserver somit auch im Internet erreichen kann.
Oder beruht das Ganze auf Vertrauen der Sicherheitstechnologien in einem Netzwerk, dass z.B. Firma C Server mit dem Internet kommunizieren lässt?
Ich hoffe ich habe das Thema im richtigen Segment eröffnet und meine Frage stößt etwas auf Akzeptanz, die Frage stelle ich mir schon sehr lange und die Administratoren der unterschiedlichen Firmen konnten mir immer nur eine pauschale Antwort für ihren Fall in der Firma geben, aber keine die das Thema auflößt.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 978453020
Url: https://administrator.de/forum/netzwerkstrukturen-server-mit-und-ohne-internetzugriff-978453020.html
Ausgedruckt am: 22.12.2024 um 16:12 Uhr
12 Kommentare
Neuester Kommentar
Hallo,
eine goldene Regel könnte heißen "alles was nicht online gehen muss, darf auch nicht online gehen"
Wenn ein Server nur für eine interne Anwendung läuft, braucht er auch keine Internetverbindung.
Eine generelle Aussage ist hier aber schwierig.
Nur weil ein Server bei einer Firma nicht online gehen muss, kann es bei einer anderen Firma durchaus erforderlich sein.
Daher ist die Antwort der Administratoren richtig,
Außerdem hat jeder Admin da seine eigene Einschätzung was richtig oder falsch ist (ob die Einschätzung richtig ist, lasse ich mal offen...)
Ich hoffe mal das es nicht auf Vertrauen sondern auf Fakten beruht... und dass das alles schön gemonitort und überwacht wird..
Sonst kommst du Montag Morgen ins Büro... und erlebst sowas: Cyber Vorfall ...
brammer
eine goldene Regel könnte heißen "alles was nicht online gehen muss, darf auch nicht online gehen"
Wenn ein Server nur für eine interne Anwendung läuft, braucht er auch keine Internetverbindung.
Eine generelle Aussage ist hier aber schwierig.
Nur weil ein Server bei einer Firma nicht online gehen muss, kann es bei einer anderen Firma durchaus erforderlich sein.
Daher ist die Antwort der Administratoren richtig,
Administratoren der unterschiedlichen Firmen konnten mir immer nur eine pauschale Antwort für ihren Fall in der Firma geben,
aber keine die das Thema auflößt.
aber keine die das Thema auflößt.
Außerdem hat jeder Admin da seine eigene Einschätzung was richtig oder falsch ist (ob die Einschätzung richtig ist, lasse ich mal offen...)
Oder beruht das Ganze auf Vertrauen der Sicherheitstechnologien in einem Netzwerk, dass z.B. Firma C Server mit dem Internet
kommunizieren lässt?
kommunizieren lässt?
Ich hoffe mal das es nicht auf Vertrauen sondern auf Fakten beruht... und dass das alles schön gemonitort und überwacht wird..
Sonst kommst du Montag Morgen ins Büro... und erlebst sowas: Cyber Vorfall ...
brammer
Hi
Wenn unfähige Admins dann C
Wenn fähige Admins ohne Durchsetzungsvermögen mit unfähiger GF dann C
Ob man nun A oder B hat dürfte wohl bei den meisten Firmen bei der GF bzw der Firmenkultur liegen.
Wenn die IT Abteilung fähig ist und sich durchsetzen kann, dann hat so wenig Serverinfrastruktur Internetzugang, bzw der Internetzugang der vorhanden ist, ist genau geregelt.
Sobald mal andere Abteilungen hat die eigene Server nutzen wird es schwer sowas umzusetzen, weil die normalerweise gleich ungefiltertes Internet und Adminrechte wollen.
Es ist halt immer eine Drahtseilakt zwischen Security und Usability
Gibt es da soetwas wie eine goldene Regel?
Wenn fähige Admins und fähige GF, dann Variante A oder BWenn unfähige Admins dann C
Wenn fähige Admins ohne Durchsetzungsvermögen mit unfähiger GF dann C
Oder beruht das Ganze auf Vertrauen der Sicherheitstechnologien in einem Netzwerk
Hoffentlich nicht. Zero-Trust ist DAS Go-To was Security angeht. Vertraue niemanden, ist die erste Regel in der IT-Security.Ob man nun A oder B hat dürfte wohl bei den meisten Firmen bei der GF bzw der Firmenkultur liegen.
Wenn die IT Abteilung fähig ist und sich durchsetzen kann, dann hat so wenig Serverinfrastruktur Internetzugang, bzw der Internetzugang der vorhanden ist, ist genau geregelt.
Sobald mal andere Abteilungen hat die eigene Server nutzen wird es schwer sowas umzusetzen, weil die normalerweise gleich ungefiltertes Internet und Adminrechte wollen.
Es ist halt immer eine Drahtseilakt zwischen Security und Usability
Moin
Wir nutzen darüber hinaus auch eine White-List-Firewall. All unsere Server können ins Internet, allerdings (bis auf den WSUS) nur dann wenn sich der richtige Benutzer anmeldet der sich dann händisch noch einmal gegen die Firewall authentifiziert. Es gibt keinen Grund für den Printserver, Fileserver oder DC sich ständig mit dem Internet zu verbinden, aber es gibt gewisse Notwendigkeiten die es dann doch mal erzwingen.
- Was braucht der Kunde? Ändert sich von Kunde zu Kunde.
- Was ist der Kunde bereit an Aufwand in die Sicherheit zu investieren? Je sicherer das Netzwerk sein soll, desto mehr Aufwand muss man Betreiben. Je mehr Aufwand ich betreibe, desto mehr zeit muss ich da reinstecken. Je mehr Zeit ich reinstecke, desto teurer wird es.
- Was "glaubt" der Kunde kann er seinen Anwendern zumuten? Brauchen die MA wirklich Ihre Mails auf dem Handy? Müssen sie wirklich von allen Rechnern auf allen Websiten surfen können? Warum muss der Admin die Fehlermeldung des DCs im Browser des DCs bei Google eintippen und kann dafür nicht seinen eigenen Rechner nehmen?
Gruß
Doskias
ich arbeite nun seit einiger Zeit im Bereich der IT und habe hier bei einigen Firmen Praktikas absolviert und konnte mir einiges über Firmen Netzwerke aneignen.
Bei meinen Stationen ist mir vor allem eines aufgefallen und zwar die sehr unterschiedlichen Strukturen (Designs) der Netzwerke in den unterschiedlichen Firmen.
Zum Beispiel folgendes:
Firma A: Hat ein komplettes vom Internet abgeriegeltes Netzwerk. Kein Server hat eine bestehende Internetverbindung. Lediglich ein paar Clients kommen ins Internet.
Firma B: Hat ein gemischtes Netzwerk mit DMZ hier stehen einige Server mit einem Bein im Internet und manche wiederum nicht.
Firma C: Hier haben viele Server unter anderem auch DC's usw. eine bestehende Internetverbindung.
In meinen Augen hatte alles seine Vor- und Nachteile, natürlich wird wohl die sicherste Variante die der Firma A sein.
Ist sie in meinen Augen nicht. Wenn wirklich kein Server eine Internetverbindung hat, wird sich kein Server Updates installieren können. Folglich sind die Server über die Clients die einen Zugriff aufs Internet haben massiv gefährdet.Bei meinen Stationen ist mir vor allem eines aufgefallen und zwar die sehr unterschiedlichen Strukturen (Designs) der Netzwerke in den unterschiedlichen Firmen.
Zum Beispiel folgendes:
Firma A: Hat ein komplettes vom Internet abgeriegeltes Netzwerk. Kein Server hat eine bestehende Internetverbindung. Lediglich ein paar Clients kommen ins Internet.
Firma B: Hat ein gemischtes Netzwerk mit DMZ hier stehen einige Server mit einem Bein im Internet und manche wiederum nicht.
Firma C: Hier haben viele Server unter anderem auch DC's usw. eine bestehende Internetverbindung.
In meinen Augen hatte alles seine Vor- und Nachteile, natürlich wird wohl die sicherste Variante die der Firma A sein.
Was ich nun nicht ganz verstehe ist, wie entscheidet man, welche Variante man in eine Firma einführt?
Frag in deinem Praktikum einfach mal nach, wieso es so ist wie es ist. Was man im Endeffekt einsetzen will ist immer eine Mischung aus Bedarf, Sicherheit, Bequemlichkeit und Aufwand.Gibt es da soetwas wie eine goldene Regel?
Meiner Meinung nach ein klares nein.Die für mich einleuchtenste Variante wäre normalerweise eine Netzwerkstruktur mit einer funktionierenden DMZ. Da man z.B. Mailserver somit auch im Internet erreichen kann.
Und wozu? Bei uns läuft die Firma ganz gut auch ohne das der Mailserver vom Internet aus erreichbar ist. Dann bekommen die Anwender halt keine Mails aufs Handy, wenn sie nicht arbeiten. Und wenn Sie arbeiten haben Sie ihren Mail-Client offen. Wir kommen ganz gut zurecht, ohne das der Mailserver von extern erreichbar ist.Wir nutzen darüber hinaus auch eine White-List-Firewall. All unsere Server können ins Internet, allerdings (bis auf den WSUS) nur dann wenn sich der richtige Benutzer anmeldet der sich dann händisch noch einmal gegen die Firewall authentifiziert. Es gibt keinen Grund für den Printserver, Fileserver oder DC sich ständig mit dem Internet zu verbinden, aber es gibt gewisse Notwendigkeiten die es dann doch mal erzwingen.
Oder beruht das Ganze auf Vertrauen der Sicherheitstechnologien in einem Netzwerk, dass z.B. Firma C Server mit dem Internet kommunizieren lässt?
Nicht ausschließlich. Das ist aber ein Punkt den ich oben in er Mischung meinte. Wenn ich meinen Webserver im Unternehmen stehen habe, dann muss mein Webserver von außen erreichbar sein, der Printserver oder DC aber nicht. Unsere Website wird extern gehostet, also gibt es bei uns keinen Webserver der von außen erreichbar sein muss.Ich hoffe ich habe das Thema im richtigen Segment eröffnet und meine Frage stößt etwas auf Akzeptanz, die Frage stelle ich mir schon sehr lange und die Administratoren der unterschiedlichen Firmen konnten mir immer nur eine pauschale Antwort für ihren Fall in der Firma geben, aber keine die das Thema auflößt.
Du wirst auch hier keine auflösende allgemeine Antwort erhalten. Die Frage ist wie ich schon sagte stets:- Was braucht der Kunde? Ändert sich von Kunde zu Kunde.
- Was ist der Kunde bereit an Aufwand in die Sicherheit zu investieren? Je sicherer das Netzwerk sein soll, desto mehr Aufwand muss man Betreiben. Je mehr Aufwand ich betreibe, desto mehr zeit muss ich da reinstecken. Je mehr Zeit ich reinstecke, desto teurer wird es.
- Was "glaubt" der Kunde kann er seinen Anwendern zumuten? Brauchen die MA wirklich Ihre Mails auf dem Handy? Müssen sie wirklich von allen Rechnern auf allen Websiten surfen können? Warum muss der Admin die Fehlermeldung des DCs im Browser des DCs bei Google eintippen und kann dafür nicht seinen eigenen Rechner nehmen?
Gruß
Doskias
natürlich wird wohl die sicherste Variante die der Firma A sein.
Bis einer mal den USB Stick mit den Urlaubsvideos von zuhause mitbringt....wie entscheidet man, welche Variante man in eine Firma einführt?
Solltest du in deinen Praktikas eigentlich gelernt haben ?! Wie gehst du denn einen Hausbau and oder generell ein Projekt ?
Du definierst die Rahmenbedingungen, erstellst eine Sicherheitspolicy mit den Anforderungen an so ein Netzwerk was mit Datenschutz und GF abgestimmt ist, Desaster Recovery Plan inklusive, bestimmst das Infrastruktur Design und nur mal die einfachsten Sachen zu nennen.
Danach erstellst du ein Pflichtenheft mit einem Zeitplan und setzt es genau so um wie beschlossen.
Das lernt der Azubi doch im ersten Lehrjahr...
Naja - meistens entscheidet sich das doch ganz einfach: Die ITler wollen das gerne so sicher wie möglich machen... der Angestellte will aber so offen wie möglich arbeiten (natürlich darf da trotzdem nichts absemmeln...) - und am Ende wägt der Chef ab was gemacht wird.
Das kommt halt auch auf die Umgebung an - bist du z.B. in speziellen Plätzen wirds eher abgeschirmt. Stell dir mal z.B. ne Ölplattform, nen Schiff oder ggf. die ISS vor. Da willst du weder von der Bandbreite her das Updates automatisch geladen werden NOCH willst du das Risiko z.B. das du nen Space-Shuttle brauchst um da mal nen Server neu zu installieren. Also gibts da halt eher keine Verbindungen...
Andersrum hast du z.B. aufm Schiff ja ggf. auch Gäste - da wirst du also mehrere Zonen haben (müssen) - und dazu noch Crew die 24/7 Zeit hat Sachen auszuprobieren... Dabei kannst du aber auch nich permanent hingehen und Abmahnungen verteilen - das wäre zwar für den ein oder anderen IT das mittel der Wahl aber wird dazu führen das du Probleme bekommst weil die Moral runtergeht UND damit nen Guest-Impact aufkommt. Da werden dir schon Leute erzählen was du darfst und was nicht...
Von daher gibts nur eine Goldene Regel - es muss zum Unternehmen passen...
Das kommt halt auch auf die Umgebung an - bist du z.B. in speziellen Plätzen wirds eher abgeschirmt. Stell dir mal z.B. ne Ölplattform, nen Schiff oder ggf. die ISS vor. Da willst du weder von der Bandbreite her das Updates automatisch geladen werden NOCH willst du das Risiko z.B. das du nen Space-Shuttle brauchst um da mal nen Server neu zu installieren. Also gibts da halt eher keine Verbindungen...
Andersrum hast du z.B. aufm Schiff ja ggf. auch Gäste - da wirst du also mehrere Zonen haben (müssen) - und dazu noch Crew die 24/7 Zeit hat Sachen auszuprobieren... Dabei kannst du aber auch nich permanent hingehen und Abmahnungen verteilen - das wäre zwar für den ein oder anderen IT das mittel der Wahl aber wird dazu führen das du Probleme bekommst weil die Moral runtergeht UND damit nen Guest-Impact aufkommt. Da werden dir schon Leute erzählen was du darfst und was nicht...
Von daher gibts nur eine Goldene Regel - es muss zum Unternehmen passen...
Moin,
Auch wenn manche es verneinen, daß es eine gibt, die goldene Regel ist:
Das was das Risikomanagement als die beste Variante bewertet.
Und nu? D.h., Du mußt erstmal Risikoabschätzungen machen und schauen, welchen wirtschaftlichen Schaden eventuelle Vorfälle nach sich ziehen können und das gegen etwaige Produktivitätsverluste wegen "unbequemer Sicherheit" abwägen, und dann entscheiden, welche Maßnahmen sinnvoll sind und welche einen mehr kosten als sie einbringen.
Das ist z.B. auch der Grund, warum wir immer noch keine "absolut sicheren" Bankkarten zum Geldabheben haben. Der Schaden, der durch Mißbrauch verursacht wird und den die Banken tragen ist weitaus geringer als die Kosten, die es verursachen würde, um den Mißbrauchsschaden auf fast 0 zu drücken. Es wäre also unwirtschaftlich.
Genauso geht man auch bei Netzwerken und deren Sicherheit vor. Man bewertet, was passieren kann, den möglichen Schaden und den Aufwand, um den Schaden abzuwenden und entscheidet dann, was einem wichtig ist.
Von daher können alle drei Varianten, die du genannt hast, Ihre Berechtigung haben. Auch wenn Variante A von den meisten hier vorgezogen würde.
lks
Auch wenn manche es verneinen, daß es eine gibt, die goldene Regel ist:
Das was das Risikomanagement als die beste Variante bewertet.
Und nu? D.h., Du mußt erstmal Risikoabschätzungen machen und schauen, welchen wirtschaftlichen Schaden eventuelle Vorfälle nach sich ziehen können und das gegen etwaige Produktivitätsverluste wegen "unbequemer Sicherheit" abwägen, und dann entscheiden, welche Maßnahmen sinnvoll sind und welche einen mehr kosten als sie einbringen.
Das ist z.B. auch der Grund, warum wir immer noch keine "absolut sicheren" Bankkarten zum Geldabheben haben. Der Schaden, der durch Mißbrauch verursacht wird und den die Banken tragen ist weitaus geringer als die Kosten, die es verursachen würde, um den Mißbrauchsschaden auf fast 0 zu drücken. Es wäre also unwirtschaftlich.
Genauso geht man auch bei Netzwerken und deren Sicherheit vor. Man bewertet, was passieren kann, den möglichen Schaden und den Aufwand, um den Schaden abzuwenden und entscheidet dann, was einem wichtig ist.
Von daher können alle drei Varianten, die du genannt hast, Ihre Berechtigung haben. Auch wenn Variante A von den meisten hier vorgezogen würde.
lks
Zitat von @Doskias:
Ist sie in meinen Augen nicht. Wenn wirklich kein Server eine Internetverbindung hat, wird sich kein Server Updates installieren können. Folglich sind die Server über die Clients die einen Zugriff aufs Internet haben massiv gefährdet.
Ist sie in meinen Augen nicht. Wenn wirklich kein Server eine Internetverbindung hat, wird sich kein Server Updates installieren können. Folglich sind die Server über die Clients die einen Zugriff aufs Internet haben massiv gefährdet.
Du unterstellst hier, daß
- die Clients eine Internetverbindung haben.
- daß Updates absolut notwendig sind.
Bei einem abgeschotteten Netz kann es durchaus sein, daß Updates unerwünscht oder gar verboten sind, um definiertes Verhalten der Systeme zu gewährleisten und um nicht bei jedem Patch des Herstellers mit neuen Problemen konfrontiert zu werden. Insbesondere sind bei manchen Systemen manche gesetzlich notwendigen Zertifizierungen futsch, wenn man ein Update einspielt.
Außerdem kann man Umgebungen bauen, in denen auch die Clients keine Verbindung nach außen haben. Dann muß man nur noch dafür sorgen, daß nicht am Netzwerk vorbei über Datenträger oder Einagabegeräte (Tastaur, Maus) Malware reingetragen wird.
Außerdem gibt es Konzepte, solche abgeschotteten Server über definierte Schnittstellen mit dem "normalen" Firmennetzwerk kommunizieren zu lassen, so daß ein kompromittierter Client nicht allzuviel kaputtmachen kann.
Um solche Sachen zu beurteilen, muß man sich von dem Gedanken lösen, bei Server immer nur an Windows-Server und Active Directory und CIFS zu denken.
lks
Hi LKS,
Ja das ist richtig. Genau das unterstelle ich, denn er schreibt:
Ansonsten schreibst du ja noch:
Wir haben zum Beispiel auch Produktionsnetzwerke, die aus drei Geräten bestehen, die untereinander vernetzt sind, die keinen Internetanschluss haben, weil dort wie du beschreibst kritische Prozesse laufen, die nur auf den OS unterstützt werden. Das führt halt zwangsläufig dazu, dass alte OS im Einsatz sind, die sind dann aber nicht von anderen Rechnern erreichbar. Womit wir wieder bei der Frage des Aufwandes sind was man dem Anwender zumuten kann. Wir haben an einigen dieser Produktions-Dreiecke Kombination von Windows NT4.0, Dos 5.0 und Windows 10. Klar könnte ich den Windows 10 Rechner jetzt mit geeigneten Mitteln sicher oder aber der Anwender bekommt einen zweiten Rechner und ich bleibe bei einer strikten Trennung und erlaube lediglich einen Datenaustausch zwischen den Windows 10 Rechnern mittels eines geeigneten Mediums.
Wichtig ist vor allem wie du schreibst, und was meiner Erfahrung oft viel zu kurz kommt, die Unterbindung des Einsatzes von externen Datenträgern und Eingabegeräten.
Zitat von @Lochkartenstanzer:
Du unterstellst hier, daß
Zitat von @Doskias:
Ist sie in meinen Augen nicht. Wenn wirklich kein Server eine Internetverbindung hat, wird sich kein Server Updates installieren können. Folglich sind die Server über die Clients die einen Zugriff aufs Internet haben massiv gefährdet.
Ist sie in meinen Augen nicht. Wenn wirklich kein Server eine Internetverbindung hat, wird sich kein Server Updates installieren können. Folglich sind die Server über die Clients die einen Zugriff aufs Internet haben massiv gefährdet.
Du unterstellst hier, daß
- die Clients eine Internetverbindung haben.
- daß Updates absolut notwendig sind.
Ja das ist richtig. Genau das unterstelle ich, denn er schreibt:
Firma A: Hat ein komplettes vom Internet abgeriegeltes Netzwerk. Kein Server hat eine bestehende Internetverbindung. Lediglich ein paar Clients kommen ins Internet.
Ansonsten schreibst du ja noch:
Bei einem abgeschotteten Netz kann es durchaus sein, daß Updates unerwünscht oder gar verboten sind, um definiertes Verhalten der Systeme zu gewährleisten und um nicht bei jedem Patch des Herstellers mit neuen Problemen konfrontiert zu werden. Insbesondere sind bei manchen Systemen manche gesetzlich notwendigen Zertifizierungen futsch, wenn man ein Update einspielt.
Außerdem kann man Umgebungen bauen, in denen auch die Clients keine Verbindung nach außen haben. Dann muß man nur noch dafür sorgen, daß nicht am Netzwerk vorbei über Datenträger oder Einagabegeräte (Tastaur, Maus) Malware reingetragen wird.
Außerdem gibt es Konzepte, solche abgeschotteten Server über definierte Schnittstellen mit dem "normalen" Firmennetzwerk kommunizieren zu lassen, so daß ein kompromittierter Client nicht allzuviel kaputtmachen kann.
Um solche Sachen zu beurteilen, muß man sich von dem Gedanken lösen, bei Server immer nur an Windows-Server und Active Directory und CIFS zu denken.
lks
Alles richtig was du schreibst, aber ich habe aufgehört in Fragen etwas hineininterpretieren zu wollen. Wenn es, wie du beschreibst, besagte Anforderungen geben würde, bzw. diese elfriede bekannt wären, dann wäre es zum einen nicht zu dieser Frage gekommen und zum anderen hätte die Beschreibung zu Firma A anders ausgesehen. So wie die Situation in Firma A beschrieben ist gibt es nur ein Netzwerk.Außerdem kann man Umgebungen bauen, in denen auch die Clients keine Verbindung nach außen haben. Dann muß man nur noch dafür sorgen, daß nicht am Netzwerk vorbei über Datenträger oder Einagabegeräte (Tastaur, Maus) Malware reingetragen wird.
Außerdem gibt es Konzepte, solche abgeschotteten Server über definierte Schnittstellen mit dem "normalen" Firmennetzwerk kommunizieren zu lassen, so daß ein kompromittierter Client nicht allzuviel kaputtmachen kann.
Um solche Sachen zu beurteilen, muß man sich von dem Gedanken lösen, bei Server immer nur an Windows-Server und Active Directory und CIFS zu denken.
lks
Wir haben zum Beispiel auch Produktionsnetzwerke, die aus drei Geräten bestehen, die untereinander vernetzt sind, die keinen Internetanschluss haben, weil dort wie du beschreibst kritische Prozesse laufen, die nur auf den OS unterstützt werden. Das führt halt zwangsläufig dazu, dass alte OS im Einsatz sind, die sind dann aber nicht von anderen Rechnern erreichbar. Womit wir wieder bei der Frage des Aufwandes sind was man dem Anwender zumuten kann. Wir haben an einigen dieser Produktions-Dreiecke Kombination von Windows NT4.0, Dos 5.0 und Windows 10. Klar könnte ich den Windows 10 Rechner jetzt mit geeigneten Mitteln sicher oder aber der Anwender bekommt einen zweiten Rechner und ich bleibe bei einer strikten Trennung und erlaube lediglich einen Datenaustausch zwischen den Windows 10 Rechnern mittels eines geeigneten Mediums.
Wichtig ist vor allem wie du schreibst, und was meiner Erfahrung oft viel zu kurz kommt, die Unterbindung des Einsatzes von externen Datenträgern und Eingabegeräten.
Das Problem mit fehlenden Updates würde ich gänzlich nicht unterschätzen.
Wenn da irgendwie trotzdem mal eine Verbindung auftritt (Netzwerk-Konfig falsch, jemand steckt Kabel ein) hat man die A-Karte, speziell bei Windows-Rechnern, die gleich mal ein paar Serverdienste laufen haben.
Ich würde da ne SPI-FW davor machen und gut ist's.
Zu den Zertifizierungen sage ich mal lieber nichts, das ist aus IT-Sicherheit einfach nur ein GAU.
Wenn da irgendwie trotzdem mal eine Verbindung auftritt (Netzwerk-Konfig falsch, jemand steckt Kabel ein) hat man die A-Karte, speziell bei Windows-Rechnern, die gleich mal ein paar Serverdienste laufen haben.
Ich würde da ne SPI-FW davor machen und gut ist's.
Zu den Zertifizierungen sage ich mal lieber nichts, das ist aus IT-Sicherheit einfach nur ein GAU.
Zitat von @Windows10Gegner:
Zu den Zertifizierungen sage ich mal lieber nichts, das ist aus IT-Sicherheit einfach nur ein GAU.
Zu den Zertifizierungen sage ich mal lieber nichts, das ist aus IT-Sicherheit einfach nur ein GAU.
Deswegen laufen die Dinger meist in isolierten Umgebungen -sollten sie zumindest.
lks
Bitte dann auch nicht vergessen den Thread zu schliessen !
Wie kann ich einen Beitrag als gelöst markieren?
Wie kann ich einen Beitrag als gelöst markieren?