150631 vor 12 Tagen
Ja.
Die Leaf-Switches haben mindestens zwei Uplinks auf die Spines. Die Firepowers sind mit den Spines verbunden. Es sind vier Firepower am Hauptstandort.
Z. B. die Powescales sind an Dell Spines. Das kam als Paket. Jede PS hat 4x 25GbE.
Es ist logisch gesehen nicht nur ein Baum mit Blätter, sondern mehrere Bäume, die im Wald stehen.
Die Access Switches laufen auch auf einem eigenen Baum zusammen mit der WiFi Infrastruktur.
Die Horizon VXRails hängen an den Leafs. 2x 10/25GbE. Wir haben pro Mitarbeiter ca. 1,35 Horizon Desktops und die IT hat dann noch VMs im dem Sinne, wie es hier die meisten verstehen. Unsere User (Kollegen außerhalb der IT haben nur Horizon) das ist alles maximal abgeschottet, bis runter auf App-Ebene. Kein USB, SDCard usw...
Headset wird über das Cisco-Tischtelefon verbunden und integriert Cisco Jabber.
Die meisten ESXi hängen als Blätter im Baum.
Z.B. die MX7000 sind selbst Blätter. 8x25GbE, über rückseitige Switches. Blades und VXRail HCI wird weiter ausgebaut, weil uns der Platz fehlt, wegen der fetten DGXe.
Die Bäume untereinander haben meist mehrere 25/50/100GbE oder in der Nähe der DGXe auch 400GbE, auch über die DGX-Fabric hinaus. Das DGX Fabric ist im Kern Nvidia mit Querverbindungen auf die Dell Switches.
Die Firepower machen den Großteil der Gateways, damit die interne Kommunikation unter Kontrolle ist. Bestimmte Servernetze haben nur Switch ACLs. Vieles was die Servernetze verlässt bekommt mehr Firewalling über gebrummt. Die Verbindung zu den kontrollierten Horizon Desktops, auf denen du nur die vorgesehenen Applikationen starten kannst, dort wird nicht so viel Traffic angeguckt. Die Netzwerke an denen unsere Notebooks angeschlossen sind wird viel mehr ausgewertet. Allein schon weil man an den Notebooks Datenträger anschließen kann und so weiter...
Die IT Administration arbeitet auf einer eigenen Infrastruktur mit eigener Internetleitung. Alle unsere Tools laufen auf Horizon und Desktops. Kleines Cluster auf Dell R7x00 mit eigener Netzwerkhardware.
Unsere VoIP Anlage, ist ein eigenes Cluster in einer eigenen DMZ und eigener Internetleitung.
Im Sommer haben wir Dacosa an unsere DWDM Strecken eingebaut und haben nun auch natives FC über Standortgrenzen hinweg, was ab Ende 2025 zum Umbau des SANs führt. Vermutlich PowerStores mit Metro Volumes auf bis zu 210km Luftlinie. Dann wird das SAN zu einem virtuellen SAN ähnlich der IBM SVC seinerzeit konsolidiert. Das machen wir um uns von IP Storage Replikationen zu trennen, die jetzt übers WAN gehen und dort Traffic machen,ohne Ende.
Was dann über die internen Firepower geht, hängt von den Auflagen des ISB ab. Es ist aber fast alles an Verbindungen. NFS-Traffic z. B. geht einfach nur als Forward durch und wird nur statistisch erfasst. Zukünftig wird Storage IP Traffic auch dediziert abgewickelt.
Richtung unsichere Netzwerke kommen Gnugates zum Einsatz.
Das alles für die Sicherheit.
Die Leaf-Switches haben mindestens zwei Uplinks auf die Spines. Die Firepowers sind mit den Spines verbunden. Es sind vier Firepower am Hauptstandort.
Z. B. die Powescales sind an Dell Spines. Das kam als Paket. Jede PS hat 4x 25GbE.
Es ist logisch gesehen nicht nur ein Baum mit Blätter, sondern mehrere Bäume, die im Wald stehen.
Die Access Switches laufen auch auf einem eigenen Baum zusammen mit der WiFi Infrastruktur.
Die Horizon VXRails hängen an den Leafs. 2x 10/25GbE. Wir haben pro Mitarbeiter ca. 1,35 Horizon Desktops und die IT hat dann noch VMs im dem Sinne, wie es hier die meisten verstehen. Unsere User (Kollegen außerhalb der IT haben nur Horizon) das ist alles maximal abgeschottet, bis runter auf App-Ebene. Kein USB, SDCard usw...
Headset wird über das Cisco-Tischtelefon verbunden und integriert Cisco Jabber.
Die meisten ESXi hängen als Blätter im Baum.
Z.B. die MX7000 sind selbst Blätter. 8x25GbE, über rückseitige Switches. Blades und VXRail HCI wird weiter ausgebaut, weil uns der Platz fehlt, wegen der fetten DGXe.
Die Bäume untereinander haben meist mehrere 25/50/100GbE oder in der Nähe der DGXe auch 400GbE, auch über die DGX-Fabric hinaus. Das DGX Fabric ist im Kern Nvidia mit Querverbindungen auf die Dell Switches.
Die Firepower machen den Großteil der Gateways, damit die interne Kommunikation unter Kontrolle ist. Bestimmte Servernetze haben nur Switch ACLs. Vieles was die Servernetze verlässt bekommt mehr Firewalling über gebrummt. Die Verbindung zu den kontrollierten Horizon Desktops, auf denen du nur die vorgesehenen Applikationen starten kannst, dort wird nicht so viel Traffic angeguckt. Die Netzwerke an denen unsere Notebooks angeschlossen sind wird viel mehr ausgewertet. Allein schon weil man an den Notebooks Datenträger anschließen kann und so weiter...
Die IT Administration arbeitet auf einer eigenen Infrastruktur mit eigener Internetleitung. Alle unsere Tools laufen auf Horizon und Desktops. Kleines Cluster auf Dell R7x00 mit eigener Netzwerkhardware.
Unsere VoIP Anlage, ist ein eigenes Cluster in einer eigenen DMZ und eigener Internetleitung.
Im Sommer haben wir Dacosa an unsere DWDM Strecken eingebaut und haben nun auch natives FC über Standortgrenzen hinweg, was ab Ende 2025 zum Umbau des SANs führt. Vermutlich PowerStores mit Metro Volumes auf bis zu 210km Luftlinie. Dann wird das SAN zu einem virtuellen SAN ähnlich der IBM SVC seinerzeit konsolidiert. Das machen wir um uns von IP Storage Replikationen zu trennen, die jetzt übers WAN gehen und dort Traffic machen,ohne Ende.
Was dann über die internen Firepower geht, hängt von den Auflagen des ISB ab. Es ist aber fast alles an Verbindungen. NFS-Traffic z. B. geht einfach nur als Forward durch und wird nur statistisch erfasst. Zukünftig wird Storage IP Traffic auch dediziert abgewickelt.
Richtung unsichere Netzwerke kommen Gnugates zum Einsatz.
Das alles für die Sicherheit.