Freitag abend - Lust ein wenig was zusammen zu spinnen?
Nabend Zusammen,
angenommen ihr habt genug Geld für ein Vorhaben folgender Größenordnung:
Dabei meine ich mit genug Geld, dass die Umsetzung bzw. der Einsatz von Hardware angemessen und nicht abgehoben sein soll, weil man es nicht benötigt.
1. 116 Räume in denen mind. eine Netzwerkdose mit zwei Kabeln liegen soll. Teilweise auch 2-3 Dosen (was ca. 20 Räume betrifft)
2. 7 Computerarbeitsräume mit ca. 20 Arbeitsplätzen
3. In ca. 20 Räumen sollen VOIP Telefone installiert werden
4. ca. 10-12 Wlan-Accesspoints um das Gebäude abzudecken
5. Die Standorte von 4 Serverschränken sind 100+x Meter voneinander entfernt
6. In der Mitte liegt der Serverraum
7. Jeder Computerarbeitsraum soll ein eigenes VLAN bekommen.
8. Ein weiteres VLAN für VOIP
9. Weitere VLANs für Verwaltung etc.
10. Aus allen VLANs soll Zugriff auf den Server möglich sein und natürlich aufs Internet.
11. Portsecurity, damit nicht jeder sich ohne Probleme ran klemmen kann sollte ebenfalls vorhanden sein.
Insgesamt würden also ca. 550-600 Lanports notwendig sein (stark aufgerundet)
Mir gehts hier nur um die Infrastruktur, sprich Switche und Verkabelung.
Wie könnte man da am sinnvollsten ran gehen? Welche Switche würdet ihr empfehlen? Welche Accesspoints?
Nein, ihr sollt nun keine Planung für mich durchführen. Ich bin nur schon lange nicht mehr auf dem aktuellen Stand und bevor ich mich durch xx Anbieter kämpfe.
Bevorzugen würde ich Cisco-Geräte.
Also ran an die Tasten
Grüße
angenommen ihr habt genug Geld für ein Vorhaben folgender Größenordnung:
Dabei meine ich mit genug Geld, dass die Umsetzung bzw. der Einsatz von Hardware angemessen und nicht abgehoben sein soll, weil man es nicht benötigt.
1. 116 Räume in denen mind. eine Netzwerkdose mit zwei Kabeln liegen soll. Teilweise auch 2-3 Dosen (was ca. 20 Räume betrifft)
2. 7 Computerarbeitsräume mit ca. 20 Arbeitsplätzen
3. In ca. 20 Räumen sollen VOIP Telefone installiert werden
4. ca. 10-12 Wlan-Accesspoints um das Gebäude abzudecken
5. Die Standorte von 4 Serverschränken sind 100+x Meter voneinander entfernt
6. In der Mitte liegt der Serverraum
7. Jeder Computerarbeitsraum soll ein eigenes VLAN bekommen.
8. Ein weiteres VLAN für VOIP
9. Weitere VLANs für Verwaltung etc.
10. Aus allen VLANs soll Zugriff auf den Server möglich sein und natürlich aufs Internet.
11. Portsecurity, damit nicht jeder sich ohne Probleme ran klemmen kann sollte ebenfalls vorhanden sein.
Insgesamt würden also ca. 550-600 Lanports notwendig sein (stark aufgerundet)
Mir gehts hier nur um die Infrastruktur, sprich Switche und Verkabelung.
Wie könnte man da am sinnvollsten ran gehen? Welche Switche würdet ihr empfehlen? Welche Accesspoints?
Nein, ihr sollt nun keine Planung für mich durchführen. Ich bin nur schon lange nicht mehr auf dem aktuellen Stand und bevor ich mich durch xx Anbieter kämpfe.
Bevorzugen würde ich Cisco-Geräte.
Also ran an die Tasten
Grüße
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 257531
Url: https://administrator.de/contentid/257531
Ausgedruckt am: 19.11.2024 um 11:11 Uhr
27 Kommentare
Neuester Kommentar
Hallo,
Und wenn auf den eventuell anzuschließende Rechner nicht nur ein Bildschirmschoner laufen soll, tut es Klingeldraht und ne HUB.
Gruß,
Peter
Zitat von @Xaero1982:
1. 116 Räume in denen mind. eine Netzwerkdose mit zwei Kabeln liegen soll. Teilweise auch 2-3 Dosen (was ca. 20 Räume
betrifft)
2. 7 Computerarbeitsräume mit ca. 20 Arbeitsplätzen
3. In ca. 20 Räumen sollen VOIP Telefone installiert werden
Alles nichts als Standard was dir jeder Elektriker als paketpreis liefert....1. 116 Räume in denen mind. eine Netzwerkdose mit zwei Kabeln liegen soll. Teilweise auch 2-3 Dosen (was ca. 20 Räume
betrifft)
2. 7 Computerarbeitsräume mit ca. 20 Arbeitsplätzen
3. In ca. 20 Räumen sollen VOIP Telefone installiert werden
4. ca. 10-12 Wlan-Accesspoints um das Gebäude abzudecken
Soll nur das Gebäude abgedeckt werden oder soll das WLAN noch einen Nutzen bringen?5. Die Standorte von 4 Serverschränken sind 100+x Meter voneinander entfernt
Ergo ein Campus mit ca. 200+ Meter Durchmesser wo in der Mitte ein> 6. Serverraum
liegt. Alles innerhalb von Gebäuden erreichbar? Braucht es Wühlmäuse oder TBMs um Tunnel zu bauen? Glasfaser wegen Potenzial unterschiede/Gewitter usw.?7. Jeder Computerarbeitsraum soll ein eigenes VLAN bekommen.
VLAN fähiger Switch.8. Ein weiteres VLAN für VOIP
VLAN fähiger Switch9. Weitere VLANs für Verwaltung etc.
VLAN fähiger Switch10. Aus allen VLANs soll Zugriff auf den Server möglich sein und natürlich aufs Internet.
Switch L3 oder Router11. Portsecurity, damit nicht jeder sich ohne Probleme ran klemmen kann sollte ebenfalls vorhanden sein.
802.1xInsgesamt würden also ca. 550-600 Lanports notwendig sein (stark aufgerundet)
Gibst im Großhandel billiger bzw. dein Elektriker hat das...Mir gehts hier nur um die Infrastruktur, sprich Switche und Verkabelung.
Von was anderes redest du ja nichtNein, ihr sollt nun keine Planung für mich durchführen.
Hmm, irgendwie kommt dieser dein Wunsch mitWie könnte man da am sinnvollsten ran gehen? Welche Switche würdet ihr empfehlen? Welche Accesspoints?
ins Gehege. Was denn nun?Ich bin nur schon lange nicht mehr auf dem aktuellen Stand und
Geh mal in einen Baumarktbevor ich mich durch xx Anbieter kämpfe.
Sollen wir dir deine Arbeit tun. Was Zahlste?Bevorzugen würde ich Cisco-Geräte.
Dann nimm das doch. Geld spielt doch keine Rolle bei dir.Und wenn auf den eventuell anzuschließende Rechner nicht nur ein Bildschirmschoner laufen soll, tut es Klingeldraht und ne HUB.
Gruß,
Peter
Guten Abend Xaero,
wenn wir genügend Geld haben biete ich mich gerne an, dass (gerne auch mit dir zusammen) durch zu planen und auf ordentliche Füße zu stellen
Ich pick mir einfach mal eins raus: Ca 10-12 APs ist eine feine Grundlage um eine stabile Versorgung zu gewährleisten (und deswegen denke ich ist Peter auch so nett aufgefahren) - hier muss gemessen werden, was für Wände, was für Decken (falls Mehrstöckig usw usf.)
Also wie gesagt, darfst gerne auf mich zu kommen.
Schönen Freitagabend,
Christian
PS: Bei solchen Planungstätigkeiten hier detailliert zu helfen ist sowieso ein Knie im Schuss und deswegen halte ich viele Anfragen hier auch für eine Auflistung an Dienstleistern, die die Jobs besser nicht übernehmen sollten. (nicht persönlich nehmen, da nicht auf das hier bezogen, aber wen wundern da noch total schlampig aufgezogene Netze)
wenn wir genügend Geld haben biete ich mich gerne an, dass (gerne auch mit dir zusammen) durch zu planen und auf ordentliche Füße zu stellen
Ich pick mir einfach mal eins raus: Ca 10-12 APs ist eine feine Grundlage um eine stabile Versorgung zu gewährleisten (und deswegen denke ich ist Peter auch so nett aufgefahren) - hier muss gemessen werden, was für Wände, was für Decken (falls Mehrstöckig usw usf.)
Also wie gesagt, darfst gerne auf mich zu kommen.
Schönen Freitagabend,
Christian
PS: Bei solchen Planungstätigkeiten hier detailliert zu helfen ist sowieso ein Knie im Schuss und deswegen halte ich viele Anfragen hier auch für eine Auflistung an Dienstleistern, die die Jobs besser nicht übernehmen sollten. (nicht persönlich nehmen, da nicht auf das hier bezogen, aber wen wundern da noch total schlampig aufgezogene Netze)
Leider schreibst du gar nichts zu Budget und Performance Anforderungen. Deshalb ist ein Rat fast unmöglich.
Machen wir also mal einen Schrotschuss in der Hoffnung das es was solides werden soll ohne Popelswitches...
So mal als grober Schrotschuss ohne deine Rahmenbedingungen zu kennen wie man sowas mit aktueller Technik löst. Wenn das dir zu aufwendig ist streichst du halt ab:
P.S.: Warum ist der Thread als gelöst geklickt ?? Hast du schon aufgegeben ??
Machen wir also mal einen Schrotschuss in der Hoffnung das es was solides werden soll ohne Popelswitches...
- Core über die 4 Serverräume bilden mit einem vermaschten Core Backbone auf TRILL oder SPB Basis was völlige Spanning Tree Freiheit garantiert und das dynamische Nutzen ALLER Core Verbindungen gleichzeitig.
- Virtualisierung des Core Backbones als physisch ein Switch (aktives Clustering)
- Durch Fabric DCB Switches langfristige Investitionssicherheit der Infrastruktur durch hybride Vernetzungoption mit converged Traffic FCoE oder IP basiertem Storage Traffic der lossless übertragen wird auf einem gemeinsamen Netz. Ebenso QoS Sicherheit für Voice
- Core voll L3 fähig mit Route Option an allen Knoten (Local Forwarding)
- Access Switches der Räume werden je nach Verkabelungssituation (Cu, Glasfaser) und Port Anforderung duch Stacking Switches aggregiert und mit 10 Gig an den Core angebunden. Stacks sind in sich redundant = Ausfallsicherheit
- Stack Uplinks können durch Core Virtualisierung mit LAGs egal wo an den Core angebunden werden = Hohe Flexibilität und Freiheit im Design
- Durch Auslegung der Stackuplinks als LACP LAGs garantiert das völlige Spanning Tree Freiheit bei gleichzeitig doppelter Bandbreite und Link Redundanz
So mal als grober Schrotschuss ohne deine Rahmenbedingungen zu kennen wie man sowas mit aktueller Technik löst. Wenn das dir zu aufwendig ist streichst du halt ab:
- Keine Fabric sondern simple Stack Switches die auch ein horizontal Stacking erlauben über Glasfaser
- Uplink und Stack Links geringerer Bandbreite
P.S.: Warum ist der Thread als gelöst geklickt ?? Hast du schon aufgegeben ??
Modulbasierende Switches sind lange tot und den Stacks gehört die Zukunft weil sie einfach flexibler sind, man horizontal stacken kann und sie ganz einfach ein erheblich besseres Preis- Leistungsverhältnis haben.
Vergiss also Modul basierte Switches im Access. Die machen nur in großen Cores Sinn und im Internet Backbones usw.. In dein Netz passen sie nicht.
Vergiss also Modul basierte Switches im Access. Die machen nur in großen Cores Sinn und im Internet Backbones usw.. In dein Netz passen sie nicht.
Zitat von @Xaero1982:
Nabend Certifiedit,
ich versuche vorher abzuklären was so eine Umsetzung kosten würde um Finanzen heranzuschaffen. Deswegen soll es nicht
übertrieben sein, aber schon so, dass man eine gewisse Performance im Netzwerk hat, wenn auch mal 150 Clients gleichzeitig
online sind. Ggf. müsste man über kurz oder lang noch eine zweite Leitung VDSL dazu ordern. Der Upload ist hier grds.
eher zweitrangig.
Nabend Certifiedit,
ich versuche vorher abzuklären was so eine Umsetzung kosten würde um Finanzen heranzuschaffen. Deswegen soll es nicht
übertrieben sein, aber schon so, dass man eine gewisse Performance im Netzwerk hat, wenn auch mal 150 Clients gleichzeitig
online sind. Ggf. müsste man über kurz oder lang noch eine zweite Leitung VDSL dazu ordern. Der Upload ist hier grds.
eher zweitrangig.
Auch das kannst du kaum ohne nähere Infos - wenn die Clients (übertrieben) nur 10kb/s ziehen ist das was anderes als wenn sie durchweg 60Mb/s ziehen.
Ich muss mir quasi erst mal einen Plan zurecht legen um dann an die entsprechenden Stellen herantreten zu können.
Da es sich hier nicht um eine Firma, sondern eine Schule handelt, ist das mit den Finanzen immer problematisch. Dieser Zustand ist
aber nicht tragbar, weil ich alle Naselang angesprochen werde, dass das Netzwerk langsam ist.
Da es sich hier nicht um eine Firma, sondern eine Schule handelt, ist das mit den Finanzen immer problematisch. Dieser Zustand ist
aber nicht tragbar, weil ich alle Naselang angesprochen werde, dass das Netzwerk langsam ist.
ist bekannt - muss aber genauer Analysiert werden, sonst setzt du den Rotstift an der komplett falschen Stelle an (gut bei "Öffentlichen" Stellen nichts besonderes)
Die 10-12 habe ich genannt, weil die Abdeckung derzeit damit stattfindet mit LANCOM Geräten und vollkommen in Ordnung ist.
ist es das? Welche Sendeleistung/Modell? Warum neu, wenn i.O?
Aufgrund mangelnder VLAN Fähigkeiten der Switche etc. haben wir derzeit ein ziemlich großes Netz, was sich nicht
umbedingt positiv auf die Geschwindigkeit auswirkt.
umbedingt positiv auf die Geschwindigkeit auswirkt.
richtig.
Zu deinem PS: Kann ich durchaus verstehen und kenne ich zu gut. Ich habs ja immerhin geschafft von vormaligen Bootzeiten der
Clients von ca. 8 Minuten wenn sie am Netz hingen und ca. 2 Minuten wenn sie nicht am Netz hingen, auf unter eine Minute zu
bringen wenn sie am Netz hängen. Die Anforderungen werden nicht weniger und jeden Tag kommen mehr Endgeräte dazu, die
alle das Netz zusätzlich belasten.
Clients von ca. 8 Minuten wenn sie am Netz hingen und ca. 2 Minuten wenn sie nicht am Netz hingen, auf unter eine Minute zu
bringen wenn sie am Netz hängen. Die Anforderungen werden nicht weniger und jeden Tag kommen mehr Endgeräte dazu, die
alle das Netz zusätzlich belasten.
Nun, das ist das eine, aber die Frage geht schon etwas in die Richtung dessen, was Peter hier bemängelt.
Weil mich solche Posts wie der von Peter nerven. Ich bin ja nicht erst seit gestern hier und denke, dass ich hier schon vielen
geholfen habe und denke auch, dass man dann eine vernünftige Antwort präsentieren kann wie du oder auch certifiedit es
getan haben.
geholfen habe und denke auch, dass man dann eine vernünftige Antwort präsentieren kann wie du oder auch certifiedit es
getan haben.
Nun, ich denke, auch Peter (wie mich z.T auch) nerven auch das aufkommen immer mehr Threads à la "ich weiss nichts, will aber mit eurer Hilfe gut Geld abgreifen" - in diesem Fall, deswegen auch das post scriptum, trifft er vermutlich den falschen, aber ganz von der Hand zu weissen sind seine Aussagen nicht.
Grüße
Gute Nacht ;)
weil dann bei einer redundanten Anbindung doch immer einige Ports flöten gehen
WO meinst du das ??? An den Access Stacks ??Solche stackbaren Access Switches haben immer separate Stack Ports mit entweder 40 G oder 10 G die getrennt von den Access Ports (Cu mit oder ohne PoE) sind.
Ebenso die Uplinks ! Es werden also keine zusätzlichen Access Ports (Räume) verbraten !
Falls du den Core meinst ist das ja logisch und auch geollt. Hier geht es zwingend um Redundanz, Performance und damit logischerweise Zuverlässigkeit eines solchen Netzes.
Zählt das für dich nicht, oder ist nicht wichtig bindest du die Access Switches eben nur einbeinig an wenn du bereit bist das Risiko zu tragen.
Wie gesagt das ist eine Konzeptstudie wie man es "Best Case" machen kann.
Was du dann davon abstreichst um Zuverlässigkeit und Performance und damit Geld zu sparen ist deine Sache und von deinem Budget abhängig....!
Klar kann man sowas natürlich auch mit billigen D-Links und Netgears machen die mal fröhlich in Reihe schaltet. Was dabei rauskommt muss man nicht weiter erklären sondern kann das täglich in diversen Threads hier im Forum lesen
Fazit: Es kommt auf deine Anforderungen und Rahmenbedingungen an. Die bestimmen auch maßgeblich ein Design und auch die HW. Wie immer...
Zur Technik... !
sagt, dass SPBm wohl effektiver ist als TRILL.
Das ist Bullshit und bezieht sich nur auf die Virtualisierung. Vergiss das das ist ein Streit um des Kaisers Bart wie die leidige Frage ob BMW oder Mercedes besser ist. Der eine sagt das der andere das.Ob du Shortest Patth Bridging oder TRILL nimmt ist Latte. Das eine wie das andere hat Vor- und Nachteiel. Wichtig ist das man eins verwendet
Würden da die Cisco SG500 nicht "ausreichen"?
Ja, was die Stacks im Access anbetrifft reichen die !Statt Fabric Switches im Core kannst du dann auch welche nehmen die horizontal Stacking über die 4 Serverstandorte supporten und das spart auch wieder Geld.
Wenn das nur ne simple Lehrer Schüler netz Geschichte ist mit etwas mSSID WLAN reicht das allemal aus.
Dadrunter solltest du aber dann nicht mehr gehen !
Kannst du mir zufällig noch ein paar Geräte aus dem Ärmel schütteln die ich mir mal genauer ansehen kann?
Oha... besser nicht im Thread, denn das würde den Thread hier schlagartig auf 30 und mehr Postings anschwellen lassen wenn man die HP, Fraktion gegen die NetGear und die Cisco gegen die Brocade und die Extreme gegen die Avaya und die D-Link gegen die TP Link und die ... gegen die... Fraktion gegeneinander aufbringt.Das sind diese leidigen Threads die hier mit "Ich brauche eine Kaufberatung...." beginnen
Für 2x1gbit brauchst du keine 10gbit zum access switch....
Vorsicht, die Access Switches sind Stacks mit ggf. z.T 3mal 48 Port Switches (oder mehr) So einen Stack nur mit 1 GiG anzubinden wäre fahrlässig.Wenihstens ein 4er LAG sollte das sein aber der geht auch schon bei 96 Gig Ports eines 2er Stacks in die Knie ! Von der üblen Ausnutzung durch das 802.3ad Hashing Verfahren mal ganz abgesehen...
Für ein Netz was die nächsten 5 bis 7 Jahre halten soll ist dieser Tip fahrlässig und zeugt eher von Unkenntnis, sorry.
Bei Multicast sollten die Switches zwingend IGMP Snooping supporten !