Netzwerkverkabelung Produktion - Empfehlungen und Ratschläge
Hallo Zusammen,
wir sind ein Unternehmen, welches Kunststoffteile herstellt. Wir haben hier 3 Fertigungshallten in der sich ca. 50-60 Maschinen befinden.
Diese Maschinen haben jede ein Gerät zur Stückzahl/Zeit/Auftragserfassung und ein WLAN-Access-Bridge dran. An manchen ist noch ein 8-Port-Miniswitch mit Kameras zur Teileprüfung dran.
Nun ist es so, dass die Hardware doch schon einige Jahre auf den Buckel hat und besonders die WLAN-Bridges immer mal wieder sich reseten oder ganz abrauchen oder auch ab und an mal kurioserweise nicht erreichbar sind.
Bevor ich nun anfange wie wild Hardware zu tauschen, kam der Gedanke, ob wir nicht alle Maschinen jeweils ans LAN bringen und vom Wlan weggehen. Ich bin eher der LAN-Freund, wenn es um feststehende Geräte geht. Vom Kostenfaktor ist das Kabel ähnlich der WLAN-Bridge zunächst grob betrachtet. Unser Fertigungsleiter sieht es ähnlich.
Der Serverraum mit den ersten Access-Switchen befindet sich bei der ersten und größten Halle. Ansonsten ist in jeder anderen Halle jeweils nochmal ein Netzwerkschrank mit einem oder zwei Access-Switchen.
Nun bin ich mir selbst allerdings unschlüssig, wie ich die Verkabelung ausführen lassen soll, es gibt 2 Möglichkeiten:
1. In jeder Halle pro Seite jeweils von jeder Maschine eine Landkabel zu einem Punkt führen (z.B. Hallenmitte), dort einen 8 oder 16-Port-Miniswitch dran und davon eine Leitung dann zum Access-Switch. Ist vergleichsweise geringer Aufwand und auch geringerer Kostenaspekt. (Es wäre noch abkürzbar, in dem eine Hallenseite direkt zum Access-Switch geht und die andere Hallen-Seite über Mini-Switch und einer Leitung zum Access-Switch). Nachteil: Im Fehlerfall sehe ich eben den Mini-Switch nicht wirklich, da nicht managebar.
2. Von jeder Maschine Kabel zum Access-Switch, teilweise muss man hier über Hallendecken gehen, da die Maschinen quasi links und rechts an den längst-Seiten stehen. Ist deutlich mehr Aufwand und mehr Kabel. Vorteil: Jede Maschine geht auf einen Switch-Port, im Fehlerfall einfacher zu suchen. Ggf. etwas mehr Kontrolle durch Radius-Server.
Im Einsatz sind bei mir HP2920 und einige HP2910 Switche im Einsatz. Layer3-Routing übernimmt der Stack aus 2x2920 im Serverraum, an denen alle Access-Switche dann angebunden sind (erweiterte Sterntopologie). Ich wollte bei HP bleiben, da ich mich hier mit der CLI etwas auskenne. Leider sind auch die Preise für die 2920/2930 explodiert, sodass ich hier nicht "mal eben" ein paar bestellen kann.
Ansonsten eben Radius-Server im Einsatz, VLANs und nix großartig besonderes. Die Datenraten bei den Maschinen sind sehr überschaubar.
Was würdet ihr hier empfehlen/nehmen? Kostenaspekt ist in der aktuellen Zeit klar ein Thema, auf das zu achten wäre.
Bin mir gerade unschlüssig, vor allem weil wir hier vor 7-8 Jahren bestimmt 20 Miniswitche rausgeschmissen und Gebäudeverkabelung ersetzt hatten.
Danke.
wir sind ein Unternehmen, welches Kunststoffteile herstellt. Wir haben hier 3 Fertigungshallten in der sich ca. 50-60 Maschinen befinden.
Diese Maschinen haben jede ein Gerät zur Stückzahl/Zeit/Auftragserfassung und ein WLAN-Access-Bridge dran. An manchen ist noch ein 8-Port-Miniswitch mit Kameras zur Teileprüfung dran.
Nun ist es so, dass die Hardware doch schon einige Jahre auf den Buckel hat und besonders die WLAN-Bridges immer mal wieder sich reseten oder ganz abrauchen oder auch ab und an mal kurioserweise nicht erreichbar sind.
Bevor ich nun anfange wie wild Hardware zu tauschen, kam der Gedanke, ob wir nicht alle Maschinen jeweils ans LAN bringen und vom Wlan weggehen. Ich bin eher der LAN-Freund, wenn es um feststehende Geräte geht. Vom Kostenfaktor ist das Kabel ähnlich der WLAN-Bridge zunächst grob betrachtet. Unser Fertigungsleiter sieht es ähnlich.
Der Serverraum mit den ersten Access-Switchen befindet sich bei der ersten und größten Halle. Ansonsten ist in jeder anderen Halle jeweils nochmal ein Netzwerkschrank mit einem oder zwei Access-Switchen.
Nun bin ich mir selbst allerdings unschlüssig, wie ich die Verkabelung ausführen lassen soll, es gibt 2 Möglichkeiten:
1. In jeder Halle pro Seite jeweils von jeder Maschine eine Landkabel zu einem Punkt führen (z.B. Hallenmitte), dort einen 8 oder 16-Port-Miniswitch dran und davon eine Leitung dann zum Access-Switch. Ist vergleichsweise geringer Aufwand und auch geringerer Kostenaspekt. (Es wäre noch abkürzbar, in dem eine Hallenseite direkt zum Access-Switch geht und die andere Hallen-Seite über Mini-Switch und einer Leitung zum Access-Switch). Nachteil: Im Fehlerfall sehe ich eben den Mini-Switch nicht wirklich, da nicht managebar.
2. Von jeder Maschine Kabel zum Access-Switch, teilweise muss man hier über Hallendecken gehen, da die Maschinen quasi links und rechts an den längst-Seiten stehen. Ist deutlich mehr Aufwand und mehr Kabel. Vorteil: Jede Maschine geht auf einen Switch-Port, im Fehlerfall einfacher zu suchen. Ggf. etwas mehr Kontrolle durch Radius-Server.
Im Einsatz sind bei mir HP2920 und einige HP2910 Switche im Einsatz. Layer3-Routing übernimmt der Stack aus 2x2920 im Serverraum, an denen alle Access-Switche dann angebunden sind (erweiterte Sterntopologie). Ich wollte bei HP bleiben, da ich mich hier mit der CLI etwas auskenne. Leider sind auch die Preise für die 2920/2930 explodiert, sodass ich hier nicht "mal eben" ein paar bestellen kann.
Ansonsten eben Radius-Server im Einsatz, VLANs und nix großartig besonderes. Die Datenraten bei den Maschinen sind sehr überschaubar.
Was würdet ihr hier empfehlen/nehmen? Kostenaspekt ist in der aktuellen Zeit klar ein Thema, auf das zu achten wäre.
Bin mir gerade unschlüssig, vor allem weil wir hier vor 7-8 Jahren bestimmt 20 Miniswitche rausgeschmissen und Gebäudeverkabelung ersetzt hatten.
Danke.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 4731465978
Url: https://administrator.de/contentid/4731465978
Ausgedruckt am: 22.11.2024 um 08:11 Uhr
22 Kommentare
Neuester Kommentar
Ich glaube das könnt ihr wirklich nur selbst entscheiden, mit der Abwägung Kosten/Nutzen. Die Vorteile einer Verkabelung zu jeder einzelnen Maschine sind dir ja bewusst.
Wäre es meine Firma und ich müsste auf Kosten achten würde ich Variante 1 wählen. Du sagst die Datenraten sind überschaubar und besser als WLAN ist es allemal.
Wäre es meine Firma und ich müsste auf Kosten achten würde ich Variante 1 wählen. Du sagst die Datenraten sind überschaubar und besser als WLAN ist es allemal.
1. Im Fehlerfall sehe ich eben den Mini-Switch nicht wirklich, da nicht managebar.
Eigentlich kein wirklich schlüssiges und nachvollziehbares Argument, denn es gibt ja durchaus gute 8 oder 16 Port Switches die managebar sind. Ungemanagte Switches solltest du in deiner Infrastruktur aus guten Gründen grundsätzlich nicht mehr einsetzen.Besser wäre bei der zentralen Lösung einen Full Stack mit 2mal 8er oder 16er zu verwenden um an solch kritischem Punkt dann zumindestens eine Hardware Redundanz zu haben.
Die kleinen Switche sind nicht immer managementbar und haben ggf. ein Netzteil. Alles so Störquellen. Wenn sollten auch die - gibt es ja auch von HP - managementbar sein
Sortenmix ist immer Käse. Wenn dann bleib halt bei HP. Was ist mit den Hallen Uplinks? Hab ich da was überlesen? Glasfaser in die 1. Halle mit den Serverraum oder was ist hier geplant?
Naja zu den Kabelkosten kämen noch Kosten für die Kabelbühnen und deren Montage. Wenn das der Betriebselektriker macht quasi "so da" Kosten. Der ist ja eh immer so da....
Ich sagt mal so: Leitrechneranbindung, Fertigungssteuerung ist nicht ohne. Das rentiert sich ja von allein. Wenn de Firma an den Standort bleiben will wäre ich für Variante 2. Wenn man es jetzt nichit richtig macht, dann gar nicht mehr.
Switche gibt es auch refurbished. Kann sich im Einzelfall lohnen. Ihr habt ja durch die WLAN Probleme schon Down-Time Erfahrung. Bei SPS Modulen, Roll-/ Röllchenbahnen und zeitkritischen Manövern gibt es ja noch andere Formen der Anbindung. In deinen Fall wäre ggf. auch refurbished denkbar. Dann könnte man auch überlegen sich einen Ersatz-Switch ins Regal zu stellen.
Sortenmix ist immer Käse. Wenn dann bleib halt bei HP. Was ist mit den Hallen Uplinks? Hab ich da was überlesen? Glasfaser in die 1. Halle mit den Serverraum oder was ist hier geplant?
Naja zu den Kabelkosten kämen noch Kosten für die Kabelbühnen und deren Montage. Wenn das der Betriebselektriker macht quasi "so da" Kosten. Der ist ja eh immer so da....
Ich sagt mal so: Leitrechneranbindung, Fertigungssteuerung ist nicht ohne. Das rentiert sich ja von allein. Wenn de Firma an den Standort bleiben will wäre ich für Variante 2. Wenn man es jetzt nichit richtig macht, dann gar nicht mehr.
Switche gibt es auch refurbished. Kann sich im Einzelfall lohnen. Ihr habt ja durch die WLAN Probleme schon Down-Time Erfahrung. Bei SPS Modulen, Roll-/ Röllchenbahnen und zeitkritischen Manövern gibt es ja noch andere Formen der Anbindung. In deinen Fall wäre ggf. auch refurbished denkbar. Dann könnte man auch überlegen sich einen Ersatz-Switch ins Regal zu stellen.
Zitat von @westberliner:
Leider sind auch die Preise für die 2920/2930 explodiert, sodass ich hier nicht "mal eben" ein paar bestellen kann.
Hi,Leider sind auch die Preise für die 2920/2930 explodiert, sodass ich hier nicht "mal eben" ein paar bestellen kann.
das kann ich nachvollziehen, Kostensteigerung von über 300% (2019 - 2022) bei HPE Switchen.
https://www.idealo.de/preisvergleich/OffersOfProduct/5539497_-aruba-2930 ...
Ein Tipp aus dem Forum:
https://www.fs.com/de
https://www.zyxel.com/de/de
Es gibt natürlich noch den Wunsch immer beim gleichen Hersteller bleiben zu wollen, bei den Preisen ist das aber nicht immer möglich.
Bei einem Kunden habe ich in der Infrastruktur min. 5 Hersteller (Server, Switche, Transeiver Module, DAC Kabel,...) wild miteinander kombiniert und es funktioniert.
Da ich vom HPE Support sowieso überwiegend schlechte Erfahrungen habe wenn man mal jemanden mit Fachkompetenz braucht, ist die Homogenität der Hardware fast zu vernachlässigen, falls es zum Supportfall kommt.
60 Maschinen + Kameras sind nicht wenig. Alles mit langen Kabeln zu versehen wird schon teuer. An jeder Maschine einen Switch ist aber auch blöd. Hast du die Möglichkeit in der Halle ein paar kleine (möglichst abschließbare) Netzwerkschränke hinzustellen, damit die Leitungswege kurz bleiben? Aus jedem Schrank dann zwei Leitungen zu einem übergeordneten gemeinsamen Switch (also nicht hintereinander kaskadiert). Die zweite Leitung ist für den Fehlerfall bzw kannst sie auch koppeln.
An solch wichtiger Stelle sollte man den o.a. HW Tip von oben besser schnell ignorieren. Würde man es richtig machen in dem Umfeld gehörten da 2 redundante Industrie Switches hin.
Dem TO bzw. seiner Firma scheint aber Verlässlichkeit und Ausfallredundanz in der Produktion nicht wichtig genug zu sein wenn er überhaupt dort schon etwas Ungemanagtes am untersten Preisniveau einplant. Eigentlich ohne Worte für ein Produktionsumfeld.
Besser er bleibt also bei den HP/Aruba Teilen, die haben ja Entsprechendes im Portfolio. Nebenbei: Die CLI Syntax ist übrigens universal und nutzen andere auch. HP hat die von Cisco übernommen.
Dem TO bzw. seiner Firma scheint aber Verlässlichkeit und Ausfallredundanz in der Produktion nicht wichtig genug zu sein wenn er überhaupt dort schon etwas Ungemanagtes am untersten Preisniveau einplant. Eigentlich ohne Worte für ein Produktionsumfeld.
Besser er bleibt also bei den HP/Aruba Teilen, die haben ja Entsprechendes im Portfolio. Nebenbei: Die CLI Syntax ist übrigens universal und nutzen andere auch. HP hat die von Cisco übernommen.
Es sei denn er bekommt Refurbished mit NBD Support und hat Redundanz... Aber in Summe hast du recht an solch einem zentralen Punkt wenn die Funktionssicherheit zählt.
Es sind ja nicht nur Kondensatoren sondern ggf. auch , Netzteile, Lüfter usw. In einer Industriehalle müssen so oder so deutlich erhöhte Forderungen an die Schränke und Luftfilter gestellt werden sonst sind die Switches dort in einem halben Jahr versifft und tot. Sind ja nicht nur Wollmäuse wie in einer reinen Büro Umgebung.
Es sind ja nicht nur Kondensatoren sondern ggf. auch , Netzteile, Lüfter usw. In einer Industriehalle müssen so oder so deutlich erhöhte Forderungen an die Schränke und Luftfilter gestellt werden sonst sind die Switches dort in einem halben Jahr versifft und tot. Sind ja nicht nur Wollmäuse wie in einer reinen Büro Umgebung.
Zitat von @aqui:
Dem TO bzw. seiner Firma scheint aber Verlässlichkeit und Ausfallredundanz in der Produktion nicht wichtig genug zu sein wenn er überhaupt dort schon etwas Ungemanagtes am untersten Preisniveau einplant. Eigentlich ohne Worte für ein Produktionsumfeld.
Dem TO bzw. seiner Firma scheint aber Verlässlichkeit und Ausfallredundanz in der Produktion nicht wichtig genug zu sein wenn er überhaupt dort schon etwas Ungemanagtes am untersten Preisniveau einplant. Eigentlich ohne Worte für ein Produktionsumfeld.
Naja es kommt drauf an. Bei Industrie 4.0 sind nicht alle angelangt. Wobei die Überwachung der Stätten mit Kameras auf sowas hindeutet. Hier wäre die Frage: Manuell oder überwacht das eine Software? Im letzteren Fall würde ggf. die Maschine bei fehlenden Input auf einen Hammer laufen und einen Notstopp vollziehen.
Frag mich gerade wie teuer es ist, das Plastik aus den Formen zu prokeln, wenn das Ding komplett still steht. Bei der Verhüttung von Glas ja tötlich. Kunststoff lässt ich ggf. noch rausholen.
Leider steht auch nicht da, wozu hier was gehört. Einige Firmen liefern die Maschinen mit Switch aus, um in dieser kleinen Insel alles unterzubringen. Denke da gerade an die Serviceverträge u.ä. Quasi so als Frage: Welche Netzwerkkomponenten gehört wen? Wer ist verantwortlich.
Wichtig ist auch der richtige Ort. Kleine Switche in Gefahrenbereichen sind schwer zu warten. Braucht nur mal eine Sicherung rausspringen und das war es. Wobei die Maschine selber am anderen Stromkreis noch weiterläuft. Bei Schneid- und Biegetechnik unschön, wenn man durch den Funkenregen dahin muss. Es sei denn, dass Teil gehört zur Anlage. Dann muss man ggf. dan Anlagenbauer noch ins Boot und seinen Segen holen.
Werfe das nur noch einmal nach, das es bei 60 Maschinen sein kann dass man ggf. etwas direkt an der Maschine vergessen hat. Auch wenn ein großteil wohl über WLAN schon lief.
@aqui hat schon recht. Hier rächen sich falsche Sparmaßnahmen. Auf jedenfall eine gute Diskussionsgrundlage mit der Verantwortlichen: Ausfallzeiten und Hardwareanschaffung gegenüberstellen. Dann hat sich ggf. das Thema Kosten rasch erledigt.
Zitat von @aqui:
An solch wichtiger Stelle sollte man den o.a. HW Tip von oben besser schnell ignorieren.
Deine Erfahrung mit FS oder Zyxel sind dann welche?An solch wichtiger Stelle sollte man den o.a. HW Tip von oben besser schnell ignorieren.
Ich frage, weil ich auch demnächst auch nach Alternativen suchen darf.
Würde man es richtig machen in dem Umfeld gehörten da 2 redundante Industrie Switches hin.
Bietet FS oder Zyxel ja auch, preislich aber wesentlich attraktiver als HPEhttps://www.fs.com/de/c/data-center-switches-3404
https://www.zyxel.com/de/de/products/switch
Beispiel
HPE 2930F 48G PoE+ 6699€ (2019 noch unter 2000€) vs. FS S5810-48TS-P 2200€
Da leg ich mir quasi noch 2x FS S5810-48TS-P cold standby (Ausfallsicherheit) und hab 99€ gespart
@nachgefragt dachte @aqui meint meinen Ausflug zu den refurbished Switchen als Zyxel oder fs
Oder reden wir gerade alle aneinander vorbei?
Oder reden wir gerade alle aneinander vorbei?
Ich teile das Leid von @westberliner, dass die Preise bei HPE explodiert sind und habe daher ein offenes Ohr für alternativen Hersteller.
Moin,
An der Stelle mal der Hinweis/ die Frage:
Kommen in eurem Produktionsumfeld Frequenzumrichter bzw. "dreckige" Stromnnetze zum Einsatz?
Ich frage, weil wir das Problem haben, dass aufgrund der gewachsenen Strukturen teils veraltete E-Installationen existieren (Stichwort verPENtes Netz) und wir hier und da Spannungen auf dem Netzwerkschirm haben, die da nicht hin sollen.
Aus dem Grund werden wir in den nächsten ein bis zwei Jahren ebenfalls unser Netz umstellen: In die Schaltschränke geht vom zentralen Switch (in einer Produktionshalle) ein LWL-Kabel. Dort wird dann mit einem IndustrialSwitch (managebar) auf Cu gewechselt. Somit erhält jede Maschine Ihren eigenen Uplink zum AccessSwitch - auf LWL-Medien. Innerhalb einer Maschine kommen dann die ganzen Netzwerkgeräte an den einen Industrieswitch.
Ja: der (monetäre) Aufwand ist etwas höher, aber man ist nicht von anderen Maschinen abhängig und hat ein sauberes Netz zwischen Endpoint und Access-Switch.
=> ICH würde somit eine Variante aus I und II wählen: innerhalb einer Maschine mit kleinen Switchen arbeiten, jede Maschine aber einzeln anbinden (man kann ja ein OM4 mit 4 Fasern legen lassen)
Gruß
em-pie
An der Stelle mal der Hinweis/ die Frage:
Kommen in eurem Produktionsumfeld Frequenzumrichter bzw. "dreckige" Stromnnetze zum Einsatz?
Ich frage, weil wir das Problem haben, dass aufgrund der gewachsenen Strukturen teils veraltete E-Installationen existieren (Stichwort verPENtes Netz) und wir hier und da Spannungen auf dem Netzwerkschirm haben, die da nicht hin sollen.
Aus dem Grund werden wir in den nächsten ein bis zwei Jahren ebenfalls unser Netz umstellen: In die Schaltschränke geht vom zentralen Switch (in einer Produktionshalle) ein LWL-Kabel. Dort wird dann mit einem IndustrialSwitch (managebar) auf Cu gewechselt. Somit erhält jede Maschine Ihren eigenen Uplink zum AccessSwitch - auf LWL-Medien. Innerhalb einer Maschine kommen dann die ganzen Netzwerkgeräte an den einen Industrieswitch.
Ja: der (monetäre) Aufwand ist etwas höher, aber man ist nicht von anderen Maschinen abhängig und hat ein sauberes Netz zwischen Endpoint und Access-Switch.
=> ICH würde somit eine Variante aus I und II wählen: innerhalb einer Maschine mit kleinen Switchen arbeiten, jede Maschine aber einzeln anbinden (man kann ja ein OM4 mit 4 Fasern legen lassen)
Gruß
em-pie
Zitat von @em-pie:
Moin,
An der Stelle mal der Hinweis/ die Frage:
Kommen in eurem Produktionsumfeld Frequenzumrichter bzw. "dreckige" Stromnnetze zum Einsatz?
Moin,
An der Stelle mal der Hinweis/ die Frage:
Kommen in eurem Produktionsumfeld Frequenzumrichter bzw. "dreckige" Stromnnetze zum Einsatz?
Ergänzend wegen 3 Lokationen Potentialverschleppung mal mit reingeworfen. Galvanische Trennung schadet ja eh meist nicht. Also was nun die Strecken von Hallen B und C zu A mit den Serverraum angeht.
Zitat von @westberliner:
Ja, Platz für einen kleinen Schrank ist in den Hallen genug da. Uplink müsste in dem Zug auch gleich gelegt werden, wäre dann 1Gbit Kupfer zum jeweiligen Access-Switch (Duplex-Kabel). Damit würden ich von grob 3km Kabel auf 2km kommen.
Habe auch in die refurbished-Ecke mal geschaut, habe nur eben keine Erfahrungen damit, ob die Hardware dann entsprechend eine Weile noch lebt oder nicht. Voraussetzung sind natürlich 1-2 Stück mehr auf Lager für schnellen Austausch. Mir sind beide 2920 Backbones (neu gekauft) in 7 Jahren übern Jordan gegangen, ist auch nicht so prickelnd...
Zitat von @NordicMike:
60 Maschinen + Kameras sind nicht wenig. Alles mit langen Kabeln zu versehen wird schon teuer. An jeder Maschine einen Switch ist aber auch blöd. Hast du die Möglichkeit in der Halle ein paar kleine (möglichst abschließbare) Netzwerkschränke hinzustellen, damit die Leitungswege kurz bleiben? Aus jedem Schrank dann zwei Leitungen zu einem übergeordneten gemeinsamen Switch (also nicht hintereinander kaskadiert). Die zweite Leitung ist für den Fehlerfall bzw kannst sie auch koppeln.
60 Maschinen + Kameras sind nicht wenig. Alles mit langen Kabeln zu versehen wird schon teuer. An jeder Maschine einen Switch ist aber auch blöd. Hast du die Möglichkeit in der Halle ein paar kleine (möglichst abschließbare) Netzwerkschränke hinzustellen, damit die Leitungswege kurz bleiben? Aus jedem Schrank dann zwei Leitungen zu einem übergeordneten gemeinsamen Switch (also nicht hintereinander kaskadiert). Die zweite Leitung ist für den Fehlerfall bzw kannst sie auch koppeln.
Ja, Platz für einen kleinen Schrank ist in den Hallen genug da. Uplink müsste in dem Zug auch gleich gelegt werden, wäre dann 1Gbit Kupfer zum jeweiligen Access-Switch (Duplex-Kabel). Damit würden ich von grob 3km Kabel auf 2km kommen.
Habe auch in die refurbished-Ecke mal geschaut, habe nur eben keine Erfahrungen damit, ob die Hardware dann entsprechend eine Weile noch lebt oder nicht. Voraussetzung sind natürlich 1-2 Stück mehr auf Lager für schnellen Austausch. Mir sind beide 2920 Backbones (neu gekauft) in 7 Jahren übern Jordan gegangen, ist auch nicht so prickelnd...
Hallo,
ich denke das wird ein "bedauerlicher Einzelfall" gewesen sein.
Ich habe insgesamt mehrere tausend(!) 2920/2930, wie auch 2530 bei verschiedenen Kunden im Einsatz.
Die Ausfallquote beträgt hierbei weniger als 2-3% der Gesamtmenge.
Ich denke das ist absolut im Rahmen. Zumal die "limited Lifetime Warranty" hier die defekte Hardware austauschen sollte...
VG,
Florian
Zitat von @aqui:
Ist halt HP... Das ist alles nichts eigenes sondern alles OEMte Massenware und ein über die Jahre zugekaufter Zoo. Die können besser Server, Laptops und Drucker... 🤣
Ist halt HP... Das ist alles nichts eigenes sondern alles OEMte Massenware und ein über die Jahre zugekaufter Zoo. Die können besser Server, Laptops und Drucker... 🤣
Puh... da weiß ich nicht, was ich davon halten oder dazu sagen soll - aber du sprichst ja von HP und nicht von HPE
Sicherlich sind einige Hersteller dazu gekauft worden - insbesondere 3COM und Aruba, wenn wir über Netzwerk sprechen.
Ich kenne aber kaum Hersteller, bei denen das anders wäre - auch Extreme hat sich Avaya (und div.) einverleibt, bei Cisco wäre v.A. Linksys und Meraki zu nennen.
Die OEM Aussage stelle ich absolut in Frage. Falls du von den Chipsets reden solltest - auch Cisco setzt z.B. auf den Trident-3
VG,
Florian
Wenns das denn nun war bitte deinen Thread hier dann auch als erledigt schliessen!