datenreise
Goto Top

Kaufberatung zu 10G-NIC

Hallo zusammen,

vielleicht kann einer der Netzwerker hier ja weiterhelfen. Vor der Anschaffung von Netzwerkkarten mit 10 Gbit/s-SFP+-Schnittstellen stellen sich mir drei Fragen:

1. Wodurch rechtfertigen sich die massiven Preisunterschiede zwischen 60 € und mehreren 100 € für PCI-E-Karten?
Geht es da um irgendwelche Treiber-Zertifizierungen?

2. Karten mit dem Broadcom BCM57810S-Chip gibt es teilweise sehr günstig, ein Dual-Modell für rund 80 € brutto.
Dieser Chip ist schon (sehr) alt, vermutlich deshalt auch so günstig, aber hat man einen Nachteil dadurch?

3. Frage für die Schlacht am Wochenende: Gibt es Karten, die man unbedingt kaufen MUSS, da alles andere eh nur Schrott ist? face-cool

Geplanter Einsatz der Karten wäre unter Windows 10/11 und Server 2022 (auch Hyper-V), "Gegenstelle" sind Ubiquiti-Switches.

Danke für Euren Input!

Content-ID: 7708794453

Url: https://administrator.de/contentid/7708794453

Printed on: October 4, 2024 at 01:10 o'clock

aqui
aqui Jul 01, 2023 at 19:14:47 (UTC)
Goto Top
Geplanter Einsatz der Karten wäre unter Windows 10/11 und Server 2022
Dann ist die Lektüre dieser Threads für dich Pflicht wenn du keinen Performance Frust unter Winblows erleiden willst!!
Wie man das Windows 10 und 11 TCP-Handling wieder desuboptimieren kann
https://www.borncity.com/blog/2023/06/27/windows-11-netzwerkverkehr-erze ...
Datenreise
Datenreise Jul 01, 2023 updated at 20:58:24 (UTC)
Goto Top
Danke, die Artikel sind mir natürlich bekannt. MysticFox kann man für seine Hartnäckigkeit und den Forscherdrang gar nicht genug danken.
Es geht mir hier aber wirklich ausschließlich um Erfahrungen/Meinungen zur Hardware und ggf. deren Treiber.
MysticFoxDE
MysticFoxDE Jul 01, 2023 updated at 21:30:11 (UTC)
Goto Top
Moin @Datenreise,

Geplanter Einsatz der Karten wäre unter Windows 10/11 und Server 2022 (auch Hyper-V), "Gegenstelle" sind Ubiquiti-Switches.

bei den Clients kannst du fast jede beliebige 10G NIC benutzen, man muss die meisten davon aber erst korrekt konfigurieren, damit diese 10G auch liefern.

Bei den Servern und vor allem bei Hyper-V, sieht die Sache hingegen ganz anders aus.
Hier würde ich dir eine original 10G NIC von Intel empfehlen.
Die spielen meiner Erfahrung nach, am besten mit Hyper-V zusammen.
Es sollte aber eine original Intel und keine DELL und oder HPE & Co KG NIC mit Intel Chipsatz sein, weil nur bei dieser garantiert ist, dass alle für Hyper-V benötigten Features auch verfügbar/aktiviert sind.

z.B. die folgende hier.
https://www.intel.com/content/www/us/en/products/sku/83964/intel-etherne ...

Insbesondere bei den Clients solltest du zudem bei 10G auf die Verkabelung achten. Diese sollte mindestens CAT6A entsprechen und nicht darunter sein. Und auch die richtigen/gute Patchkabel sind bei 10G auch extrem wichtig.
Oder willst du die Clients etwa auch per LWL anfahren?

Beste Grüsse aus BaWü
Alex
Datenreise
Datenreise Jul 01, 2023 at 22:23:38 (UTC)
Goto Top
Danke für den differenzierten Blick und Deine Erfahrungswerte, Alex!

Kabelqualität ist klar, ich kaufe nur CAT6A aufwärts und grundsätzlich S/FTP, selbst bei 10 cm-Kabeln für's Rack. Die sind dann immer so "angenehm" steif. face-wink

Wo es kabeltechnisch passt, würde ich aber auch Clients über LWL anbinden, ja. Die Optiken kosten teilweise nur ein Viertel und ich bilde mir ein, etwas weniger warm wird es auch.

Bei Servern würde ich mich dann entsprechend mit dem Hersteller abstimmen.
Gegen den Broadcom BCM57810S spricht bei Clients aus deiner Sicht also trotz seiner Abgehangenheit, die natürlich auch ein Vorteil sein kann, nichts?
MysticFoxDE
Solution MysticFoxDE Jul 02, 2023 updated at 06:54:13 (UTC)
Goto Top
Moin @Datenreise,

Kabelqualität ist klar, ich kaufe nur CAT6A aufwärts und grundsätzlich S/FTP, selbst bei 10 cm-Kabeln für's Rack. Die sind dann immer so "angenehm" steif. face-wink

über CAT6A macht das Stand heute auch nicht wirklich einen Sinn, weil sehr viele Hersteller, vor allem deren Ware über Amazon & Co günstig angeboten wird, noch nicht mal die CAT6A Patchkabel anständig hinbekommen. ๐Ÿ˜”๐Ÿ˜ญ

Wo es kabeltechnisch passt, würde ich aber auch Clients über LWL anbinden, ja. Die Optiken kosten teilweise nur ein Viertel und ich bilde mir ein, etwas weniger warm wird es auch.

Ja, Datenübertragungen über LWL verbraucht weniger Strom und dadurch werden die entsprechenden NIC's auch nicht so heiss wie deren Kupfer-Gegenstücke. Dafür ist Kupfer beim verlegen unempfindlicher.
Ausserdem fehlt dir bei LWL auch POE, welches immer nützlicher wird.

Bei Servern würde ich mich dann entsprechend mit dem Hersteller abstimmen.

Was Server angeht, so würde ich dir gerne den folgenden empfehlen ...
https://ark.intel.com/content/www/us/en/ark/products/229745/intel-server ...

... und zwar hauptsächlich aus dem folgenden Grund.
Die Server von Intel, sind im Gegensatz zu fast allen anderen, immer "FULL FEATURED" und auch deren Treiber/Firmware, werden von Intel viel besser gepflegt als bei den Gegenstücken von HPE, DELL, CISCO & Co. KG. ๐Ÿ˜‰

Gegen den Broadcom BCM57810S spricht bei Clients aus deiner Sicht also trotz seiner Abgehangenheit, die natürlich auch ein Vorteil sein kann, nichts?

Bei Clients benötigst du für 10G maximal ein funktionierendes RSS und das sollte die Broadcom BCM57810S eigentlich hinbekommen. Vielleicht nicht von Haus aus, weil so gut wie keine Defaultkonfiguration einer 10G NIC wirklich gut ist, aber mit etwas Nachhilfe, funktionieren die Broadcom NIC's, erfahrungsgemäss schon ganz gut, zumindest was die Clients angeht.

Mein Optimierungsskript schaltet momentan RSS vollständig aus, weil das im Vergleich zu den meisten RSS-Defaultkonfigurationen der heutigen 10G NIC's, die bessere Variante ist.
Ganz sauber ist diese Lösung aber auch nicht, weil man je nach verwendeter CPU, RSS schon benötigt wird, um 10G vollständig ausreizen zu können.
Daher werde ich im Lauf der nächsten Monate, mein Optimierungsskript auch etwas umbauen, damit dieses den realen Linkspeed einer NIC erkennt und gemäss diesem, z.B. bei <= 2,5 GBit/s RSS weiterhin deaktiviert und bei einem schnelleren Linkspeed, RSS korrekt konfiguriert. ๐Ÿ˜

Bei Servern sieht die Sache schon anders aus, vor allem wenn die Broadcom NIC's keine original Broadcom NIC's sind, sondern nur den Broadcom Chipsatz verwenden. Dann verhält es sich ähnlich wie auch bei den NIC's von Intel, sprich, diese können zwar in seltenen Fällen auch FULL FEATURED sein, sind es aber meistens nicht. ๐Ÿ˜”

Beste Grüsse aus BaWü
Alex
Datenreise
Datenreise Jul 02, 2023 updated at 14:13:55 (UTC)
Goto Top
Prima, das hilft mir schon mal weiter, danke!
PoE ist natürlich klar, das fällt weg über LWL. Mir geht es auch nur um Geräte, die als Verbraucher (deutlich) oberhalb eines PoE-Budgets liegen. face-wink

Folgefragen:

- Gibt es eine Chance, die von Dir angesprochenen, schlechten Kabel (Amazon) zu erkennen oder fällt die Minderwertigkeit immer erst auf, sobald man Geschwindigkeiten >1Gbit/s verbinden möchte?

- Wenn ich keine "Full Feature"-Karte habe und/oder eine 10G-Karte in der (schlechten) Standardkonfiguration betreibe, was bedeutet dies konkret? Reduzierter Durchsatz, hohe Latenz? Oder auch Wegfall von Funktionalität?

Schöne Grüße zurück aus NRW!
aqui
aqui Jul 02, 2023 updated at 15:22:48 (UTC)
Goto Top
Datenübertragungen über LWL verbraucht weniger Strom und dadurch werden die entsprechenden NIC's auch nicht so heiss wie deren Kupfer-Gegenstücke.
Das gilt nicht nur für LWL sondern auch bei Verwendung von DAC/Twinax Kabeln und AOC Kabeln. Auch garantiert die SFP basierte Infrastruktur immer sicher 10G Bandbreite was bei 10G BaseT nicht immer garantiert ist.
MysticFoxDE
MysticFoxDE Jul 02, 2023 at 15:26:39 (UTC)
Goto Top
Moin @Datenreise,

- Gibt es eine Chance, die von Dir angesprochenen, schlechten Kabel (Amazon) zu erkennen oder fällt die Minderwertigkeit immer erst auf, sobald man Geschwindigkeiten >1Gbit/s verbinden möchte?

ja es gibt eine einzige Chance ein schlechtes Patchkabel von einem guten zu unterscheiden, diese kostet aber meist fünfstellig und heisst z.B. Fluke DSX 8000. ๐Ÿ˜Œ
Darunter erkennt es leider kein mir bekannter Tester, weil diese weder die Schleifenwiderstände ermitteln, noch prüfen ob diese synchron sind. Und auch sehr wichtige Dinge wie NEXT oder die Rückflussdämfung, messen vor allem die günstigen Messgeräte auch nicht wirklich. ๐Ÿ˜ญ

Gute Qualität gibt es z.B. unter anderem von Telegärtner, Metz oder PatchSee.
Hervorragend sind auch die Patchkabel von R&M, aber auch sehr teuer.

Die Probleme treten bei schlechten Patchkabeln leider nicht erst ab >1G auf, sondern sind zum Teil auch schon bei 1G kräftig zu spüren. ๐Ÿ˜”

- Wenn ich keine "Full Feature"-Karte habe und/oder eine 10G-Karte in der (schlechten) Standardkonfiguration betreibe, was bedeutet dies konkret? Reduzierter Durchsatz, hohe Latenz? Oder auch Wegfall von Funktionalität?

Wenn du nur eine schlechtkonfigurierte 10G NIC hast, dann läuft diese zwar bei Default-Einstellungen mit einer bescheidenen Performance, aber das lässt sich meistens wieder zurechtoptimieren.
Wenn deiner NIC wichtige Features fehlen, wie vRSS oder VMMQ, dann wirst du mit dieser bei einem Hypervisor, wahrscheinlich nie die volle Leistung erreichen können und oder du verbrennst zum Teil extrem mehr CPU Leistung beim selben Durchsatz, als bei einer Full-Featured-NIC.

Beste Grüsse aus BaWü
Alex
MysticFoxDE
MysticFoxDE Jul 02, 2023 updated at 21:15:42 (UTC)
Goto Top
Moin @aqui,

Auch garantiert die SFP basierte Infrastruktur immer sicher 10G Bandbreite was bei 10G BaseT nicht immer garantiert ist.

auch bei LWL gibt es duzende Dinge, die die Performance beeinflussen können.
Es reicht manchmal schon aus, beim Auspacken der LWL-Patchkabel mit der Fingerkuppe vorne die Glasfaser zu berühren und und schon kannst du aufgrund der Verunreinigung Übertragungsfehler bekommen.

Aus diesem Grund haben wir uns auch schon vor Jahren das folgende Spielzeug angeschafft ...
https://de.flukenetworks.com/datacom-cabling/Versiv/FI-7000
... mit dem man solchen Verunreinigungsproblemen, relativ gut auf die Schliche kommen kann.

Gruss Alex
clSchak
clSchak Jul 03, 2023 updated at 07:06:50 (UTC)
Goto Top
Zitat von @MysticFoxDE:

Moin @aqui,

Auch garantiert die SFP basierte Infrastruktur immer sicher 10G Bandbreite was bei 10G BaseT nicht immer garantiert ist.

auch bei LWL gibt es duzende Dinge, die die Performance beeinflussen können.
Es reicht manchmal schon aus, beim Auspacken der LWL-Patchkabel mit der Fingerkuppe vorne die Glasfaser zu berühren und und schon kannst du aufgrund der Verunreinigung Übertragungsfehler bekommen.

Aus diesem Grund haben wir uns auch schon vor Jahren das folgende Spielzeug angeschafft ...
https://de.flukenetworks.com/datacom-cabling/Versiv/FI-7000
... mit dem man solchen Verunreinigungsproblemen, relativ gut auf die Schliche kommen kann.

Gruss Alex

Darum: vor jeden "stecken" beide Seiten einmal reinigen. Auch einer der Gründe "meines" letzten Topics, die Dämpfungswerte der LWL Module auszulesen, daüber bekommt man dann schnell mit, wenn ein SFP Modul sein Lebensende erreicht hat oder irgendwo ein Problem mit dem Leitungsweg vorliegt.

Das Messgerät fehlt noch in unserer "Sammlung" face-smile
aqui
aqui Jul 03, 2023 at 07:52:56 (UTC)
Goto Top
Brauchst du doch nicht wenn du DOM fähige SFP Optiken hast! ๐Ÿ˜‰
MysticFoxDE
MysticFoxDE Jul 03, 2023 at 09:22:55 (UTC)
Goto Top
Moin @clSchak,

Darum: vor jeden "stecken" beide Seiten einmal reinigen.

๐Ÿ‘๐Ÿ‘๐Ÿ‘, jedoch ... wer mach das schon.

Auch einer der Gründe "meines" letzten Topics, die Dämpfungswerte der LWL Module auszulesen, daüber bekommt man dann schnell mit, wenn ein SFP Modul sein Lebensende erreicht hat oder irgendwo ein Problem mit dem Leitungsweg vorliegt.

Auch gut, aber dazu fehlt uns das nötige Spielzeug und da wir zu selten LWL machen, sehe ich es auch nicht ein, noch ein solches anzuschaffen. Der DSX 8000 in der reinen Kupfervariante hat dem Letzt schon einiges an Haaren vom Kopf gefressen. Aber die waren es auch wert.๐Ÿคช

Das Messgerät fehlt noch in unserer "Sammlung" face-smile

Kann das Ding nur empfehlen.
Wenn ihr schon einen DSX von Fluke habt, dann benötigst du nur noch die USB Kamera. ๐Ÿ˜‰
Und die passenden Adapter für LC ST & Co., muss man entsprechend auch noch dazubestellen.

Beste Grüsse aus BaWü
Alex
MysticFoxDE
MysticFoxDE Jul 03, 2023 at 09:27:39 (UTC)
Goto Top
Moin @aqui,

Brauchst du doch nicht wenn du DOM fähige SFP Optiken hast! ๐Ÿ˜‰

DOM bring hier nicht wirklich etwas, weil es die GBIC's lediglich dazu befähigt, unter anderem die Rx oder Tx Fehler oder die Rx oder Tx Power zurückzumelden. DOM hilft jedoch nicht wirklich einen Fehler aufgrund von z.B. einer Verunreinigungen zu vermeiden.

Gruss Alex
ni.sch
ni.sch Jul 03, 2023 at 18:05:52 (UTC)
Goto Top
Nur am Rande: hat Intel nicht angekündigt ihre Serverproduktion einzustellen? Hat da schon jemand was zum langfristigen Support gehört? Ich fand/finde ja die 7000er von Wortmann immer gut, da Intel Barebones.
MysticFoxDE
MysticFoxDE Jul 04, 2023 at 04:39:26 (UTC)
Goto Top
Moin @ni.sch,

Nur am Rande: hat Intel nicht angekündigt ihre Serverproduktion einzustellen? Hat da schon jemand was zum langfristigen Support gehört?

nö davon habe ich nichts gehört und das wird meiner Meinung nach auch nicht so schnell geschehen,
weil Intel das Referenzdesign für die Boards der Xeons nicht nur für seine eigenen Boards/Barebones nutzt, sondern an gefühlt > 50% der anderen Serverhersteller verkauft. ๐Ÿ˜‰

Die Optane SSD's kann man übrigens auch noch kaufen.

Ich fand/finde ja die 7000er von Wortmann immer gut, da Intel Barebones.

Wir beziehen die Intel Barebones über Pro STOR.
Die sind zwar nicht so gross wie Wortmann, aber wie heisst es so schön, "klein aber fein". ๐Ÿ˜‰

Beste Grüse aus BaWü
Alex
MysticFoxDE
MysticFoxDE Jul 04, 2023 at 05:02:13 (UTC)
Goto Top
Moin @clSchak,

Darum: vor jeden "stecken" beide Seiten einmal reinigen.

zu dem Thema ist mir noch was eingefallen.
Gegen dieses LWL Problem (Verschmutzung/Verstaubung) gibt es eigentlich eine 1A Lösung namens "E2000".
https://www.diamond.de/produkte/lwl-stecker/e-2000-familie
Jedoch ist dieser LWL Steckertyp, meiner bisherigen Erfahrung nach, in Deutschland nicht wirklich sehr bekannt.

Gruss Alex
clSchak
clSchak Jul 04, 2023 updated at 08:51:35 (UTC)
Goto Top
ja und nein, das sieht eher nach "Feldstecker" aus, aber das schützt ja das SFP Modul nicht, da müssen halt die üblichen Gummistecker rein.

Wir haben uns mittlerweile angewöhnt einmal beide Seiten zu reinigen, macht den "Braten auch nicht Fett" wie man so schön sagt. So oft stecken wir jetzt auch nicht alles um.

Aber Back 2 Topic:

so lange du nicht permanent Volllast aud den Links fährts, ist der Hersteller eher irrelevant. Wenn du iSCSI darüber fahren willst sollten die FlowControl, Offload und Jumbo Frames unterstützen, alle anderen HighEnd Feature (z.B. DCB) wird in deinem Szenario nicht vorkommen und kann vernachlässigt werden. Achte lediglich darauf, dass die Hardware mit Hyper-V kompatibel und dafür freigegben ist (wobei Hyper-V nicht wie VMWare unterwegs sind).

Der Preisunterschied kommt oft von Extra-Features wie z.B. Unterstützung von DCB (DataCenterBridging), dann musst auch darauf achte, ob die Optiken ggf. schon dabei sind oder man diese extra kaufen muss. Die Herstellerkarten von Dell oder HP sind meistens wegen spezieller Firmware so teuer, funktionieren "gescheit" nur in Verbindung mit eigenen Serven, hat dann auch etwas mit der Kompatibilität des Managementinterfaces (iLO / iDRAC / IPMI) zu tun.
MysticFoxDE
MysticFoxDE Jul 04, 2023 updated at 10:11:42 (UTC)
Goto Top
Moin @clSchak,

ja und nein, das sieht eher nach "Feldstecker" aus, aber das schützt ja das SFP Modul nicht, da müssen halt die üblichen Gummistecker rein.

ein reiner Feldstecker ist es nicht gerade, da du die Dinger auch in Patchpanels verwenden kannst, aber du hast schon recht, an der Seite des GBIC's hört dieser Spass leider auf. Aber zumindest eine Seite wäre schon mal um einiges besser geschützt.

Wir haben uns mittlerweile angewöhnt einmal beide Seiten zu reinigen, macht den "Braten auch nicht Fett" wie man so schön sagt. So oft stecken wir jetzt auch nicht alles um.

Machen wir auch, aber die meisten Kunden-Admins regieren auf solche Aktionen meist mit der Frage, ob das den wirklich notwendig ist. ๐Ÿ™ƒ

Aber Back 2 Topic:

so lange du nicht permanent Volllast aud den Links fährts, ist der Hersteller eher irrelevant. Wenn du iSCSI darüber fahren willst sollten die FlowControl, Offload und Jumbo Frames unterstützen, alle anderen HighEnd Feature (z.B. DCB) wird in deinem Szenario nicht vorkommen und kann vernachlässigt werden. Achte lediglich darauf, dass die Hardware mit Hyper-V kompatibel und dafür freigegben ist (wobei Hyper-V nicht wie VMWare unterwegs sind).

Hier muss ich kräftigst widersprechen.
Vor allem ab Hyper-V 2019 muss eine >= 10G NIC mindestens RSS und vSwitch-RSS und VMQ oder RSS und SRIOV unterstützen, damit der vSwitch auch nur ansatzweise die 10G der NIC annehmen oder weitergeben kann. Und selbst wenn die NIC die entsprechenden Features mit sich bringt, müssen diese in so gut wie allen Fällen, nochmals von Hand gemäss der verbauten CPU's konfiguriert werden und einige Features wie z.B. das elende RSC und oder IR sollten wiederum ausgeschaltet werden, damit am Ende ds Tages die Performance nicht noch bescheidener wird wie bei einer reinen 1G NIC. ๐Ÿ˜”

Siehe ...
https://community.spiceworks.com/topic/2225989-server-2019-network-perfo ...

Gruss Alex
clSchak
clSchak Jul 04, 2023 at 10:28:53 (UTC)
Goto Top
wir machen hier nichts mit Hyper-V, aus dem Grund ist mein Wissensstand da auch eher beschränkt. Bei unseren VMWare Hosts setzen wir nur Hersteller & VMWare zertifizierte Hardware ein. Sind aber auch so Dinge, die fallen bei den Gesamtkosten einfach nicht mehr ins Gewicht.

Den meisten Aufwand bei VMWare hat man am ehesten mit Path-Config für das Storage, der Rest läuft direkt auf einem akzeptablen Niveau und muss nur noch "Feinjustiert" werden, zumindest ist das die Erfahrung die ich bisher mit VMWare gemacht habe.

iSCSI ist ein wenig wenig mehr Aufwand wie FC, aber das hält sich auch noch in Grenzen.
MysticFoxDE
MysticFoxDE Jul 04, 2023 updated at 11:39:18 (UTC)
Goto Top
Moin @clSchak,

wir machen hier nichts mit Hyper-V, aus dem Grund ist mein Wissensstand da auch eher beschränkt. Bei unseren VMWare Hosts setzen wir nur Hersteller & VMWare zertifizierte Hardware ein. Sind aber auch so Dinge, die fallen bei den Gesamtkosten einfach nicht mehr ins Gewicht.

Den meisten Aufwand bei VMWare hat man am ehesten mit Path-Config für das Storage, der Rest läuft direkt auf einem akzeptablen Niveau und muss nur noch "Feinjustiert" werden, zumindest ist das die Erfahrung die ich bisher mit VMWare gemacht habe.

wenn du dich durch den Beitrag in Spiceworks und auch die Unterstories mal durchkämpfst, dann wirst du feststellen, dass sich an diesen auch einige VMware Nutzer beteiligt haben.
GMobley, ist z.B. für eine VMware Umgebung mit > 10.000 VM's mitverantwortlich und hat in dem Beitrag mitunter auch sehr viel abgekotzt. Ferner haben sich auch bei mir schon Unternehmen gemeldet, die VMware nutzen und ähnliche Probleme haben. Auch bei diesen war die Ursache oft eine ähnliche wie beim Hyper-V, sprich, es war per Default irgend ein neumodisches aber unnützes Feature aktiviert und oder nicht richtig konfiguriert.
Ich sage nur LRO, was bei VMware dasselbe ist wie bei Microsoft das RSC. ๐Ÿคข๐Ÿคฎ

https://kb.vmware.com/s/article/2055140
https://kb.vmware.com/s/article/2129176
๐Ÿ˜‰

iSCSI ist ein wenig wenig mehr Aufwand wie FC, aber das hält sich auch noch in Grenzen.

Ich würde niemals iSCSI, FC oder SAS vorziehen, alleine schon wegen des durch TCP bedingten CPU Overheads wegen.
Einen FC-HBA oder einen SAS-HBA kannst du einfach in den Server stecken und hast ohne deren Konfig grossartig optimieren zu müssen, mindestens 80% der versprochenen Leistung.
Bei einer NIC und vor allem ab 10G, sieht die Sache hingegen und vor allem bei Windows, alles andere als einfach aus. Selbst in einer Workstation (W10 oder W11) laufen die Dinger nicht mal ansatzweise mit der Leistung wie sie sollten, von einem Windows Server ganz zu schweigen. ๐Ÿ˜”

Siehe hier die letzten Kommentare ...
Wie man das Windows 10 und 11 TCP-Handling wieder desuboptimieren kann

Gruss Alex
aqui
aqui Jul 04, 2023 updated at 12:13:37 (UTC)
Goto Top
aber die meisten Kunden-Admins regieren auf solche Aktionen meist mit der Frage, ob das den wirklich notwendig ist.
Da hilft es dann immer mal solche Bilder zu zeigen:
https://www.flexoptix.net/de/blog/lwl-lc-stecker-reinigen-ist-sinnvoll-u ...

Dann stellen solcherlei "Admins" nie wieder solche Fragen und kaufen sich dann ganz schnell und heimlich die Dose Druckluft Spray und waschen sich die Pommes Hände VOR dem Patchen! ๐Ÿ˜‰
MysticFoxDE
MysticFoxDE Jul 04, 2023 at 13:22:09 (UTC)
Goto Top
Moin @aqui,

aber die meisten Kunden-Admins regieren auf solche Aktionen meist mit der Frage, ob das den wirklich notwendig ist.
Da hilft es dann immer mal solche Bilder zu zeigen:
https://www.flexoptix.net/de/blog/lwl-lc-stecker-reinigen-ist-sinnvoll-u ...

Dann stellen solcherlei "Admins" nie wieder solche Fragen und kaufen sich dann ganz schnell und heimlich die Dose Druckluft Spray und waschen sich die Pommes Hände VOR dem Patchen! ๐Ÿ˜‰

deshalb haben wir ja auch den FI 7000 zugelegt. Damit kann man den entsprechenden Admins 1A live zeigen, wie die Oberfläche der Fasern der entsprechenden Patchkabel oder auch die der Patchfelder vor dem Putzen ausgesehen hat. ๐Ÿ˜
Und selbst bei nagelneuen LWL-Patchkabeln sollte man zur Sicherheit immer reinigen, die sehen zum Teil ab Werk schon sehr grusselig aus.

Gruss Alex
clSchak
clSchak Jul 04, 2023 at 13:47:40 (UTC)
Goto Top
Bis 10G würde ich bei iSCSI bleiben, auch wenn mehr Config-Aufwand, preislich ist das einfach ein rieisiger Vorteil. >10G nur noch FC, ab dann relativieren sich auch die Kosten für die zu bereitstellende Infrastruktur, eine 12P FC Switch ist günstiger wie 12P 40G Ethernet Switch und macht deutliche weniger Probleme und lässt sich mit viel weniger Aufwand einrichten, nur das ganze ALIAS erstellen ist halt nervig, aber da hilft dann ein Texteditor und Copy&Paste in die Konsole face-smile

Das einzige was bei FC leider immer noch "teuer" ist: LongRange / 1310nm Module, aber davon benötigt man im Regelfall auch nicht so viele - aber was im FC Bereich so richtig nervtötend ist: PortonDemand Lizensierung, der BWL'er der sich das ausgedacht hat...dem soll beim Händewaschen immer der Ärmel runterrutschen!
ni.sch
ni.sch Jul 04, 2023 at 20:04:49 (UTC)
Goto Top
Zitat von @MysticFoxDE:

Moin @ni.sch,

Nur am Rande: hat Intel nicht angekündigt ihre Serverproduktion einzustellen? Hat da schon jemand was zum langfristigen Support gehört?

nö davon habe ich nichts gehört und das wird meiner Meinung nach auch nicht so schnell geschehen,
weil Intel das Referenzdesign für die Boards der Xeons nicht nur für seine eigenen Boards/Barebones nutzt, sondern an gefühlt > 50% der anderen Serverhersteller verkauft. ๐Ÿ˜‰

Die Optane SSD's kann man übrigens auch noch kaufen.

Ich fand/finde ja die 7000er von Wortmann immer gut, da Intel Barebones.

Wir beziehen die Intel Barebones über Pro STOR.
Die sind zwar nicht so gross wie Wortmann, aber wie heisst es so schön, "klein aber fein". ๐Ÿ˜‰

Beste Grüse aus BaWü
Alex

Wenn auch noch etwas OT:
https://www.servethehome.com/breaking-intel-exiting-the-server-business- ...
MysticFoxDE
MysticFoxDE Jul 05, 2023 at 04:31:22 (UTC)
Goto Top
Moin @ni.sch,


๐Ÿ˜ฏ ... ๐Ÿ˜– ... das wäre nix gut.
Danke für die Info, habe diese soeben mit der Bitte um Erklärung an meine Kontakte bei Intel geschickt.

Ich habe übrigens nach der in der Öffentlichkeit erschienenen Abkündigung der Optane-SSD's von Intel selbst gehört, dass das eher ein Missverständnis gewesen sein soll. ๐Ÿ™ƒ

Und siehe da, erst ende letzten Jahres, also fast ein Jahr nach der Meldung mit der Abkündigung, erscheinen neue Intel Optane SSD's. ๐Ÿ˜
https://ark.intel.com/content/www/us/en/ark/products/series/213706/intel ...

Auf der Produkthomepage der Optane SSD's, ist von einer Abkündigung übrigens auch weit und breit nichts zu sehen.

https://www.intel.de/content/www/de/de/products/details/memory-storage/d ...

Sprich, abwarten, Tee/Kaffee trinken und schauen was tatsächlich passiert. ๐Ÿคช

Gruss Alex
MysticFoxDE
MysticFoxDE Jul 05, 2023 at 05:54:42 (UTC)
Goto Top
Moin @ni.sch,


ich habe soeben direkt von Intel das Feedback erhalten ... die Sache mit den Servern ist leider absolut wahr. ๐Ÿ˜ญ
Sprich, ja, Intel bietet in Zukunft keine Barebones mehr an. ๐Ÿคข๐Ÿคฎ

Gruss Alex
ni.sch
ni.sch Jul 05, 2023 at 12:23:51 (UTC)
Goto Top
Vllt bieten Sie ja dennoch weiterhin Boards an. Obwohl das durch Mitac/Tyan vermutlich unwahrscheinlich ist.
MysticFoxDE
MysticFoxDE Jul 06, 2023 at 04:55:49 (UTC)
Goto Top
Moin @ni.sch,

Vllt bieten Sie ja dennoch weiterhin Boards an. Obwohl das durch Mitac/Tyan vermutlich unwahrscheinlich ist.

wen ich das gestern richtig verstanden habe, dann ist das ganze Serverthema an Mitac gegangen.
Die haben ja eh schon länger die Boards für Intel produziert.

Gruss Alex
Datenreise
Datenreise Jul 15, 2023 at 21:14:30 (UTC)
Goto Top
Hier noch einmal abschließend allerbesten Dank an alle, die hilfreich kommentiert haben.
Ganz besonders an Alex, dass Du hier mit Deinem beeindruckend umfangreichen Wissen und Erfahrungsschatz unterstützend zur Seite stehst. Karma will follow.