mysticfoxde
Goto Top

100 Prozent CPU Last gleich Volllast, Pustekuchen, nicht bei Microsoft!!!

Moin Zusammen,

ich bin dem Letzt beim Debuggen einer Netzwerkproblematik auf ein meiner Ansicht nach sehr kritisches Problem in der Auslastungsdarstellung der CPU bei Microsofts Betriebssystemen (Server & Client) gestossen.

Viele Details habe ich schon vor ein paar Wochen angefangen unter dem folgenden Beitrag (englisch) bei Spiceworks zusammenzutragen.

https://community.spiceworks.com/topic/2271260-microsoft-taskmanager-sho ...

Folgend eine kurze Zusammenfassung in Deutsch:
Microsoft berechnet die CPU-Auslastung immer in Referenz zu der Basisgeschwindigkeit des Prozessors, auch wenn dieser Dank Turbo & Co momentan eine viel höhere Geschwindigkeit bereitstellt. Dadurch kann die Auslastung der CPU weit über 100% gehen bis deren Leistung dann tatsächlich erschöpft ist. Ferner ist es alles andere als einfach das Problem überhaupt zu erkennen, da Microsoft selbst die Anzeige des Taskmanagers von 0%-100% skaliert hat und nicht darüber. 🤨🤢 Lediglich mit der Leistungüberwachung lässt sich dem Ganzen Schlamassel auf die Schliche kommen.

Folgend ein Beispiel des Problems anhand eines Surface Book’s.
Das Surface Book hat einen Intel i7-8650U CPU verbaut, deren Basistakt laut ARK bei 1,9GHz liegt.
Dankt Turbo kann die CPU aber bis auf 4,2 GHz hochtackten.

Der Basistakt meines Surface ist mit 2,11 GHz zwar etwas höher als der von Intel angegeben, aber dies ist insbesondere für U-Prozessoren nichts Ungewöhnliches. Komplettsystemhersteller und oder Systemintegratoren können den Basistakt je nach verwendetem Kühlsystem erhöhen oder verringern.

Der untere Screenshot zeigt den Task-Manager links und die Leistungsüberwachung rechts.
Bei der Leistungsüberwachung habe ich zwecks besserer Übersicht nur der Performancecounter der CPU-Auslastung für den ersten Kern aktiviert. Der Task-Manager verwendet ebenfalls denselben Zähler, um die Auslastung des ersten Kerns darzustellen (blau markiert). Zur Lasterzeugung habe ich ein BurnIn-Tool verwendet. Das Tool habe ich so konfiguriert, dass nur der erste Kern belastet wird.
taskmanager_03

Bei dem Task-Manager auf der rechten Seite des Screenshots steigt die Last wie Ihr seht auf 100% und mehr gibt es hier nicht zu sehen, da die Anzeige auf 100% begrenzt ist.
In der Leistungsüberwachung rechts sieht man jedoch, dass der Counter für die Auslastung des ersten Kerns nicht bei 100% ist, sondern bei mehr als 180%. 😮

Diese Form der Auslastungsanzeige ist meiner Ansicht nach, für jeden normalen Benutzer und fast jeden Administrator absolut irreführend.

Und es gibt ein weiteres Problem, das sich aus diesem Kontext ergibt.
Fast jedes Überwachungstool wie Nagios oder PRTG oder WhatsUp Gold oder ... zeigt die CPU-Auslastung demzufolge ebenfalls nicht richtig an, da diese meist dieselben Performancecounter benutzen wie auch das Betriebssystem selbst. 🤮
Alle oben genannten Systeme sind so konzipiert, dass die 100% CPU-Auslastung auch bedeutet, dass die CPU vollständig ausgelastet ist. Wir wissen jedoch jetzt, dass Microsoft hier eine andere Ansicht hat und dass eine 100% CPU-Auslastung keineswegs einer vollständigen Auslastung entspricht. 😖

Ich finde diesen Sachverhalt mehr als Kritisch. jedoch sind einige Usern bei Spiceworks davon überzeugt, dass dies alles schon so korrekt ist und ich lediglich einen Knick in meiner Logik hätte. 😱🙃

Wie denkt Ihr darüber?

Grüsse aus BaWü

Alex
Kommentar vom Moderator tomolpi am 29.05.2020 um 16:19:07 Uhr
Jetzt ist aber wirklich dicht hier, wenn es auch nach meiner Ermahnung weitergeht...

Content-ID: 574337

Url: https://administrator.de/contentid/574337

Ausgedruckt am: 22.11.2024 um 04:11 Uhr

certifiedit.net
certifiedit.net 24.05.2020 um 11:45:54 Uhr
Goto Top
Hallo Alex,

in dem Fall solltest du die Finger von Basistakt CPUs lassen, zu dem ist die CPU Auslastung meist nur für - naja - Leute von wirklicher Relevanz, ein ordentlich gesiztes System läuft selten auf mehr als 20-30%, selbst im Schnitt nicht. Wichtiger sind im Normalen Computing Segment eher RAM und IOPS, die CPU dient für mich meist nur als Indikator für das schnelle Identifizieren des Alters des Systems.

Daher kann ich mich den Profis nur anschliessen, nebenbei, whatsapp ist was anderes als whatsup. Sorry, aber das ist schon ein Fingerzeig. Aber kleine Frage, wie oft schaust du denn die CPU Auslastung an? Arbeitest du im HPC Umfeld? (da gibst du dich dann mit i5 und i7 ab?).

Kritisch ist daran nichts, denn die CPU Auslastung, insbesondere auf einem von 8 Oder 16 ++, sagt relativ wenig aus.

Entspann dich.

Grüße
MysticFoxDE
MysticFoxDE 24.05.2020 aktualisiert um 12:29:51 Uhr
Goto Top
Moin,

Zitat von @certifiedit.net:
in dem Fall solltest du die Finger von Basistakt CPUs lassen, zu dem ist die CPU Auslastung meist nur für - naja - Leute von wirklicher Relevanz, ein ordentlich gesiztes System läuft selten auf mehr als 20-30%, selbst im Schnitt nicht.

Deine Aussage zu dem Basistakt verstehe ich nicht, wie meinst du das genau?

Wichtiger sind im Normalen Computing Segment eher RAM und IOPS

👍 wichtig ja, aber nicht wichtiger, ohne eine gute CPU gibt es auch keine ordentlichen IOs, vor allem dann nicht, wenn das Storage ebenfalls vom selben Server und nicht von einem SAN bereitgestellt wird.

die CPU dient für mich meist nur als Indikator für das schnelle Identifizieren des Alters des Systems.

Da kann ich absolut nicht zustimmen, ohne eine ausreichend demissionierte CPU, gibt es weder gute IO's noch kann man z.B. alle 10G NICs sauber auslasten u.s.w..

Daher kann ich mich den Profis nur anschliessen,

Ich nicht, liegt aber vielleicht am Sternzeichen, wir Stiere sind meistens sehr stur. 😤🙃

nebenbei, whatsapp ist was anderes als whatsup. Sorry, aber das ist schon ein Fingerzeig.

😦, da hast du vollkommen Recht, sch... Autorkorrektur, hab dank dieser u. A. schon sehr viel lustige SMS geschrieben. 🙃

Aber kleine Frage, wie oft schaust du denn die CPU-Auslastung an?
Mehrfach die Woche, meistens unfreiwillig. Die CPU-Auslastung ist meistens der erste Faktor der einen Admin darauf hinweist, dass mit seinem System etwas nicht stimmt und dann komme ich ins Spiel.

Arbeitest du im HPC Umfeld? (da gibst du dich dann mit i5 und i7 ab?).

Darauf kann ich eindeutig mit JAIN antworten. 😎
So HPC alla CERN Rechencluster, eher weniger aber HPC im Sinne des Wortes schon.

Das Surface Book ist lediglich meine Mobile Remoteconsole und Mailbearbeitungsmaschine wenn ich unterwegs bin, dafür reicht der i7 schon ganz ordentlich aus.

Für die erwachsenen Dinge steht auf meinem Schreibtisch ein etwas anderes Kaliber.
- i9-9820X mit einem dauertackt von 4,5GHz über alle Kerne, dank ordentlicher WaKü auch bei Volllast, ist aber nur übergansweise.
Eigentlich habe ich schon vor über 6 Monaten einen i9-10980XE bestellt, wurde bisher aber noch nicht geliefert. 🤢
- 128GB DDR4 3200er RAM
- RTX 2080 Ti
- 2 x Corsair MP600 (RAID0)  > 1.000.000 IO/s mit einer durchschnittlichen Latenz von 0,1 ms.
- 2 x Intel 905P (VROC RAID0)  > 1.000.000 IO/s mit einer durchschnittlichen Latenz von 0,01 ms. 🤪

Ist das schon eher HPC???

Ich habe zur besseren Verdeutlichung des Problems mit Absicht mein Surface Book genommen, da hier der Drift zwischen Basistackt und realer Taktrate viel höher ist wie bei meiner Workstation. Mit dieser schaffe ich laut Microsoft nur eine CPU-Auslastung von ~140%. 🙃

Grüsse aus BaWü

Alex
certifiedit.net
certifiedit.net 24.05.2020 um 12:37:51 Uhr
Goto Top
- i9-9820X mit einem dauertackt von 4,5GHz über alle Kerne, dank ordentlicher WaKü auch bei Volllast, ist aber nur übergansweise.

Nein, das ist Bastler. Sorry und klar schaut sowas ziemlich oft in den CPU Takt, das ist wie Autobastler, die haben auch alle paar Tage Ihre Motorabdeckung offen, bringen tut es wenig.

Da kann ich absolut nicht zustimmen, ohne eine ausreichend demissionierte CPU, gibt es weder gute IO's noch kann man z.B. alle 10G NICs sauber auslasten u.s.w..

Das macht in einem ordentlichen Serversystem was anderes als die CPU, vielleicht ist da dein Kernproblem.

Da sag ich nur
> ein ordentlich gesiztes System läuft selten auf mehr als 20-30%, selbst im Schnitt nicht.
MysticFoxDE
MysticFoxDE 24.05.2020 um 13:09:32 Uhr
Goto Top
Nein, das ist Bastler. Sorry und klar schaut sowas ziemlich oft in den CPU Takt, das ist wie Autobastler, die haben auch alle paar Tage Ihre Motorabdeckung offen, bringen tut es wenig.

Sei mir bitte nicht böse, aber urteile bitte nicht über Dinge die du nicht kennst und oder verstehst.
Die besagte Workstation hat Ihre Leistung schon mehr als genug unter beweis gestellt.
Das letzte Mal hat diese eine Migration einer Datenbank von Oracle auf MS SQL in gerade mal 8 Stunden verrichtet. (Testmigration)
Das hauseigene und > 200K teure Hyper-V Cluster des Kunden welches über ein sehr leistungsfähiges AllFlash-SAN verfügt (1.4 Mio IO/s random) benötigte für denselben Workload mehr als 90 Stunden. Somit war für den Kunden die Migration seines System auf der Hauseigenen IT-Landschaft nicht mal über ein verlängertes Wochenende realisierbar, da vor und nach der DB Migration noch viele andere Sachen auch noch gemacht werden müssen. Dank meiner "Bastelkiste" können wir bei der echten Migration die demnächst ansteht, die DB auch drei Mal hintereinander Migrieren wenn etwas schief geht und haben an einem normalen Wochenende noch genug Luft für die Vor.- und Nacharbeiten. 😉
Die Alternative würde bedeuten, dass das Unternehmen, bei der Migration den Betrieb über das Wochenende hinaus für etwa 2-3 Tage herunterfahren müsste, bis die Migration abgeschlossen wäre. Jeder verlorene Tag kostet das Unternehmen 150.000,- €.

Da sag ich nur
> ein ordentlich gesiztes System läuft selten auf mehr als 20-30%, selbst im Schnitt nicht.

Dem stimme ich grundsätzlich zu, zumal bei eingeschaltetem Hyper-Threading eh nur 50% der Kerne (physikalische Kerne) 100% der Last abtragen können und die anderen 50% (Hyper-Threading Kerne) nur etwa 10-15% auf die vorherigen drauflegen.
certifiedit.net
certifiedit.net 24.05.2020 um 13:21:16 Uhr
Goto Top
Hab ich da einen Nerv getroffen? Ich sagte nicht, dass die Kiste Bastler ist, sondern dein Habitus von wegen dauernd in die CPU Last zu schauen face-wink

Übrigens, AllFlash ist richtig toll, wenn die Anbindung nicht passt. denn wenn (es nur darauf ankäme) - wie kommst du dann logisch bei 1.000.000 IO/s schneller weg als bei 1.4Mio IO/s, und da schreist du wegen der Skala? face-smile

bin draussen.
MysticFoxDE
MysticFoxDE 24.05.2020 um 13:44:18 Uhr
Goto Top
Hab ich da einen Nerv getroffen?

Nö, ich mag es bloss nicht, wenn man etwas gleich schlecht macht ohne die Hintergründe zu kennen. 😉

Ich sagte nicht, dass die Kiste Bastler ist

Nicht direkt aber im übertragenden Sinne schon, siehe ...

Nein, das ist Bastler. Sorry und klar schaut sowas ziemlich oft in den CPU Takt, das ist wie Autobastler, die haben auch alle paar Tage Ihre Motorabdeckung offen, bringen tut es wenig.


sondern dein Habitus von wegen dauernd in die CPU Last zu schauen face-wink

Weil das ein wichtiger Indikator bei allerlei Dingen ist, sei es das Trimmen eines Systems oder die Analyse von Softwareproblemen.
Früher oder später stolpert jeder halbwegs erfahrene ITler über die CPU Leistung / Auslastung.

Übrigens, AllFlash ist richtig toll, wenn die Anbindung nicht passt. denn wenn (es nur darauf ankäme) - wie kommst du dann logisch bei 1.000.000 IO/s schneller weg als bei 1.4Mio IO/s, und da schreist du wegen der Skala? face-smile

Die Anbindung des AllFlash ist beim besagten Kunden mit 192Gbit/s je Hyper-V Node denke ich ganz gut ausgelegt, jedoch ist der verwendete Flash nicht der neuste. Das System hat schon mehr als 3 Jahre auf dem Buckel.
Es leistet 1.4 Mio. aber bei einer durchschnittlichen Latenz von ~ 1ms, das war vor drei Jahren noch sehr flott.
Der Speicher in meiner Workstation ist aber Latenztechnisch viel schneller, die Corsairs kommen auf 0,1ms und und der OPTANE Verbund ist mit 0,01ms nochmals um Faktor 10 flotter. 1 Mio. IO/s ist eben nicht gleich 1 Mio. IO/s die Latenz ist hierbei mindestens genau so wichtig.
Ferner läuft mein RAM viel schneller als dieser je von einem Server angesprochen werden könnte. Die dauerhaft hockgetacktete CPU trägt nicht alles aber auch Ihren Teil dazu bei, dass der Kunde nun ohne Sorge seiner Migration entgegenblicken kann. 😉

bin draussen.
OK, wie ist das Wetter. 🙃

Gruss Alex
Th0mKa
Th0mKa 24.05.2020 um 14:51:38 Uhr
Goto Top
Zitat von @MysticFoxDE:

Sei mir bitte nicht böse, aber urteile bitte nicht über Dinge die du nicht kennst und oder verstehst.
Ich stimme @certifiedit.net ja nicht oft zu, aber hier hat er Recht. Der Taskmanager ist für Debugging sowieso nicht das richtige Tool, das richtige Tool kennst du ja aber schon.

Die besagte Workstation hat Ihre Leistung schon mehr als genug unter beweis gestellt.
Das letzte Mal hat diese eine Migration einer Datenbank von Oracle auf MS SQL in gerade mal 8 Stunden verrichtet. (Testmigration)
Und das sagt jetzt was aus? Niemand kennt die Parameter der Migration, wenn du jetzt eine Dauer nennst ist die Aussage ziemlich nutzlos.

Das hauseigene und > 200K teure Hyper-V Cluster des Kunden welches über ein sehr leistungsfähiges AllFlash-SAN verfügt (1.4 Mio IO/s random) benötigte für denselben Workload mehr als 90 Stunden.
Naja, das Hyper-V System wird ja nicht leer gewesen sein. Ausserdem ist es wohl auch nicht für die Migration einer DB ausgelegt gewesen, würde jedenfalls für den Normalbetrieb keinen Sinn ergeben.

Aus meiner Sicht ist dein dargestelltes Problem jedenfalls keines mit dem man sich beschäftigen sollte.
117471
117471 24.05.2020 um 18:57:54 Uhr
Goto Top
Hallo,

ich verstehe das Problem nicht.

Mich interessiert das dauerhaft verfügbare und verlässliche Minimum.

Alles Andere ist „Latte“. Zumal viele CPUs den Hochlastbereich nur für wenige Sekunden zur Verfügung stellen.

Gruß,
Jörg
MysticFoxDE
MysticFoxDE 24.05.2020 aktualisiert um 20:13:18 Uhr
Goto Top
Moin,

Ich stimme @certifiedit.net ja nicht oft zu, aber hier hat er Recht. Der Taskmanager ist für Debugging sowieso nicht das richtige Tool, das richtige Tool kennst du ja aber schon.

Ja kenne ich, es geht mir bei diesem "Aufruf" hier auch verdammt noch mal nicht um mich sondern um die vielen Anderen die durch diese falsche Darstellung in die Irre geführt werden. Ferner ist es auch für jeden CPU-Last abhängigen Loadbalancer mehr als schwierig zu entscheiden, wann er auf den nächsten Kern springen sollte. Bei meinem Surface wäre z.B. der Lastwechsel bei 90% Kernauslastung eine purre Leistungsverschwendung, weil der Kern bis zu 180% Auslastung dauerhaft verträgt. 😉

Und das sagt jetzt was aus? Niemand kennt die Parameter der Migration, wenn du jetzt eine Dauer nennst ist die Aussage ziemlich nutzlos.

Die Migration ist im wesentlichen auf RAM, CPU und Storage angewiesen, wie auch die meisten anderen Datenbankmigrationen.
Das Kundensystem stellt bei den genannten Kategorien eine gewisse Leistung zur Verfügung und mein System tut dies auch.
Gemäss der zur Verfügung stehenden Leistung läuft die Konvertierung auf dem einen System mit einer Dauer von X Stunden und auf dem anderen mit Y Stunden. Mit der verbrauchten Zeit die unterschiedliche Systeme mit demselben Workload verbringen kann man durchaus auch deren Leistungsfähigkeit darstellen und diese untereinander vergleichen. 😉

Naja, das Hyper-V System wird ja nicht leer gewesen sein. Ausserdem ist es wohl auch nicht für die Migration einer DB ausgelegt gewesen, würde jedenfalls für den Normalbetrieb keinen Sinn ergeben.

Die Testkonvertierung wurde vom Kunden auf seinem System am WE ausgeführt wo die Systemlast der Server nie über 5% liegt.
Ferner wurden die für die Konvertierung notwendigen Server alle auf den Failover-Node geschoben der mit 768 GB RAM und 2 x 18 Core Xeons auch nicht schlecht bestückt war.

Jetzt sind wir aber glaube ich ganz leicht vom ursprünglichem Kurs abgekommen. 🙃

Aus meiner Sicht ist dein dargestelltes Problem jedenfalls keines mit dem man sich beschäftigen sollte.

Dann hast du die Auswirkungen des Problems, insbesondere beim Einsatz von modernen Prozessoren vielleicht nicht ganz verstanden.
Um es kurz zusammen zu fassen, Microsoft stellt das Leistungspotenzial von modernen CPU insbesondere im Bereich der Auslastung absolut fehlerhaft dar. Im schlimmsten Fall, wir dem User schon bei 50% der physikalisch möglichen Kernauslastung im Taskmanager eine Auslastung von 100% und damit eine Vollauslastung suggeriert.

Und das findest du so echt in Ordnung?

Grüsse aus BaWü

Alex
MysticFoxDE
MysticFoxDE 24.05.2020 aktualisiert um 20:45:41 Uhr
Goto Top
Moin Jörg,

ich verstehe das Problem nicht.
OK, daran kann man arbeiten, was genau verstehst du nicht?

Mich interessiert das dauerhaft verfügbare und verlässliche Minimum.

Je nach dem auf welches Ziel du hinaus Arbeitest ist das auch vertretbar.
Bei einer Problemanalyse oder einer Performancemessung interessiert jedoch das theoretische Leistungsminimum und oder das Leistungsmaximum so gut wie keine Sau. Die wesentlichen Dinge die in so einem Fall relevant sind, ist die Leistung die zu diesem Augenblick auch realistisch bereitgestellt wird und deren Auslastung.

Eigentlich weis Microsoft selbst wie es richtig funktioniert, denn der hauseigene System Explorer kann die Auslastung z.B. 1A richtig darstellen und zwar im Bereich von 0-100%. Auch so gut wie jedes andere Tool von Drittanbietern, wie HWiNFO bekommen dies sauber hin, nur eben nicht der Taskmanager auch nicht der Ressourcenmonitor. Nur bei der Leistungsüberwachung ist die Auslastung richtig erkennbar, aber auch nur dann wenn man weis, dass dort die Leistung der CPU über 100% hochskalieren kann und dementsprechend auch die Skalierung der Darstellung, die standardmässig auf 100 steht, auf einen höheren Wert anpasst.

Alles Andere ist „Latte“. Zumal viele CPUs den Hochlastbereich nur für wenige Sekunden zur Verfügung stellen.

Das ist so absolut nicht richtig. Wenn nur ein einzelner Kern der CPU belastet wird, so kann ein modernen Prozessor die Turbo Stufe durchaus auch über mehrere Stunden aufrecht erhalten.
Ein zweiter wichtiger Faktor ist die CPU Kühlung, wenn diese ausreichend dimensioniert ist, dann kann die CPU auch über alle Kerne dauerhaft mit mindestens +10% zum basistackt laufen. Ich erkennen sehr oft an der realen Taktrate der Server-CPU's unserer Kunden, ob deren Klimatisierung der Serverräume gut oder weniger gut ist. Bei einer guten Klimatisierung, laufen die CPUs dauerhaft, locker mit +20% oder mehr. Bei einer schlechten Klimatisierung schaffen dieselben CPUs nur 5-10% Mehrleistung verglichen zum Basistackt.

Beste Grüsse

Alex
117471
117471 24.05.2020 um 23:56:52 Uhr
Goto Top
Hallo,

das ist zum Einen fachlich falsch und zum Anderen sehr überheblich und arrogant formuliert.

Frickel Du mal, ich bin raus.

Gruß,
Jörg
MysticFoxDE
MysticFoxDE 25.05.2020 aktualisiert um 06:55:56 Uhr
Goto Top
Moin Jörg,

das ist zum Einen fachlich falsch und zum Anderen sehr überheblich und arrogant formuliert.

Arrogant und überheblich ist es zu behaupten, dass etwas falsch ist ohne dies zu begründen obwohl man vorher selbst geschrieben hat,
dass man das Problem (Thema) nicht verstanden hat. 😉

Wenn du mit fachlich falsch meine Aussagen bez. des Turbos meinst, dann schau dir einfach den folgenden Screenshot an.
taskmanager_07

Dieser Server ist schon seit Tagen zu 99% ausgelastet und schafft es trotzdem seine CPU bei einem Tackt von 111% in Referenz zum Basistackt zu halten. Man kann somit sehr wohl dauerhaft mit den Turbostufen kalkulieren und nicht nur für ein paar Sekunden so wie von dir behauptet.
Die CPU in meiner Workstation läuft selbst bei Volllast dank WaKü nie unter 140%.

Frickel Du mal, ich bin raus.

Ich frickel nicht, ich arbeite sehr genau.
Deshalb habe ich auch diesen Beitrag geschrieben, damit Andere (wenn sie es auch möchten) in Zukunft genauer hinschauen können. 😉

Gruss Alex

P.S. Ach ja, falls jetzt jemand auf die Idee kommt mich wegen der 99% Last von dem oben erwähnten Server zu belehren.
Bevor Ihr loslegt würde ich noch eine kleine Info zu der Last und deren Ursprung loswerden.
Der Server ist Teil eines Hyper-V Clusters mit drei weiteren Nodes, dieser Node stellt nur die Failoverkapazität bereit und wird im Normalbetrieb nicht belastet. Daher hat sich dieser Kunde entschlossen diese Ressourcen aufgrund der aktuellen Lage einem guten Zweck zu spenden.

Die Maschine ist gerade fleissig am falten ...

https://foldingathome.org/covid19/
117471
117471 25.05.2020 um 08:45:02 Uhr
Goto Top
Hallo,

das „fachlich falsch“ war auf dein Bestreben bezogen, bei der Skalierung, Messung und beim Vergleich von Systemen den Turbotakt heranzuziehen.

Gruß,
Jörg
emeriks
emeriks 25.05.2020 um 09:11:46 Uhr
Goto Top
Hi,
um mal Deine ursprüngliche Frage zu beantworten.
Was Nagios, PRTG und Konsorten betrifft: Man muss die Überwachung doch eh für jeden Host einzeln dimensionieren. Es ist doch nur ein schöner Traum, dass man mit einem Satz Schwellwerten alle seine System gleich überwachen kann. Die Frage wäre also, ob man die Schwellwerte der Überwachungssoftware auch für mehr als 100% einstellen kann. Wenn ja, dann ist sie für meine Zwecke tauglich, wenn nein, dann nicht.

Ich für mich gehe davon aus, dass die Counter unter "Prozessor" schlichtweg etwas veraltet sind. Noch aus Zeiten, als die CPU's etwas einfacher gestrickt waren. Aber sie werden "so tief" im Code sein, dass man sie nicht einfach so ändern kann oder will. Weil wir das aber wissen, überwachen wir eben nicht mehr "Prozessor" sondern "Prozessorinformationen" und gut ist. face-wink

E.
117471
117471 25.05.2020 um 09:37:42 Uhr
Goto Top
Hallo,

im Grunde genommen ist es wie bei Autos: Da wird die Tankreserve auch nicht in die Reichweite kalkuliert.

Hier ist es ähnlich: Das System soll auch im Volllastbereich handlungsfähig bleiben. Ansonsten würde das Geraffel nämlich dauerhaft stehenbleiben... face-smile

Gruß,
Jörg
emeriks
emeriks 25.05.2020 aktualisiert um 09:42:41 Uhr
Goto Top
Zitat von @117471:
im Grunde genommen ist es wie bei Autos: Da wird die Tankreserve auch nicht in die Reichweite kalkuliert.
Dieser Vergleich hinkt gewaltig.
Die Tankreserve wäre eher mit einem Reserve-Speicher zu vergleichen. Und das automatische Hochtakten der CPU bei Bedarf eher mit dem Zuschalten des E-Motors beim Hybriden. Und letzteres kalkuliert man sehr wohl mit ein.
117471
117471 25.05.2020 aktualisiert um 11:00:08 Uhr
Goto Top
Hallo,

es geht hier um den Takt oberhalb der Definition.

Das, was definiert ist (und genau das) wird von Windows als 100% dargestellt.

Alles darüber ist Reserve. Zum Beispiel, damit man im Lastfall noch eine Fehlersuche und Entstörung vornehmen kann.

Gruß,
Jörg
emeriks
emeriks 25.05.2020 um 11:02:01 Uhr
Goto Top
Zitat von @117471:
Alles darüber ist Reserve. Zum Beispiel, damit man im Lastfall noch eine Fehlersuche und Entstörung vornehmen kann.
Glaube ich nicht. Das hat eher was mit Stromsparen zu tun. Die CPU wird nur dann hochgetaktet wenn notwendig.
117471
117471 25.05.2020 um 11:17:34 Uhr
Goto Top
Hallo,

noch einmal: Es geht um den Turbo.

Aktuelle CPUs können sich übertakten - also schneller laufen als das, was AMD oder Intel als Nennleistung ausgibt.

Das, was Du meinst ist das normale Speedstepping.

Beispiel 3Ghz CPU: Die beginnt z.B. bei 300Mhz und endet z.B. bei 3Ghz. In diesem Fall sind 3Ghz die 100% und nicht 3,3Ghz, auf die sich der Prozessor im Notfall übertakten kann.

Gruß,
Jörg
emeriks
emeriks 25.05.2020 aktualisiert um 11:44:38 Uhr
Goto Top
Intel schreibt dazu:
Max. Turbo-Taktfrequenz
Die maximale Turbo-Taktfrequenz ist die maximale Einzelkern-Taktfrequenz, zu der der Prozessor mit der Intel® Turbo-Boost-Technik und, falls vorhanden, mit Intel® Thermal Velocity Boost betrieben werden kann. Die Frequenz wird in Gigahertz (GHz) gemessen bzw. in Milliarden Takten pro Sekunde.
Intel® Turbo-Boost-Technik
Die Intel® Turbo-Boost-Technik erhöht dynamisch die Frequenz eines Prozessors nach Bedarf, indem die Temperatur- und Leistungsreserven ausgenutzt werden, um bei Bedarf mehr Geschwindigkeit und andernfalls mehr Energieeffizienz zu bieten.
Einen Hinweis, dass man diese Reserven nur im absoluten Notfall benutzen soll, habe ich bei Intel bisher noch nicht gefunden. Dass man dabei aufpassen muss, dass die Kiste nicht abbrennt, ist klar. Das gilt aber im Normalfall auch schon.
117471
117471 25.05.2020 aktualisiert um 12:00:41 Uhr
Goto Top
Hallo,

auch hier hilft wieder ein Autovergleich: Die Nennleistung des Motors steht z.B. bei 3500 U/min zur Verfügung. Dennoch ist es nicht sinnvoll, den Motor möglichst auf dieser Drehzahl zu halten. Die Effektivität leidet und die Hardware altert im Zeitraffer - das kann man z.B. auch schön bei Grafikkarten sehen, die in Mining-PCs steckten. Aus genau diesem Grund verweigern viele Hersteller bei derartigen Nutzungen die Garantie.

Und, wie gesagt: Wenn Du Turbo Boost dauerhaft nutzt und dann wirklich mal eine Lastspitze kommt, dann steht das Ding.

Liebe Grüße,
Jörg
MysticFoxDE
MysticFoxDE 25.05.2020 um 12:51:45 Uhr
Goto Top
Moin Emeriks,

Was Nagios, PRTG und Konsorten betrifft: Man muss die Überwachung doch eh für jeden Host einzeln dimensionieren. Es ist doch nur ein schöner Traum, dass man mit einem Satz Schwellwerten alle seine System gleich überwachen kann. Die Frage wäre also, ob man die Schwellwerte der Überwachungssoftware auch für mehr als 100% einstellen kann. Wenn ja, dann ist sie für meine Zwecke tauglich, wenn nein, dann nicht.

Ja, da gebe ich dir grundsätzlich recht, aber nicht beim CPU Monitoring, hier ist jedes mir bekannte Programm, per Default auf max. 100% gesetzt.
Sicherlich kann man bei vielen Monitoring Tools den Erfassungs- und Darstellungsbereich händisch anpassen und das muss man an der einen oder anderen Stelle auch tuen, aber nicht bei der CPU-Auslastung oder jeglichen anderen Auslastungsdarstellung. Auslastung so wie Effizienz wird immer in einer Skalierung von mindestens 0% bis maximal 100% angegeben, nicht mehr und auch nicht weniger.

Es widerspricht jeglicher Logik und Mathematik, dass eine Auslastung 100% übersteigen kann.
Mann kann maximal nur das verbrauchen, was auch tatsächlich zur Verfügung steht und nicht ein Bisschen mehr, auch wenn sich das viele so wünschen würden. Ich verweise da mal ganz dezent auf den Energieerhaltungssatz.

https://de.wikipedia.org/wiki/Energieerhaltungssatz

Was kommt dann wohl als nächstes, 140% RAM-Auslastung. 🙃

Ich für mich gehe davon aus, dass die Counter unter "Prozessor" schlichtweg etwas veraltet sind. Noch aus Zeiten, als die CPU's etwas einfacher gestrickt waren.

👍👍👍

Aber sie werden "so tief" im Code sein, dass man sie nicht einfach so ändern kann oder will.

Definitiv "nicht ändern will" und nicht "nicht ändern kann".

Weil wir das aber wissen, überwachen wir eben nicht mehr "Prozessor" sondern "Prozessorinformationen" und gut ist. face-wink

Eben nicht, der von mir angeprangerte Counter kommt von "Prozessorinformationen" und nicht von "Prozessor". 😉


Grüsse aus BaWü

Alex
MysticFoxDE
MysticFoxDE 25.05.2020 um 12:59:00 Uhr
Goto Top
Moin Jörg,

Hier ist es ähnlich: Das System soll auch im Volllastbereich handlungsfähig bleiben. Ansonsten würde das Geraffel nämlich dauerhaft stehenbleiben... face-smile

Nein, ist es nicht mal Ansatzweise,
Dein Auto hat eine Reserve von < 10% und keine von bis zu 100% oder auch darüber. 😉

reserve_1

reserve_2

Gruss Alex
MysticFoxDE
MysticFoxDE 25.05.2020 um 13:02:22 Uhr
Goto Top
Moin Emeriks,

Und das automatische Hochtakten der CPU bei Bedarf eher mit dem Zuschalten des E-Motors beim Hybriden. Und letzteres kalkuliert man sehr wohl mit ein.

👍 das ist ein sehr gelungener Vergleich, Kompliment und absolute Zustimmung.

Gruss Alex
emeriks
emeriks 25.05.2020 um 13:05:44 Uhr
Goto Top
Zitat von @MysticFoxDE:
Eben nicht, der von mir angeprangerte Counter kommt von "Prozessorinformationen" und nicht von "Prozessor". 😉
Ja, ich weiß. Wo ist jetzt der Haken?
MysticFoxDE
MysticFoxDE 25.05.2020 um 13:38:05 Uhr
Goto Top
Moin Jörg,

auch hier hilft wieder ein Autovergleich: Die Nennleistung des Motors steht z.B. bei 3500 U/min zur Verfügung.

Nein ist er nicht, bei einem Auto wird immer die maximale Leistung angegeben und die Drehzahl bei der diese erreicht wird und nicht die Leistung
bei der das Fahrzeug am effizientesten oder am längsten läuft. Deinem Eigenen Vergleich nach müsstest du dich bei der CPU-Leistung somit eher auch an den maximalen Turbotackt halten und nicht an den energieeffizienteren Basistackt. Ein Auto bringt die maximale Leistung auch nur in einem bestimmten Drehzahlbereich, somit war dein Beispiel nicht Mal ganz daneben, nur eben nicht ganz korrekt ausgelegt. 😉

Dennoch ist es nicht sinnvoll, den Motor möglichst auf dieser Drehzahl zu halten.

Ja es spricht absolut nichts dagegen den Motor schonen zu behandeln. Dieser ist mechanisch und besteht aus hunderten wenn nicht gar tausenden beweglichen und abnutzbaren Einzelteilen. Das trifft so weit mir bekannt ist nicht für einen modernen Prozessor zu. 😉

Die Effektivität leidet und die Hardware altert im Zeitraffer - das kann man z.B. auch schön bei Grafikkarten sehen, die in Mining-PCs steckten. Aus genau diesem Grund verweigern viele Hersteller bei derartigen Nutzungen die Garantie.

Auch hier muss ich gewaltig widersprechen.
Ja die Hardware leidet schon gewaltig, wenn man beim übertakten rumpfuscht und bei unzureichender Kühlung die Komponenten mit Gewalt nach oben Trimmt und dabei sämtliche Schutzmechanismen aktiv übergeht. Wenn man das Ganze jedoch richtig angeht und die Komponenten und vor allem deren Kühlung ausreichend dimensioniert, dann kann man auch ohne Probleme dauerhaft eine höhere Systemleistung fahren, ohne dass das System dabei auch nur den geringsten Schaden nimmt. Die einzigen Nachteile sind eine höhere Abwärme und ein gestiegener Verbrauch.

So, jetzt komm ich Mal mit einem Autovergleich. 🙃
Man kann den die Turbo-Boost-Technik, eher mit einem Chiptunig beim Auto vergleichen. Wenn es richtig gemacht wird, so hast du am Ende des Tages ein Fahrzeug mit mehr Leistung. Theoretisch könnte heutzutage die Motorsteuerung der meisten Fahrzeuge ebenfalls die Leistung des Fahrzeugs dynamisch an die Gegebenheit anpassen und bei Bedarf die Motorleistung über das vorgesehene Leistungslimit anheben, ist aber so beim Auto nicht vorgesehen/gewünscht. Bei einem modernen Prozessor sieht es hingegen anders aus, dieser kann heutzutage je nach Belastung und Umgebung seine Leistungsfähigkeit sehr dynamisch nach oben und so wie auch nach unten anpassen.

Wenn Du Turbo Boost dauerhaft nutzt und dann wirklich mal eine Lastspitze kommt, dann steht das Ding.

Nein es steht nicht, es wird nur etwas träger reagieren.

Grüsse aus Murrhardt

Alex
MysticFoxDE
MysticFoxDE 25.05.2020 um 13:41:04 Uhr
Goto Top
Moin Emeriks,

Eben nicht, der von mir angeprangerte Counter kommt von "Prozessorinformationen" und nicht von "Prozessor". 😉
Ja, ich weiß. Wo ist jetzt der Haken?

Es gibt keinen Hacken, der CPU-Auslastung-Counter unter "Prozessorinformationen" ist genau der Couter der über 100% schnallt und den ich hier anprangere. Ich wollte nur sicherstellen, dass wir vom Selben sprechen.

Gruss Alex
Th0mKa
Th0mKa 25.05.2020 um 13:49:08 Uhr
Goto Top
Zitat von @MysticFoxDE:

Eben nicht, der von mir angeprangerte Counter kommt von "Prozessorinformationen" und nicht von "Prozessor". 😉

Der Unterschied zwischen beiden Countern ist das der erste NUMA Informationen liefert und der zweite nicht.

/Thomas
MysticFoxDE
MysticFoxDE 25.05.2020 um 14:00:00 Uhr
Goto Top
Moin Thomas,

Der Unterschied zwischen beiden Countern ist das der erste NUMA Informationen liefert und der zweite nicht.

Verständnisfrage.
leistungsindikatoren_1

Sprechen wir vom Selben?

Gruss Alex
emeriks
emeriks 25.05.2020 um 14:15:51 Uhr
Goto Top
Zitat von @MysticFoxDE:
Sprechen wir vom Selben?
Ja, sicher. Darum habe ich das doch erwähnt?
MysticFoxDE
MysticFoxDE 25.05.2020 um 14:38:48 Uhr
Goto Top
Moin Emeriks,

Sprechen wir vom Selben?
Ja, sicher. Darum habe ich das doch erwähnt?

die Frage ging an Thomas betreffend seines letzten Posts und nicht an dich.
Ich wollte mit dieser nur sicher stellen, dass Thomas das meint was ich auch denke. 🙃

Wir beide waren uns an dieser Stelle glaube ich nicht uneinig.

Gruss Alex
Th0mKa
Th0mKa 25.05.2020 um 19:00:52 Uhr
Goto Top
Zitat von @MysticFoxDE:

Sprechen wir vom Selben?

Ja
117471
117471 25.05.2020, aktualisiert am 26.05.2020 um 07:54:56 Uhr
Goto Top
Hallo,

Zitat von @emeriks:

Einen Hinweis, dass man diese Reserven nur im absoluten Notfall benutzen soll, habe ich bei Intel bisher noch nicht gefunden.

Ich habe auch nicht geschrieben, dass Ihr sie im Notfall benutzen sollt, sondern, dass der Prozessor sie im Notfall benutzt.

Achja - die "Ressourcen" fehlen den anderen Kernen übrigens; die dann entsprechend schlafend gelegt oder im Takt reduziert werden. Und, um beim Auto-Vergleich zu bleiben: Es entspricht in etwa dem "Range Extender" vom BMW i3, der dich mit Hilfe eines kleinen Dieselmotors ein paar Kilometer zur nächsten Steckdose anschiebt.

Ich bleibe dabei - die 100% entsprechen exakt der Nennleistung. Was darüber hinaus geht, interessiert bei der Skalierung von Systemen nicht. Wenn Du z.B. Internetanbindungen einkaufst, rechnest Du für deine Last bzw. dein Failover ja auch nur die vom Anbieter garantierte Mindestbandbreite und nicht die "Bis zu" Phantasien aus den Hochglanzprospekten.

Aber eigentlich ist es auch egal - dafür, dass ich euch kostenlos ausbilde, bekomme ich keinen feuchten Keks. Insofern: Frickelt Ihr mal weiter face-smile

Gruß,
Jörg
filippg
filippg 26.05.2020 um 00:47:18 Uhr
Goto Top
Hallo,

die prozentuale CPU-Auslastung ist ein einfacher, griffiger Wert, der eine schnelle Einschätzung der Last liefert und unter dem sich jeder "etwas" vorstellen kann (wie korrekt diese Vorstellung dann ist, ist eine andere Frage). Von daher ist es schade, wenn MS diesen Messwert "entwertet", weil er offensichtlich nicht mehr in der üblichen Vorstellung (100% = max) liegt.

Technisch sieht das anders aus.

Einerseits: %CPU ist ein Cooked-Counter. Es wird gemessen: Anzahl zugewiesene CPU-Zyklen zu Zeit X und zu Zeit Y, dann die Differenz durch Gesamtzahl verfügbarer CPU-Zyklen in der Zeit geteilt. Und letzteres ist der Punkt: Um zu wissen, wie viele Zyklen man pro Zeit hat, muss man halt einen Basistakt annehmen. Den auf den maximalen Turbo-Takt zu setzten würde umgekehrt auch nichts bringen: Dann hättest du, wenn die CPU erstmal "warm" ist ständig CPU-Auslastung < 100%, obwohl sie nicht schneller kann.
-> Das Verhalten ist technisch nachvollziehbar und wohl auch sinnvoll.

Andererseits: ist ja schön, dass der Wert so einfach ist & jeder sich etwas darunter vorstellen kann. Nur: wenn man einen zu komplexen Sachverhalt zu sehr vereinfacht, bedeutet das, dass man Fehler macht. Will heißen: Die %CPU Time sagt letztlich viel weniger über Systemlast, als man gemeinhin denkt. Dazu zählt nicht nur die schon erwähnte IOPS (Disk), RAM,... Sondern auch in der CPU gibt es noch einen haufen weiterer Werte, die etwas über die Last sagen. Mal einfach gesagt: es hat seinen Sinn, dass es in dem Perfcounter-set "Processor" zig verschiedene Counter gibt.

Grüße

Filipp
MysticFoxDE
MysticFoxDE 26.05.2020 aktualisiert um 09:08:15 Uhr
Goto Top
Moin Jörg,

Ich habe auch nicht geschrieben, dass Ihr sie im Notfall benutzen sollt, sondern, dass der Prozessor sie im Notfall benutzt.

Der Turbo-Boost ist weder als Notfallleistung gedacht noch als Reserve, da denkst du zu sehr an den Turbo im Auto. 😉
Eine CPU hat heute so gesehen keinen festen Tackt mehr. Der Basistackt ist eher unter Last als Sollleistung zu sehen die unter normalen Bedingungen und einer Standard Kühlung immer erreicht werden sollte.

Nehmen wir mal den i9-9820X als Beispiel den ich in meiner Workstation gerade betreibe.
https://ark.intel.com/content/www/us/en/ark/products/189121/intel-core-i ...

Dieser Prozessor hat einen Basistackt von 3,30 GHz und kann laut Intel dank Turbo bis auf 4.10 GHz hochtackten solange die T-JUNCTION (Maximale Betriebstemperatur) nicht erreicht ist. Wenn nun Last auf den Prozessor kommt, dann fährt dieser die Tacktrate komplett nach oben, solange bis die Betriebstemperatur 92° erreicht hat. Ist dies geschehen, so tacktet der Prozessor automatisch auf eine Geschwindigkeit zurück, mit der er die 92° nicht überschreitet. Wenn die 92° dank einer guten Kühlung wie es bei meiner Workstation der Fall ist nicht überschritten werden, so kann der Prozessor dauerhaft den erhöhten Tackt halten. Meine Workstation ist deshalb mit einer sehr leistungsfähigen WaKü ausgestattet, die sehr effizient dafür sorg, das meine CPU auch unter Last eine Kühlen Kopf behält. Dadurch kann die Workstation locker 24/7 mit 4,10 GHz hantieren. Bei mir läuft die CPU dank einem Finetuning übrigens unter Dauerlast auch dauerhaft mit ~ 4,5 GHz, über alle Kerne. 😉


Achja - die "Ressourcen" fehlen den anderen Kernen übrigens; die dann entsprechend schlafend gelegt oder im Takt reduziert werden. Und, um beim Auto-Vergleich zu bleiben: Es entspricht in etwa dem "Range Extender" vom BMW i3, der dich mit Hilfe eines kleinen Dieselmotors ein paar Kilometer zur nächsten Steckdose anschiebt.

Nein, nein und nochmals nein.
Hör bitte mit den Autovergleichen auf, die sind echt für die Katz.

Ich bleibe dabei - die 100% entsprechen exakt der Nennleistung. Was darüber hinaus geht, interessiert bei der Skalierung von Systemen nicht. Wenn Du z.B. Internetanbindungen einkaufst, rechnest Du für deine Last bzw. dein Failover ja auch nur die vom Anbieter garantierte Mindestbandbreite und nicht die "Bis zu" Phantasien aus den Hochglanzprojekten.

Oh, Nennleistung, der ist gut.
---
Nennleistung - was ist darunter zu verstehen?
Die Nennleistung wird verwendet, um die größte Leistung des Motors zu bezeichnen.
---

😉

Aber eigentlich ist es auch egal - dafür, dass ich euch kostenlos ausbilde, bekomme ich keinen feuchten Keks. Insofern: Frickelt Ihr mal weiter face-smile

Verwirrung mit dubiosen Autovergleichen stiften, JA.
Ausbilden, definitiv NEIN.
Du versuchst mit Halbwissen gerade einen IT-Fachausbilder zu belehren.
Auch wenn du anstrengend bist, somit gern geschehen, bei mir gibt es das Ganze auch ohne, dass ich einen Keks dafür verlange. 😉🙃

Übrigens, falls du Lust auf Kekse hast, dann schau doch einfach mal in deinem Browser nach, da sind sicherlich einige versteckt. 🤪

Grüsse aus BaWü

Alex
emeriks
emeriks 26.05.2020 um 08:28:06 Uhr
Goto Top
Zitat von @117471:
Aber eigentlich ist es auch egal - dafür, dass ich euch kostenlos ausbilde, bekomme ich keinen feuchten Keks. Insofern: Frickelt Ihr mal weiter face-smile
Was soll diese blöde Anmache? Habe ich Dir Anlass dazu gegeben?
Wenn Du bocken willst, geh in die Ecke. Wenn spielen, in den Kindergarten. Aber lass uns damit in Ruhe!
Irgendwann brennt Dir ganz sicher mal der Arsch. Mal sehen, wer Dich dann anmacht.
MysticFoxDE
MysticFoxDE 26.05.2020 aktualisiert um 08:53:20 Uhr
Goto Top
Moin Filipp,
Von daher ist es schade, wenn MS diesen Messwert "entwertet", weil er offensichtlich nicht mehr in der üblichen Vorstellung (100% = max) liegt.
👍

Technisch sieht das anders aus.

Einerseits: %CPU ist ein Cooked-Counter. Es wird gemessen: Anzahl zugewiesene CPU-Zyklen zu Zeit X und zu Zeit Y, dann die Differenz durch Gesamtzahl verfügbarer CPU-Zyklen in der Zeit geteilt. Und letzteres ist der Punkt: Um zu wissen, wie viele Zyklen man pro Zeit hat, muss man halt einen Basistakt annehmen. Den auf den maximalen Turbo-Takt zu setzten würde umgekehrt auch nichts bringen: Dann hättest du, wenn die CPU erstmal "warm" ist ständig CPU-Auslastung < 100%, obwohl sie nicht schneller kann.
-> Das Verhalten ist technisch nachvollziehbar und wohl auch sinnvoll.

Ich habe auch nie davon gesprochen, dass Microsoft die maximale Turboleistung des Prozessors als 100% nehmen sollte, dann würde das Ergebnis bei meiner Workstation immer noch nicht stimmen, da die CPU dieser, mit ~+10% über der maximalen Turbostufe läuft. 🙃
Als Basis für die Auslastungsberechnung muss immer die aktuell verfügbare (dynamische) Höchstleistung herangezogen werden, die sich übrigens sauber ermitteln lässt. Wie das Ganze funktioniert ist Microsoft selbst übrigens bestens bekannt, denn der hauseigene "Prozess Explorer" macht es an dieser Stelle absolut korrekt, genauso wie HWiNFO oder AIDA. Es ist somit kein Hexenwerk die richtige Auslastung anzuzeigen, man muss es nur wollen.

Andererseits: ist ja schön, dass der Wert so einfach ist & jeder sich etwas darunter vorstellen kann. Nur: wenn man einen zu komplexen Sachverhalt zu sehr vereinfacht, bedeutet das, dass man Fehler macht. Will heißen: Die %CPU Time sagt letztlich viel weniger über Systemlast, als man gemeinhin denkt. Dazu zählt nicht nur die schon erwähnte IOPS (Disk), RAM,... Sondern auch in der CPU gibt es noch einen haufen weiterer Werte, die etwas über die Last sagen. Mal einfach gesagt: es hat seinen Sinn, dass es in dem Perfcounter-set "Processor" zig verschiedene Counter gibt.

Filipp, ich stimme dir hier vollkommen zu. Abgesehen von der CPU Last gibt es einen duzend weiterer Leistungswerte die bei Problemanalysen & Co mehr als nur wichtig sind. Der CPU-Last-Counter ist persönlich gesehen gar nicht mein Lieblingscounter, ich stehe eher auf die Latenzcounter, insbesondere die beim Storage. 🤪🙃

Mir geht es bei diesem Post aber auch nicht darum, was ich bei einer sauberen Problemanalyse so alles noch mitberücksichtigen muss, sondern ausschliesslich um den vermurksten Auslastungscounter des Betriebssystems.

Grüsse aus BaWü

Alex
MysticFoxDE
MysticFoxDE 26.05.2020 aktualisiert um 10:28:11 Uhr
Goto Top
Moin Zusammen,

damit sich alle wieder etwas abkühlen können würde ich zur Abwechslung gerne ein kleines Schmankerle loswerden, welches mir soeben live passiert ist.

Vor wenigen Minuten habe ich eine Mail von einem IT-Leiter weitergeleitet bekommen, mit dem Hinweis, der Inhalt könnte für mich interessant sein.

Folgend könnt Ihr die Webansicht der weitergeleiteten Werbemail selbst betrachten.

http://system.promio-mail.com/view/?lid=1487665

An dieser Stelle liebe Grüsse an die Datenschützer.
Die personalisierte Tracker ID habe ich aus dem Link selbstverständlich rausgeschmissen. 😉

„Fileless Malware“ ist heikel, weil der Schadcode dieser boomenden cyberkriminellen Waffe nicht auf der Festplatte gespeichert wird und sie deshalb schwer zu entdecken ist.

😮 OK, "Fileless Malware" ist wirklich fies.

Aber was muss ich gleich im nächsten Satz lesen

Zusätzlich komplexer werden die dateilosen Bedrohungen dadurch, dass sie sich sehr oft in harmlosen Tools verstecken, auf die Unternehmen angewiesen sind. Diese lassen sich nicht einfach per se sperren.

😯😖😦, Ah, Moment, wie jetzt, „Fileless Malware“ die sich in "harmlosen Tools versteckt, auf die die Unternehmen angewiesen sind"

OK, fileless in einem Tool verstecken. Hier steigt meine Logikengine definitiv aus. 😵

Jetzt gehe ich raus ... in den Wald ... einen lauten Schrei loswerden ... komme aber bald wieder. 🤪

Grüsse aus BaWü

Alex
emeriks
emeriks 26.05.2020 aktualisiert um 15:16:22 Uhr
Goto Top
Zitat von @MysticFoxDE:
OK, fileless in einem Tool verstecken. Hier steigt meine Logikengine definitiv aus. 😵
Ich schätze, die meinen hier Malware, welche den eigentlich schadhaften Code erst aus dem Web herunterladen (Über Stream oder wie auch immer), direkt in den Speicher, und ihn dann auch direkt ausführen. Sowas ist dann tatsächlich nicht einfach zu finden.
117471
117471 26.05.2020 um 13:36:51 Uhr
Goto Top
Hallo,

Zitat von @emeriks:

Was soll diese blöde Anmache? Habe ich Dir Anlass dazu gegeben?

Zugegeben, das war etwas emotional. Allerdings ist diese Diskussion so weit von jeder betriebswirtschaftlichen, technischen, logischen und mathematischen Betrachtung entfernt, dass man wirklich nur noch mit Sarkasmus reagieren kann.

Tut mir leid.

Irgendwann brennt Dir ganz sicher mal der Arsch. Mal sehen, wer Dich dann anmacht.

D.h. ich bin dann schon mal "vorgemerkt" und bekomme eine "Retourkutsche"? O.K. - mit Ankündigung kann ich damit leben!

Liebe Grüße aus Bremen,
Jörg
MysticFoxDE
MysticFoxDE 26.05.2020 um 14:37:01 Uhr
Goto Top
Moin Jörg,

Zugegeben, das war etwas emotional. Allerdings ist diese Diskussion so weit von jeder betriebswirtschaftlichen, technischen, logischen und mathematischen Betrachtung entfernt, dass man wirklich nur noch mit Sarkasmus reagieren kann.

Betriebswirtschaftlich gesehen vielleicht, die Betriebswirte schaffen es manchmal mit haarsträubenden Berechnungswegen auch eine Betriebsauslastung von > 100% zu errechnen. 🙃

Aus der mathematischen, der logischen, der technischen und der physikalischen Betrachtung ist eine Auslastung von mehr als 100% schlichtweg ein absoluter Humbug. Mann kann nicht mehr Auslasten, wie einem zur Verfügung steht und das sind exakt 100% und kein Bisschen mehr!
Eine Auslastungsdarstellung von über 100% drückt jedoch genau das aus, und zwar das man mehr verbraucht wie eigentlich möglich wäre.
Das ist schlichtweg Blödsinn auf höchstem Niveau.

Grüsse aus BaWü

Alex
MysticFoxDE
MysticFoxDE 26.05.2020 aktualisiert um 15:27:15 Uhr
Goto Top
Moin Zusammen,

oha, das es so kompliziert wird habe ich mir im Vorfeld jetzt auch nicht gedacht.
Ich gönn mir jetzt zum Herunterkommen einen passenden Drink.
Kram, kram, kram ... ja was haben wird da feines

wisky 400% vol.

🙃

Gruss Alex
117471
117471 26.05.2020 um 15:33:29 Uhr
Goto Top
Hallo,

Zitat von @MysticFoxDE:

Aus der mathematischen, der logischen, der technischen und der physikalischen Betrachtung ist eine Auslastung von mehr als 100% schlichtweg ein absoluter Humbug.

Aber sicher ist das kein Humbug. Der Prozessor läuft mir mehr Takt als vorgesehen. Die 100% beziehen sich auf den Basistakt, nicht auf den aktuellen Takt. Läuft er über dem Basistakt (z.B. im Turbomodus oder übertaktet) läuft er mit mehr als 100%.

Was ist daran - rein rechnerisch - so schwer zu verstehen?

Gruß,
Jörg
MysticFoxDE
MysticFoxDE 27.05.2020 aktualisiert um 10:29:24 Uhr
Goto Top
Moin Jörg,

sorry für die späte Antwort, aber der 400%tige Drink hat gestern 1000% heftiger zugeschlagen als ich es gewohnt war. 🤪

So jetzt aber genug des Blödsinns.

Was ist daran - rein rechnerisch - so schwer zu verstehen?

Rein rechnerisch ist für mich daran absolut gar nichts schwer zu verstehen und das Ergebnis ist auch rein rechnerisch vollkommen richtig, jedoch ist der Rechenweg mathematisch gesehen absolut inkorrekt da dieser bestehende Mathematische und auch Physikalische Grundsätze vollkommen ignoriert.

Aber sicher ist das kein Humbug. Der Prozessor läuft mir mehr Takt als vorgesehen.
Die 100% beziehen sich auf den Basistakt, nicht auf den aktuellen Takt. Läuft er über dem Basistakt (z.B. im Turbomodus oder übertaktet) läuft er mit mehr als 100%.

Nein, diese Aussage ist so nicht korrekt, respektive veraltet. Du denkst da zu sehr an die vergangene CPU Technologie, die damals tatsächlich eine fixe Obergrenze hatte. Mittlerweile hat sich aber in diesem Bereich einiges verändert und der Basistackt stellt keineswegs die höchste Leistung des Prozessors dar, die dauerhaft unter Last erreicht werden kann. In der heutigen Zeit kannst du diese Angabe als Mindestleistung ansehen, die der Prozessor unter den schlechtesten aber noch zulässigen Bedingungen erbringen sollte.

Ich versuche das Ganze mal anhand der Intel-Serverplattform zu erklären.
Wir verbauen bei unseren Projekten aktuell meistens die Intel R2000WF Serie Chassis.
Nehmen wir daraus Mal das R2208WFTZSR Model, habe es erst jüngst ein paar Mal in einem neuen Hyper-V Cluster verbaut.

https://ark.intel.com/content/www/us/en/ark/products/192590/intel-server ...

Dieses Chassis hat eine TDP von 205W (pro Sockel), das ist schon Mal der erste wichtige Anhaltspunkt. Dieser stellt die Maximal zugelassene Abwärmeleistung der CPU dar, die das verbaute Kühlsystem des Chassis bei Einhaltung der Betriebstemperatur auf jeden Fall bewältigen kann.
Leider findest du die Angaben zur Betriebstemperatur nicht auf der Homepage von Intel sondern nur im Datenblatt der Serverserie.
Finde ich persönlich etwas ungeschickt. 😞

Folgend der Link zum Datenblatt.
https://www.intel.com/content/dam/support/us/en/documents/server-product ...

Die zugelassene Betriebstemperaturangaben findest du auf Seite 32.
Wenn wir nun von der Standardklasse „ASHRAE Class A2“ ausgehen, dann verträgt das Chassis eine Umgebungstemperatur von mind. 10°C und maximal 35°C. Hier sind die max. 35° Umgebungstemperatur der nächste Anhaltspunkt. Diese Temperatur stellt die Obergrenze dar, bei der gewehrleistet wird, dass der Abtransport der Abwärme der CPU mit der der angegebenen TDP von 205W noch gewährleistet ist.
Das Chassis selbst kann weit über 35° betrieben werden ohne dass das System stehen bleibt, nur ist in diesem Fall die angegebene Kühlleistung nicht mehr vorhanden. In solchen Fällen kann die CPU auch weit unter den Basistackt heruntertackten um den Betrieb noch halbwegs zu gewährleisten.
Das Chassis selbst geht meistens erst bei ~80° aus, weil die Thermalsensoren der Netzteile auf „rot“ gehen und diese schlichtweg abschalten. Ich war schon zwei Mal im Leben in einem Serverraum mit > 60°C, nachdem übers Wochenende die Klimaanlage ausgefallen ist. Einen Saunagang kann man sich auf jeden Fall im Anschluss sparen. 🙃


Die letzte wichtige Komponente ist nun die CPU, hier greife ich mal auf den Xeon Platinum 8268 zurück.

https://ark.intel.com/content/www/us/en/ark/products/192481/intel-xeon-p ...

Diese CPU hat einen Basistackt von 2.9 GHz, der Maximaltackt liegt bei 3,9 GHz, die TDP beträgt 205W und die TCASE liegt bei 84°.

Nun haben wir glaube ich alles um den bescheidensten Fall für den Basistackt genau dieser Hardwarekonstellation (CPU/Chassis) so halbwegs zu ermitteln. So halbwegs meine ich deswegen, weil die TDP der CPU nicht die Abwärme der CPU darstellt, die diese mit dem Basistackt bei Volllast generiert, sondern die maximale Abwärmeleistung die die CPU in Summe und vollkommen unabhängig des Tacktes verträgt. Jetzt könnte ich behaupten das bei einer TDP von 60% auf jeden Fall 100% Basistackt zur Verfügung steht aber das wäre eine reine Spekulation, ich weis es an dieser Stelle leider nicht so genau und habe auch noch nichts von Intel gefunden, woraus ich ableiten könnte, bei welchem Tackt/Last Verhältnis wie viel Abwärme generiert wird.

Generell kann man bei aktuellen CPUs jedoch sagen, solange die TDP der CPU und oder die Höchstbetriebstemperatur (TCASE) nicht überschritten werden, wird diese immer unter Last versuchen den höchst möglichen Tackt zu halten.

Damit das ganze jetzt nicht zu kompliziert wird komme ich dir etwas entgegen und wir behaupten mal einfach, dass bei einer TDP von 205W die CPU 100% des Basistacktes auf jeden Fall halten kann ohne gleich einen heissen Kopf zu bekommen.

Bei dieser Annahme währe die bescheidenste Umgebung für die oberen Komponenten eine Umgebungstemperatur von 35°. Bei dieser Umgebungstemperatur ist es vom Server-Chassis noch gewährleistet das eine Abwärme von 205W abtransportiert werden kann und die CPU noch im Rahmen ihrer Spezifikation funktioniert. Somit würde die CPU bei dieser Temperatur noch mit 100% des Basistacktes laufen. Jedoch betreibt selten jemand seinen Serverraum bei 35° und das das TDP Budget des Server zu 100% von der CPU abgefordert wird kommt auch recht selten vor, da die entsprechenden CPUs sau teuer sind.

Somit würde ich als nächstes folgendes behaupten. Je kühler die Umgebungstemperatur und je weiter der Unterschied zwischen der tatsächlich generierten TDP des Prozessors und der TDP die das Kühlsystem abtragen kann, umso höher kann eine moderne CPU auch unter Volllast ihren Betriebstackt und damit auch Ihre Leistung halten. Diese Mehrleistung stellt keines Weges nur eine Erhöhung von wenigen Prozent dar, bei aktuellen Prozessoren kann diese Mehrleistung je nach Kühlung somit dauerhaft bis zu 200% der Basisleistung darstellen und manchmal auch darüber und das nicht wenig.

Siehe z.B.

Intel® Xeon® Gold 6222V Processor
https://ark.intel.com/content/www/us/en/ark/products/193962/intel-xeon-g ...
EVP: 1.600 $
Basistackt: 1,8 GHz
Maximaltackt: 3,6 GHz
Abweichung Maximaltackt zu Basistakt: 200%

(Ich habe mit Absicht hier den Begriff Turbo nicht verwendet, weil dieser mehr eine Historische Bedeutung hat, als noch den Tatsachen entspricht.)

Intel® Xeon® Gold 6230R Processor
https://ark.intel.com/content/www/us/en/ark/products/199346/intel-xeon-g ...
EVP: 1.900 $
Basistackt: 2,1 GHz
Maximaltackt: 4,0 GHz
Abweichung Maximaltackt zu Basistakt: ~190%


Intel® Core™ i9-10900TE Processor
https://ark.intel.com/content/www/us/en/ark/products/203901/intel-core-i ...
EVP: 444 $
Basistackt: 1,8 GHz
Maximaltackt: 4,5 GHz
Abweichung Maximaltackt zu Basistakt: 250%


Intel® Core™ i7-10810U Processor
https://ark.intel.com/content/www/us/en/ark/products/201888/intel-core-i ...
EVP: 443 $
Basistackt: 1,1 GHz
Maximaltackt: 4,9 GHz
Abweichung Maximaltackt zu Basistakt: ~454% !!! 🤪

usw.

So, jetzt habe ich mir hoffentlich aber auch einen Keks verdient. 🤤

Grüsse aus Murrhardt

Alex
117471
117471 27.05.2020 um 12:41:58 Uhr
Goto Top
Hallo,

Zitat von @MysticFoxDE:

In der heutigen Zeit kannst du diese Angabe als Mindestleistung ansehen, die der Prozessor unter den schlechtesten aber noch zulässigen Bedingungen erbringen sollte.

Japp, aber bei einer seriösen betriebswirtschatlichen Kalkulation ist grundsätzlich von dem auszugehen, was garantiert wird. Und das ist die Mindestleistung - ähnlich den "bis zu" Angaben bei Internetbandbreiten.

Wenn ich ein gewisses Maß an TFLOPs benötige und das genau kenne, dann kaufe ich genau die CPUs, die das dauerhaft als gleichbleibende Eigenschaft bringen. Unabhängig von allen positiv einwirkenden Faktoren wie optimaler Kühlung usw. Negativ einwirkende Faktoren gibt es übrigens nicht, da es sich ja - wie gesagt - um das garantierte Minimum handelt.

Eine "Messung" aufgrund dieser Werte ist nicht zuverlässig.

Zum Einen weißt Du nicht, unter welchen (historischen) Bedingungen zustande gekommen sind: Vielleicht wurde letztes Jahr die Klimatisierung im Serverraum umgebaut oder der Server hat zwei zusätzliche Festplatten bekommen?

Zum Anderen können Faktoren eintreten, die dein System beeinflussen (z.B. ein weiterer Server im Rack). Wenn dann keine Reserven mehr vorhanden sind, weil sich die Überlastsituation nicht in den Messwerten dargestellt hat, dann steht dein System.

Ich bearbeite übrigens zahlreiche Reklamationen, die auf deiner Fehleinschätzung beruhen. "Ganz selten" kommt das offenbar nicht vor face-smile

Gruß,
Jörg
MysticFoxDE
MysticFoxDE 27.05.2020 aktualisiert um 17:22:24 Uhr
Goto Top
Moin Jörg,

Japp, aber bei einer seriösen betriebswirtschatlichen Kalkulation ist grundsätzlich von dem auszugehen, was garantiert wird. Und das ist die Mindestleistung - ähnlich den "bis zu" Angaben bei Internetbandbreiten.

Eine Leistung unter bestimmten Bedingungen ist das eine und die Minimalleistung unter den schlechtesten Voraussetzungen ist etwas ganz anderes. Ferner kalkuliert absolut kein Betriebswirt einen Ablauf mit den schlechtesten Voraussetzungen, man nimmt in Normalfall das zugrunde was bei realen Bedingungen auch zur Verfügung steht, manche neigen auch zum Gegenteil und kalkulieren gerne das ein was gar nicht möglich ist. 🙃

Bin zwar vom ganzen Herzen „IT-Techniker“ aber auch aktiver Geschäftsinhaber. 😉

Wenn ich ein gewisses Maß an TFLOPs benötige und das genau kenne, dann kaufe ich genau die CPUs, die das dauerhaft als gleichbleibende Eigenschaft bringen. Unabhängig von allen positiv einwirkenden Faktoren wie optimaler Kühlung usw. Negativ einwirkende Faktoren gibt es übrigens nicht, da es sich ja - wie gesagt - um das garantierte Minimum handelt.

Eben nicht, wenn die Kühlung die TDP der CPU nicht mehr packt, dann können moderne CPUs auch weit unter ihren Basistackt runtertackten um den Betrieb noch halbwegs am Leben zu erhalten. Das Minimum (Basistackt) ist so gesehen gar kein fixes Minimum, sondern nur ein Mittelwert der bei fest definierten Bedingungen erreicht werden sollte/muss. 😉

Siehe auch ...
https://builders.intel.com/docs/networkbuilders/intel-speed-select-techn ...

https://www.intel.com/content/www/us/en/architecture-and-technology/turb ...

https://www.intel.com/content/www/us/en/architecture-and-technology/turb ...

Eine "Messung" aufgrund dieser Werte ist nicht zuverlässig.

OK, dann hätte ich da eine Gegenfrage.
Wenn die Messung aufgrund der realen Taktrate nicht zulässig ist und der Basistakt das ausschlaggebende Nonplusultra ist. Warum zur Hölle macht es Microsoft selbst bei dem „Process Explorer“ dann falsch?
Und warum ist HWiNFO auch anderer Meinung, genau so wie die Macher von AIDA?
Diese Frage habe ich in einer anderen Form übrigens schon mal gestellt, kann es sein, dass du diese mit Absicht übersiehst?


Zum Einen weißt Du nicht, unter welchen (historischen) Bedingungen zustande gekommen sind: Vielleicht wurde letztes Jahr die Klimatisierung im Serverraum umgebaut oder der Server hat zwei zusätzliche Festplatten bekommen?

Was … Server … Festplatten 😮😖, ich habe seit 10 Jahre nicht eine einzige Festplatte mehr in einen Server mehr verbaut, das ist nun definitiv out of Date. 😱

Auch nicht in primären SAN’s, wenn dann höchstens in den Backupkisten.

Zum Anderen können Faktoren eintreten, die dein System beeinflussen (z.B. ein weiterer Server im Rack). Wenn dann keine Reserven mehr vorhanden sind, weil sich die Überlastsituation nicht in den Messwerten dargestellt hat, dann steht dein System.

Nein es steht nicht, es läuft nur etwas langsamer weiter.
Wie oft muss ich das den noch wiederholen bis es ankommt? 😠

Ich bearbeite übrigens zahlreiche Reklamationen, die auf deiner Fehleinschätzung beruhen. "Ganz selten" kommt das offenbar nicht vor face-smile

😮 Jetzt bin ich doch leicht verwirrt und würde nun sehr gerne wissen ob ich mich über diese Tatsache nicht vielleicht sogar sehr freuen sollte. Lass mal ein paar weitere Details dazu rüberwachsen damit ich mir dazu etwas mehr vorstellen kann.

First oder second Level Support?

Arbeitest du evtl. bei Microsoft an der Hotline?
Kann ich mir aber nicht so wirklich vorstellen, du heisst weder Natasha, noch Svetlana und auch nicht Tanja und anscheinend wohnst du auch in Deutschland und nicht in Osteuropa oder dahinter. Das passt nicht wirklich zu der aktuellen Besetzung des Microsoft Supports, zumindest nicht zu dem, den ich die letzte Zeit sprechen durfte. 🙃

Grüsse aus BaWü

Alex
Th0mKa
Th0mKa 27.05.2020 um 20:05:37 Uhr
Goto Top
Zitat von @MysticFoxDE:

Arbeitest du evtl. bei Microsoft an der Hotline?
Kann ich mir aber nicht so wirklich vorstellen, du heisst weder Natasha, noch Svetlana und auch nicht Tanja und anscheinend wohnst du auch in Deutschland und nicht in Osteuropa oder dahinter. Das passt nicht wirklich zu der aktuellen Besetzung des Microsoft Supports, zumindest nicht zu dem, den ich die letzte Zeit sprechen durfte. 🙃

Microsoft hat in Deutschland ca. 2700 Mitarbeiter, zuzüglich Mitarbeitern mit Werkvertrag oder aus Zeitarbeit. Der überwiegende Teil davon wohnt in Deutschland und gegen Einwurf von entsprechenden Münzen bekommst du sogar einen persönlichen Ansprechpartner der sich exklusiv um dich kümmert.

/Thomas
MysticFoxDE
MysticFoxDE 28.05.2020 aktualisiert um 08:37:11 Uhr
Goto Top
Moin Thomas,

eines mal gleich im Vorfeld. Ich bin ein Microsoft-Jünger der aller ersten Tage und habe ab DOS bis zum jetzigen Server so gut wie alles mitgemacht. Und obwohl die vorherigen Produkte manchmal noch übler verbuggt waren, war ich dennoch von MS sehr positiv angetan, weil ich das Gefühl hatte, das MS zwar Bockmist baut, wie alle anderen übrigens auch, aber auch zuhört und versucht diesen wieder gerade zu biegen und zwar nicht nur dann wenn die ganz grossen Kunden maulen sondern auch die Mittleren und auch die Kleinen. Auch der Bedarf des Kleinen und des Mittleren Mannes und natürlich auch Frau wurde besser erkannt und darauf eingegangen.

Ich stehe noch nach wie vor zu Microsoft, bin heute jedoch etwas kritischer wie noch vor ein paar Jahren, da mir die jüngsten Veränderungen einfach im Hals stecken bleiben. Zum einen die massive Bevormundung Richtung Cloud und Azure & Co., aber hauptsächlich wegen Support & Service, der zwar noch nie zu den Besten gehört hat, aber mittlerweile ist dieser meiner Meinung nach einfach nur noch katastrophal.

Microsoft hat in Deutschland ca. 2700 Mitarbeiter, zuzüglich Mitarbeitern mit Werkvertrag oder aus Zeitarbeit. Der überwiegende Teil davon wohnt in Deutschland.

Das mag schon sein, aber die allerwenigsten Davon sitzen in Deutschland im Support.
Ich habe übrigens absolut nichts gegen Osteuropäer und auch alles dahinter, nicht dass da jetzt etwas in den falschen Hals kommt.
Habe selber 10 Jahre meines Lebens in Russland verbracht. 😉
Ich finde es nur putzig, dass ein amerikanisches Unternehmen, welches sicherheitsrelevante Technologie herstellt, einen Teil seines Supports über ein russisches Callcenter abwickelt.
Was würde wohl Donald dazu sagen, wenn ihm das bewusst wäre? 😂🤣😂🤣

und gegen Einwurf von entsprechenden Münzen bekommst du sogar einen persönlichen Ansprechpartner der sich exklusiv um dich kümmert.

Ich bestelle noch heute noch 104 Datacenter Kernen für einen nicht gerade kleinen fünfstelligen Betrag. Dafür bekommt man woanders einen Mittelklassewagen mit Voller Ausstattung und mindestens 2 Jahre Gewährleistung. Wenn dieser Wagen dann innerhalb der nächsten 2 Jahre einen Defekt aufweist, dann wähle ich eine kostenlose Nummer, werde dort von einer freundlichen Stimme begrüsst. Man hört mich freundlichst an, nimmt den Fall auf und keine 2 Stunden später ist mein Fahrzeug abgeschleppt und ich bekomme ohne grosses Tam Tam ein Ersatzfahrzeug bis meins wieder gerichtet ist. 😉

Es ist bei Microsoft ein generelles Unding, dass ich nicht mal als Partner mal so einfach eine Fehler- oder Schadensmeldung abgeben kann, für Produkte die zum Teil im vier oder fünfstelligem Bereich liegen. Eigentlich ist es nicht nur ein Unding, sondern auch Gesetzeswidrig, aber das schein den Hersteller wenig zu jucken und leider auch nicht die Behörden. 😔
Ich habe aktuell nur eine Möglichkeit einen Support-Fall bei Microsoft selbst für ein nigelnagelneues Produkt zu eröffnen. Ich bezahle im Vorfeld 500,- € und erwerbe damit ein Einmalticket.
Dann kann ich erst mein Problem dem Hersteller schildern und um eine Lösung bitten.
Natürlich bekomme ich irgendwann mal die 500,-€ zurück, wenn es sich rausstellen sollte, dass es ein „Produktfehler“ war, juhu. 🤢🤮

Ich kennen ausser der Softwarebranche, so gut wie keine andere Branche, wo so etwas auch nur im Ansatz gelebt wird.

Was würden wohl ein Handwerker sagen, wenn der nigelnagelneue blaue Bosch Bohrhammer nicht mal durch Ytong bohren kann und bei der Reklamation, diesem vom Hersteller oder auch Verkaufspartner als erstes 500,- abgeknüpft werden, damit sich jemand überhaupt mal das Problem anschaut?

Grüsse aus BaWü

Alex
117471
117471 28.05.2020 um 09:07:59 Uhr
Goto Top
Hallo,

unglaublich, wie man mit zwei Sätzen eine Antwort mit zwei A4-Seiten an #whataboutism generieren kann *lol*

Gruß,
Jörg
emeriks
emeriks 28.05.2020 um 09:11:27 Uhr
Goto Top
Unglaublich, wie oft man immer noch einen drauflegen kann. lol
Ich habe das letzte Wort!
So, jetzt könnt Ihr alle ruhig schlafen.
MysticFoxDE
MysticFoxDE 28.05.2020 aktualisiert um 10:45:16 Uhr
Goto Top
Moin Jörg,

unglaublich, wie man mit zwei Sätzen eine Antwort mit zwei A4-Seiten an #whataboutism generieren kann *lol*

😮💔😭

Nee, Spass beiseite.
Für die 200% Ignoranz und die 200% Sturheit und passend zum Thema spendiere ich jetzt als erstes Mal einen guten Tropfen zum runterkommen.
wisky 4000% vol.


So, jetzt zu deinem Kommentar ...

Wenn du ein Problem damit hast den Umfang meiner Worte geistig zu erfassen, dann tut es mir leid,
ich wollte dich damit zu keiner Zeit überfordern.

Sorry, wirklich, meine Schuld, wie konnte ich in Zeiten von Twitter, nur davon ausgehen, dass ein Text mit über 280 Zeichen noch geistig verarbeitbar sein könnte. Schande über mein Haupt, hier bin ich definitiv selbst Schuld, somit nochmals vom ganzen Herzen, SORRY.

Werde mich in deinem Fall in Zukunft bemühen beim Texten innerhalb der 280 Zeichen zu bleiben.
Ist das OK, oder sind die vielleicht schon zu viel? 😉☮

Grüsse aus BaWü

Alex

P.S. Ich hätte dir schon längst den Kopf gewaschen, wenn da nicht das eine oder andere NDA im Weg währe. 😉
Th0mKa
Th0mKa 28.05.2020 aktualisiert um 12:55:27 Uhr
Goto Top
Zitat von @MysticFoxDE:

viel Genörgel

Erstens, Autovergleiche sind außerhalb der Autoindustrie IMMER für'n Hintern, für einen sinnvollen Vergleich muss man vergleichbares vergleichen.

Zweitens, niemand zwingt dich Azure zu kaufen, du kannst auch weiterhin On Premises Produkte kaufen oder Linux nutzen oder AWS oder was auch immer dir beliebt. Du kannst einen Hersteller nach deinen Bedürfnissen aussuchen, ihn dazu zu bringen deine speziellen Bedürfnisse zu befriedigen funktioniert erst ab einem gewissen Umsatz.

Drittens, natürlich kannst du als (Silber und Gold) Partner kostenlose Tickets eröffnen, das geht schon seit 20 Jahren oder so.

Und last but not least, (fast) alle Mitarbeiter von MS Deutschland arbeiten entweder im Sales oder im Support.

/Thomas
MysticFoxDE
MysticFoxDE 28.05.2020 aktualisiert um 18:58:57 Uhr
Goto Top
Moin Thomas,

Zitat von @MysticFoxDE:

viel Genörgel

😮, wann und wo habe ich das so geschrieben?

Erstens, Autovegleiche sind außerhalb der Autoinduistrie IMMER für'n Hintern, für einen sinvollen Vergleich muss man vergleichbares vergleichen.

Da gebe ich dir recht aber Lustig sind diese schon, aber ich bin hier glaube ich auch nicht derjenige, der ständig mit dem Auto kommt.
Zuletzt habe ich so weit ich weiss einen Bohrhammer als Beispiel missbraucht. 🙃

Zweitens, niemand zwingt dich Azure zu kaufen, du kannst auch weiterhin On Premises Produkte kaufen oder Linux nutzen oder AWS oder was auch immer dir beliebt. Du kannst einen Hersteller nach deinen Bedürfnissen aussuchen, ihn dazu zu bringen deine speziellen Bedürfnisse zu befriedigen funktioniert erst ab einem gewissen Umsatz.

😨 Linux 😱, Thomas, ich dachte wir wären auf derselben Seite.
Ich möchte auch nicht dass MS meine persönlichen Bedürfnisse befriedigt, die sollen das was die machen gescheit machen und keinen Murks bauen.

So weit ich mich erinnern kann, wurde dem letzt erst eine ganze Branche, deren Namen ich jetzt aus Gründen des Friedens nicht nochmals erwähnen möchte, für vermurkste und nicht der Wahrheit entsprechende Angaben und Leistungen, heftig gefedert. 😉

Drittens, natürlich kannst du als (Silber und Gold) Partner kostenlose Tickets eröffnen, das geht schon seit 20 Jahren oder so.

Selbst bei dem ActionPack hast du schon 10 Support Calls und 5 Stunden technische Unterstützung frei zur Verfügung.
Jedoch benötigst du bei Microsoft immer eine "Support-ID" im Vorfeld um ein Support-Ticket zu eröffnen und diese bekommt man als kleinerer Partner nur nach Anfrage von der Partnerbetreuung, diese ist jedoch seit Wochen weder per Telefon noch Mail erreichbar.
Wenn man dort Anruft kommt nur eine Bandansage, dass man bei Problemen, diese doch bitte online über das Supportcenter reinstellen soll und dass diese dann umgehend bearbeitet werden. Ohne eine Support-ID kann ich im Supportcenter aber nicht ein einziges Ticket eröffnen. 🤢

Grüsse aus BaWü

Alex
MysticFoxDE
MysticFoxDE 28.05.2020 um 13:27:45 Uhr
Goto Top
Moin Zusammen,

wir müssen wieder auf Kurs, die Nebenthemen sind zwar auch amüsant, bringen uns aber nicht so wirklich vorwärts.

Damit wir nicht zu sehr in der grauen Theorie durch die Gegend rum eiern, würde ich diese Unterhaltung für das Nächste gerne auf die folgende eingeschränkte Fragestellung limitieren, die ich zwar schon öfters geäussert habe, die aber leider anscheinend immer wieder geschickt übersehen wurde. 😉

Wenn die Logik, die hinter der Kalkulation des Counters „Prozessorauslastung“ welcher unter „Prozessorinformationen“ zu finden ist und auch im Taskmanager, dem Ressourcenmonitor und der Leistungsüberwachung 1:1 dargestellt wird, das absolut Wahre und Richtige ist. Warum benutzt ihn Microsoft bei seinem eigenen „Prozess Explorer“ nicht auch 1:1 wie im Taskmanager?
Warum ermittelt HWiNFO & AIDA64, die Auslastungsinformationen nicht auch über diesen heiligen Auslastungscounter, sondern ermittelt diese auf dieselbe Art und Weise wie der „Prozess Explorer“?

Ich bin mit meiner Ansicht also gar nicht so ganz alleine wie es hier der eine oder andere gerne hätte, ich stelle mich lediglich auf die Seite von Prozess Explorer (Microsoft 🙃), HWiNFO und AIDA64 und nicht auf die, des meiner Ansicht nach leicht vermurksten Taskmanagers & Co (auch Microsoft 🤪).

Grüsse aus BaWü

Alex
117471
117471 28.05.2020 um 13:36:55 Uhr
Goto Top
Hallo,

Zitat von @MysticFoxDE:

Warum ermittelt HWiNFO & AIDA64, die Auslastungsinformationen nicht auch über diesen heiligen Auslastungscounter, sondern ermittelt diese auf dieselbe Art und Weise wie der „Prozess Explorer“?

Ganz einfach: Aus dem gleichen Grund, warum Versicherungen und Banken mit in C# gestrickten APIs auf Cobol-Algorithmen aus den 60er Jahren herumhacken. Es ist wie mit Linux und XF86 / Wayland: Je dicker die Staubschicht, desto weniger wird es hinterfragt.

Das Teil stammt der von Mark Russinovich, die dazugehörige Firma hat Microsoft bereits 2006 zerlegt und ausgeschlachtet. Der eigentliche, grundlegende Code für die Bemessung dürfte noch älter sein.

Liebe Grüße,
Jörg
117471
117471 28.05.2020 um 14:14:11 Uhr
Goto Top
Hallo,

tut mir leid, dass sich die Funktion der Software nicht mit deinen Vorstellungen deckt.

Entscheidend sind übrigens die Performance Counter des Betriebssystems. Aber das hast Du ja schon vor ein paar Tagen gelernt.

Im Übrigen arbeite ich nicht für Microsoft.

Gruß,
Jörg
MysticFoxDE
MysticFoxDE 28.05.2020 um 14:35:13 Uhr
Goto Top
Entscheidend sind übrigens die Performance Counter des Betriebssystems.
Aha, und warum hält sich Microsoft selbst beim Prozess Explorer nicht daran und warum hält HWiNFO und AIDA auch nichts davon?

Gruss
Alex

Unter 280 Zeichen, vielleicht klappt's jetzt. 🤨
117471
117471 28.05.2020 um 14:43:48 Uhr
Goto Top
Hallo,

Zitat von @MysticFoxDE:

Aha, und warum hält sich Microsoft selbst beim Prozess Explorer nicht daran und warum hält HWiNFO und AIDA auch nichts davon?

Ganz einfach: Weil es - wie wir hier gerade feststellen - einen Interpretationsspielraum gibt. Ansonsten hätten wir nämlich die gleiche Meinung! face-smile

Meine Aussage ist, dass man für eine vergleichende Messung eine(!) fixe Größe benötigt, die vorab bekannt ist und bei allen Prozessoren der Modellreihe identisch ist. Und das ist nun mal der Takt, der auf der Verkaufsverpackung steht. Alles darüber hinaus ist toll und darf auch gerne als "Geschenk Gottes" gesehen und genutzt werden. Reproduzierbar ist es aber nicht.

Gruß,
Jörg
MysticFoxDE
MysticFoxDE 28.05.2020 aktualisiert um 19:01:06 Uhr
Goto Top
Moin Jörg,

Ganz einfach: Weil es - wie wir hier gerade feststellen - einen Interpretationsspielraum gibt. Ansonsten hätten wir nämlich die gleiche Meinung! face-smile

ja ganz einfach, das hättest du jetzt gerne.

Die einen halten sich bei der Ermittlung an logische und physikalische Grundsätze und ermitteln die Auslastung absolut korrekt innerhalb der zulässigen 0-100% Skalierung. (mein Lager)
Und die Anderen haben sich einen Humbug zusammengereimt und haben noch nicht mal die Eier diesen Vollständig und Ehrlich darzustellen. Stattdessen versteckt man den Irrwitz hinter der bisher üblichen Skalierung und hofft wahrscheinlich, dass niemand dem Schwindel so schnell auf die Schliche kommt.

Da hat man die Rechnung aber ohne das Füchsle gemacht. 😉

Meine Aussage ist, dass man für eine vergleichende Messung eine(!) fixe Größe benötigt, die vorab bekannt ist und bei allen Prozessoren der Modellreihe identisch ist. Und das ist nun mal der Takt, der auf der Verkaufsverpackung steht.

Auf einer aktuellen CPU Verpackung ist so weit ich mich erinnern kann überhaupt kein Takt angegeben, weder der Basistakt noch der Turbotakt. 😉

Alles darüber hinaus ist toll und darf auch gerne als "Geschenk Gottes" gesehen und genutzt werden. Reproduzierbar ist es aber nicht.

Du bist vielleicht selbst ein nicht reproduzierbares Geschenk Gottes, ja, aber ganz sicher nicht das wovon wir hier sprechen.

Also nochmals, in deiner Sprache.

Der "Prozess Explorer" kann dieses Geschenk Gottes sehr wohl erfassen und Interpretiert dieses auch absolut korrekt.
HWiNFO und AIDA scheinen auch nicht blind zu sein und berücksichtigt ebenfalls die deiner Ansicht nach mysteriösen und unreproduzierbare Göttergeschenke. Nur der bordeigene Taskmanager & Co, ist was das angeht Blind auf den Augen. 🤪

Grusse aus BaWü

Alex
Th0mKa
Th0mKa 28.05.2020 um 21:57:02 Uhr
Goto Top
Zitat von @MysticFoxDE:
Da hat man die Rechnung aber ohne das Füchsle gemacht. 😉

Bleibt die Frage warum sich das Füchsle so ausgiebig mit diesem Nichtproblem beschäftigt?
MysticFoxDE
MysticFoxDE 29.05.2020 um 06:22:10 Uhr
Goto Top
Moin Thomas,

Bleibt die Frage warum sich das Füchsle so ausgiebig mit diesem Nichtproblem beschäftigt?

zum einen steht dieser Fuchs auf Performance und zum anderen auf Präzision.

Ferner ist dieses Thema ein Nebenkriegsschauplatz von dem folgenden Thema.

https://community.spiceworks.com/topic/2269972-weird-4gbit-s-nic-limit-w ...

Und das wiederum ist ein Nebenkriegsschauplatz von diesem Thema.

https://community.spiceworks.com/topic/2225989-server-2019-network-perfo ...
oder
Hyper V Server 2019, Gast Server 2016, Intel X722, langsame ext. Netzwerkanbindung

🤪

Grüsse aus BaWü

Alex
Th0mKa
Th0mKa 29.05.2020 um 12:41:30 Uhr
Goto Top
Also lauter Nebenkriegsschauplätze, aber warum ist das nun ein "sehr kritisches Problem"?

/Thomas
117471
117471 29.05.2020 um 14:24:39 Uhr
Goto Top
Hallo,

weil Andere diesen Schmarrn ebenfalls lesen und dann herumnölen, dass der fertig konfektioniert gekaufte Server gefälligst mehr Leistung zu erbringen hat als über die Spezifikationen abgedeckt ist.

Und weil man sich ganz doll wichtig tun kann, indem man krude Verschwörungstheorien entwickelt und so tut, als wäre man superschlau.

Gruß,
Jörg
MysticFoxDE
MysticFoxDE 29.05.2020 um 14:47:45 Uhr
Goto Top
Moin Thomas,

Also lauter Nebenkriegsschauplätze, aber warum ist das nun ein "sehr kritisches Problem"?

Zum einen werden die User und auch Admins zwischen ein Bisschen und extrem über die Auslastung ihres Systems in die Ire geführt.
Zum Anderen kann so gut wie kein Loadbalancer, der die Laststeuerung anhand der CPU-Auslastung regelt mit der Skalierung von über 100% umgehen. Ich bezweifle, dass irgend ein Entwickler das je berücksichtigt hat.
Es ist schon ein kleiner Unterschied ob ein Loadbalancer die Lastverteilung bei 90% auslöst wenn nur 100% zur Verfügung stehen oder bei 90% wenn 200% zur Verfügung stehen. In dem einen Fall erfolgt der Lastschwenk bei 90% der realer CPU-Auslastung, was einer sinnvollen Auslastung entspricht und in dem anderen bei Fall erfolgt der Lastschwenk schon bei 45% der realer Auslastung, was eigentlich unsinnig wäre, da noch mehr 50% der Ressourcen frei sind. 😉

Grüsse aus BaWü

Alex
MysticFoxDE
MysticFoxDE 29.05.2020 um 15:09:08 Uhr
Goto Top
Moin Jörg,

weil Andere diesen Schmarrn ebenfalls lesen und dann herumnölen, dass der fertig konfektioniert gekaufte Server gefälligst mehr Leistung zu erbringen hat als über die Spezifikationen abgedeckt ist.

Wie ich sehe hast du das Thema immer noch nicht verstanden, schade, aber irgend wann gebe auch ich auf und niemand kann mir hierbei unterstellen dass ich es nicht wenigstens ein paar Mal versucht hätte.

Und weil man sich ganz doll wichtig tun kann, indem man krude Verschwörungstheorien entwickelt und so tut, als wäre man superschlau.

Keine sorge Jörg Verschwörungstheorien sind wie du es schon mehrmals bewiesen hast eher deine Domäne, ich habe keine Absicht dir diese auch nur ansatzweise streitig zu machen. ☮

Ferner habe ich dich doch erst gestern gebeten, dich etwas zusammen zu reissen. Anscheinend hast du mich hier ein bisschen missverstanden.
Deshalb sage ich es jetzt etwas deutlicher. Geht irgendwohin auf die Wiese und Tob dich dort ein bisschen aus und lass uns Erwachsene bitte in Ruhe die wichtigen Dinge besprechen. Vielleicht kommt die Zeit wo du auch Mal sinnvoll mitsprechen kannst und das wünsche ich dir auch, aber bis dahin muss du noch sehr viel lernen. Vor allem, erstens "genau zuhören", zweitens "verstehen lernen" und drittens "erst Mitlabern, wenn mann erstens und zweitens beherrscht. 😉
Momentan beherrscht du meiner Ansicht nach weder das Erste noch das Zweite.

Gruss Alex
emeriks
emeriks 29.05.2020 um 15:24:58 Uhr
Goto Top
Rechtschreibung lernen wäre auch ganz OK. face-wink
MysticFoxDE
MysticFoxDE 29.05.2020 um 15:35:20 Uhr
Goto Top
Moin Jörg,

einen Versuch wage ich doch noch.

Folgend ist die original Beschreibung von Intel zum Thema Grundtakt/Basistakt.
grundtakt

Siehst du hier irgend Etwas von, der Prozessor läuft dauerhaft nur mit dieser Geschwindigkeit und alles darüber ist ein Geschenk Gottes?

https://www.intel.de/content/www/de/de/gaming/resources/cpu-clock-speed. ...

"Intel® Turbo-Boost-Technik ist ein Tool, das die Taktfrequenz dynamisch erhöht, um schwere Workloads verarbeiten zu können."

"Die Technologie bewertet die Menge an thermalem Spielraum, über den der Prozessor verfügt, sowie die Anzahl der in Gebrauch befindlichen Kerne und erhöht dann die Taktfrequenz auf das maximale sichere Niveau."

https://www.intel.com/content/www/us/en/gaming/resources/cpu-clock-speed ...

"Which number is more important for gaming? The turbo frequency. Given adequate cooling, this is the speed your CPU will operate at when dealing with heavy workloads"

Ist in englisch, die deutsche Übersetzung ist an dieser Stelle grauenhaft. 🙃

Ohh, der ist auch gut.


"Warum ist die Taktfrequenz relevant?"
"Die Taktfrequenz der CPU bietet einen guten Hinweis auf die Leistung des Prozessors. Obwohl Anwendungen wie die Videobearbeitung und Streaming mehr auf Multicore-Leistung basieren, laufen noch viele neue Spiele am besten auf CPUs mit der höchsten Taktfrequenz."

Gruss Alex
tomolpi
tomolpi 29.05.2020 um 16:18:49 Uhr
Goto Top
Hallo ihr Lieben,

Ich lese mir das hier jetzt mal in Ruhe durch (danke für die Abendliteratur! face-wink) und bearbeite danach die Meldungen.
Bis dahin schließe ich hier vorläufig mal.

Grüße

tomolpi
tomolpi
tomolpi 31.05.2020 um 11:33:01 Uhr
Goto Top
Also,
ich habe diesen Beitrag hier jetzt ein wenig moderiert, und öffne ihn wieder.
Bitte reißt euch etwas zusammen, wir sind doch schließlich (größtenteils zumindest) erwachsene Menschen.

Grüße und einen schönen Sonntag

Tom