Intel hat es wieder verbockt: Core Ultra 200S
Auf vielen Hardware-Seiten lese ich derzeit die Neuankündigung der Intel Core Ultra 200S CPU mit dem Codenamen Arrow Lake-S. Das neueste Werk von Intel soll der größte Schritt im Desktop-Umfeld seit Jahren sein. Ich sehe das anders.
In den Berichten finden sich zahlreiche Benchmarks zu Anwendungen und Spielen, kleinste Verbesserungen im Megahertz-Bereich und bei der RAM-Geschwindigkeit, gefühlte tausend neue Schnittstellen, neuer Chipsatz etc. Alles Daten, die für den normalen Anwender eher langweilig sind. Ein Beispiel: Er kann mit DDR5-6400 umgehen, DDR5-5600 bleibt aber vorerst Standard, er unterstützt ECC RAM, das aber wohl nie den Weg auf den Desktop finden wird (ist eher was für Xeon CPUs). Findet ihr das auch so spannend wie ich?
Oder die Ankündigung, dass die CPU endlich Thunderbolt 4 unterstützt. In einigen Beiträgen ist von einem Novum im Desktop-Bereich die Rede. Ob die Redakteure wissen, dass Thunderbolt 4 bereits für 2020 angekündigt war? Oder dass die Übertragungsgeschwindigkeit mit 40 Gbit/s die gleiche ist wie bei Thunderbolt 3? Generell gibt es natürlich Vorteile zwischen den beiden Generationen, aber das als wichtiges Feature zu verkaufen? Aber ich will Euch nicht weiter mit unwichtigen Details langweilen.
Bemerkenswert ist die Detailverliebtheit, mit der über noch so kleine und für den Normalverbraucher eher unwichtige Neuerungen berichtet wird. Die Redakteure stürzen sich wirklich auf alles, was ihnen die Presseabteilung von Intel zum Fraß vorwirft.
Trotzdem lese ich die Beiträge über die vielen Neuerungen und Details.
Manches ist interessant, aber langsam habe ich das Gefühl, dass diese Neuerungen gar nicht so neu sind. Viele Features kenne ich schon von den Vorgängerarchitekturen wie dem 3 Jahre alten Raptor Lake oder dem direkten Vorgänger Meteor Lake.
Irgendwann komme ich an einen Punkt, der mich stutzig macht:
In den meisten Beiträgen ist die Rede von: Single-Core-Performance, Multi-Core-Performance und Gaming-Performance. Aber etwas fehlt in der Aufzählung, etwas, das unsere IT gerade komplett verändert: Die AI-Performance.
Für alle, die sich fragen, was das ist: Eine NPU (Neural Processing Unit) ist ein spezialisierter Prozessor, der für AI-Anwendungen und maschinelles Lernen optimiert ist.
Viele Anwender glauben, dass eine leistungsfähige Grafikkarte (GPU) die Aufgaben einer Neural Processing Unit (NPU) übernehmen kann. Dies trifft jedoch nur bedingt zu. Zwar glänzen GPUs bei der Parallelverarbeitung, doch sind sie für KI-spezifische Operationen weniger optimiert als NPUs. Der entscheidende Unterschied liegt in der Energieeffizienz: NPUs führen KI-Berechnungen bei einem Bruchteil des Stromverbrauchs einer GPU durch. Genau diese Spezialisierung und Effizienz machen NPUs unverzichtbar für moderne KI-Anwendungen, besonders wenn es um lokale Verarbeitung auf Endgeräten geht. Sie ermöglichen leistungsfähige KI-Funktionen bei gleichzeitig geringem Energieverbrauch - eine Kombination, die GPUs in dieser Form nicht bieten können.
Kürzlich hat beispielsweise Microsoft 40 TOPS NPU-Leistung (Trillion Operations Per Second) als Minimum für seinen Copilot+ PC festgelegt. Apple verbaut in seinem M4 etwa 38 TOPS und legt mit iOS 18 den Grundstein für viele neue AI-Funktionen.
Irgendwann habe ich dann in der offiziellen Präsentation von Intel ganz weit hinten doch noch ein paar Details zur der NPU gefunden: Intels brandneue Core Ultra 200S CPU kann ganze 13 TOPS verarbeiten. Dennoch bewirbt Intel seine CPU mit dem Slogan "AI everywhere".
Damit liegt sie deutlich unter den Vorgaben von Microsoft und sogar unter dem Niveau des iPhone 14 von vor zwei Jahren (17 TOPS). Dies könnte auch ein Grund dafür sein, dass Microsoft sich entschieden hat, Intel-Prozessoren vollständig aus seinem Surface-Produktangebot zu entfernen. Stattdessen setzt das Unternehmen nun durchgängig auf die ARM-basierte Qualcomm Snapdragon X CPU, deren NPU eine Leistung von 45 TOPS bietet.
Nun werden einige sagen, dass der aktuelle Ryzen 9000 von AMD ganz ohne NPU auskommt. Das ist richtig, aber der Nachfolger steht schon in den Startlöchern: Die Ryzen AI 300 Serie ("Strix Point") wird laut AMD mindestens 50 TOPS unterstützen. Was AMD daraus macht, bleibt abzuwarten. Jetzt, wo die Katze aus dem Sack ist, kann ich mir gut vorstellen, dass sich AMD die Hände reibt und weiß, was zu tun ist.
Warum Intel nur 13 TOPS anbietet, steht dann auch in der Pressemitteilung. Dort erklärt Intel überraschend deutlich, dass bewusst keine größeren NPUs verbaut werden, da auf dem Desktop zunächst die Leistung pro CPU-Kern wichtiger sei und man dafür keinen Platz verschenken wolle (auf der IFA 2024 Ende August klang das von Intel noch ganz anders).
Eine neue Technologie und Software, die den Alltag immer mehr verändert bzw. bestimmt, wird nicht verbaut, weil Intel sie für nicht wichtig genug hält?
Das ist in der Tat etwas unverständlich, da Intel mit dem Core Ultra 200V im Ultra Mobile Bereich bereits eine NPU mit 48 TOPS im Portfolio hat. Abgesehen von der Mobilität sehe ich keinen großen Unterschied zwischen einem Notebook und einem Desktop.
Meiner Meinung nach geht Intel damit völlig an der Realität vorbei. Ein Beispiel: Letzte Woche gab es ein Update einer bekannten Entwickler-IDE, die nun eine lokale AI laufen lässt, damit diese den Code für den Anwender besser und automatisch vervollständigen kann. Ohne NPU ist das kaum möglich.
Schauen wir uns allgemeine Software an, bei der man nicht direkt an AI denkt: Moderne Antiviren-Softwarelösungen setzen auf lokale AI-Funktionen, um Bedrohungen besser erkennen zu können. Auch moderne Bildbearbeitungssoftware oder Übersetzungsprogramme nutzen bereits lokale AI-Funktionen. Und so weiter.
Ähnlich katastrophal sieht es bei der Grafikunterstützung des Core Ultra 200S aus. Diese ist auf dem Niveau des Vorgängers und wirklich nur für den Desktop nutzbar. Dass es auch anders geht, hatte Intel eigentlich mit dem Ultra-Mobile Core Ultra 200V bzw. Core Ultra 200H gezeigt, wo eine schnelle interne Grafik verbaut war (8 Kerne „Xe2" bzw. 8 Kerne „Xe XMX"). Der neue Core Ultra 200S hat nur 4 Kerne der „Xe"-Generation des Vorgängers. Was für eine Enttäuschung.
Intel empfiehlt den Einbau einer separaten Grafikkarte. Aber nicht jeder, schon gar nicht die Firmen, werden in jeden Desktop für ihre Mitarbeiter eine separate Grafikkarte einbauen. Das wird die Minderheit sein. Vielleicht sollte Intel noch einmal über seine Zielgruppe bei Desktops nachdenken.
Fraglich ist auch, warum die neue CPU im Gegensatz zu AMD-Produkten kein Hyper-Threading mehr unterstützt.
Zusammenfassend haben wir mit AI eine grundlegend neue Schlüsseltechnologie, die mit hoher Wahrscheinlichkeit den Markt, die Programme und das Leben in den nächsten Jahren komplett verändern wird.
Und welche NPU ist dafür zu klein und zu leistungsschwach: Intels brandneue Core Ultra 200S CPU. Glückwunsch an Intel.
Damit sind die neuen AI Features von Microsoft schon mal außen vor und ob die Leistung von 13 TOPS für kleine lokale AI Software ausreicht, wird sich zeigen. Microsoft und Apple glauben das jedenfalls nicht.
Angesichts dieser Situation stellt sich die Frage: Ist es für Privatpersonen oder Unternehmen ratsam, in einen Rechner mit der neuen Core Ultra 200S CPU zu investieren, wenn diese absehbar nur eingeschränkte Zukunftstechnologien unterstützt und der Hersteller die Bedeutung der AI-Unterstützung unterschätzt?
An wen richtet sich diese CPU? Richtet sie sich in erster Linie an Hardcore-Gamer, die wenig Interesse an zukünftigen KI-Entwicklungen haben? Auch in diesem Bereich könnte sich früher oder später herausstellen, dass beispielsweise ein Virenscanner mit lokaler KI-Funktionalität ohne NPU deutlich langsamer arbeitet.
Damit ich auch etwas Positives schreiben kann, muss man der neuen CPU zugute halten, dass sie endlich stromsparend arbeitet. Das kann die Konkurrenz zwar schon länger, aber nach dem letzten instabilen Core-Prozessor-Desaster war das irgendwie wichtig.
Für mich persönlich ist die neue CPU ein Flop, zu wenig NPU-Leistung, zu wenig Interesse von Intel an neuen Möglichkeiten. Entweder haben sie es technisch nicht hinbekommen oder sie sollten ihre Marketingabteilung überdenken. Wie kann man eine CPU so am Markt vorbei entwickeln? Apple, Microsoft, ARM und Co. haben das doch auch erkannt. Intel sieht den Wald vor lauter Bäumen nicht mehr und hat zu lange an alten Mustern festgehalten.
"AI everywhere" sollte sich anders anfühlen.
An all die Hardware-Seiten und Redakteure, denen es nicht mehr auffällt, Intel-Pressemitteilungen unkritisch zu übernehmen oder sich in technischen Details zu verlieren. Man darf auch große Firmen wie Intel und ihre Produkte kritisch hinterfragen. Ja, eine kritische Haltung könnte den bevorzugten Zugang zu künftigen Produktvorstellungen gefährden. Doch ist das wichtiger als die journalistische Integrität?
Lasst uns mutig sein und ganzheitlich über Technologie berichten – unabhängig von möglichen Konsequenzen. Nur so bieten wir den Lesern echten Mehrwert.
NPU und AI sind neue wichtige Schlüsseltechnologien und wer nicht dabei ist, verpasst den Anschluss. Disruption macht auch vor ehemals großen Technologiekonzernen nicht halt.
Gruß
Frank
P.S. Wer will kann den Beitrag auch über Medium.com lesen
Immer diese Benchmarks
In den Berichten finden sich zahlreiche Benchmarks zu Anwendungen und Spielen, kleinste Verbesserungen im Megahertz-Bereich und bei der RAM-Geschwindigkeit, gefühlte tausend neue Schnittstellen, neuer Chipsatz etc. Alles Daten, die für den normalen Anwender eher langweilig sind. Ein Beispiel: Er kann mit DDR5-6400 umgehen, DDR5-5600 bleibt aber vorerst Standard, er unterstützt ECC RAM, das aber wohl nie den Weg auf den Desktop finden wird (ist eher was für Xeon CPUs). Findet ihr das auch so spannend wie ich?
Oder die Ankündigung, dass die CPU endlich Thunderbolt 4 unterstützt. In einigen Beiträgen ist von einem Novum im Desktop-Bereich die Rede. Ob die Redakteure wissen, dass Thunderbolt 4 bereits für 2020 angekündigt war? Oder dass die Übertragungsgeschwindigkeit mit 40 Gbit/s die gleiche ist wie bei Thunderbolt 3? Generell gibt es natürlich Vorteile zwischen den beiden Generationen, aber das als wichtiges Feature zu verkaufen? Aber ich will Euch nicht weiter mit unwichtigen Details langweilen.
Bemerkenswert ist die Detailverliebtheit, mit der über noch so kleine und für den Normalverbraucher eher unwichtige Neuerungen berichtet wird. Die Redakteure stürzen sich wirklich auf alles, was ihnen die Presseabteilung von Intel zum Fraß vorwirft.
Trotzdem lese ich die Beiträge über die vielen Neuerungen und Details.
Manches ist interessant, aber langsam habe ich das Gefühl, dass diese Neuerungen gar nicht so neu sind. Viele Features kenne ich schon von den Vorgängerarchitekturen wie dem 3 Jahre alten Raptor Lake oder dem direkten Vorgänger Meteor Lake.
Irgendwann komme ich an einen Punkt, der mich stutzig macht:
In den meisten Beiträgen ist die Rede von: Single-Core-Performance, Multi-Core-Performance und Gaming-Performance. Aber etwas fehlt in der Aufzählung, etwas, das unsere IT gerade komplett verändert: Die AI-Performance.
Wo ist die NPU für die AI?
Für alle, die sich fragen, was das ist: Eine NPU (Neural Processing Unit) ist ein spezialisierter Prozessor, der für AI-Anwendungen und maschinelles Lernen optimiert ist.
Viele Anwender glauben, dass eine leistungsfähige Grafikkarte (GPU) die Aufgaben einer Neural Processing Unit (NPU) übernehmen kann. Dies trifft jedoch nur bedingt zu. Zwar glänzen GPUs bei der Parallelverarbeitung, doch sind sie für KI-spezifische Operationen weniger optimiert als NPUs. Der entscheidende Unterschied liegt in der Energieeffizienz: NPUs führen KI-Berechnungen bei einem Bruchteil des Stromverbrauchs einer GPU durch. Genau diese Spezialisierung und Effizienz machen NPUs unverzichtbar für moderne KI-Anwendungen, besonders wenn es um lokale Verarbeitung auf Endgeräten geht. Sie ermöglichen leistungsfähige KI-Funktionen bei gleichzeitig geringem Energieverbrauch - eine Kombination, die GPUs in dieser Form nicht bieten können.
Kürzlich hat beispielsweise Microsoft 40 TOPS NPU-Leistung (Trillion Operations Per Second) als Minimum für seinen Copilot+ PC festgelegt. Apple verbaut in seinem M4 etwa 38 TOPS und legt mit iOS 18 den Grundstein für viele neue AI-Funktionen.
Irgendwann habe ich dann in der offiziellen Präsentation von Intel ganz weit hinten doch noch ein paar Details zur der NPU gefunden: Intels brandneue Core Ultra 200S CPU kann ganze 13 TOPS verarbeiten. Dennoch bewirbt Intel seine CPU mit dem Slogan "AI everywhere".
Damit liegt sie deutlich unter den Vorgaben von Microsoft und sogar unter dem Niveau des iPhone 14 von vor zwei Jahren (17 TOPS). Dies könnte auch ein Grund dafür sein, dass Microsoft sich entschieden hat, Intel-Prozessoren vollständig aus seinem Surface-Produktangebot zu entfernen. Stattdessen setzt das Unternehmen nun durchgängig auf die ARM-basierte Qualcomm Snapdragon X CPU, deren NPU eine Leistung von 45 TOPS bietet.
Nun werden einige sagen, dass der aktuelle Ryzen 9000 von AMD ganz ohne NPU auskommt. Das ist richtig, aber der Nachfolger steht schon in den Startlöchern: Die Ryzen AI 300 Serie ("Strix Point") wird laut AMD mindestens 50 TOPS unterstützen. Was AMD daraus macht, bleibt abzuwarten. Jetzt, wo die Katze aus dem Sack ist, kann ich mir gut vorstellen, dass sich AMD die Hände reibt und weiß, was zu tun ist.
Warum Intel nur 13 TOPS anbietet, steht dann auch in der Pressemitteilung. Dort erklärt Intel überraschend deutlich, dass bewusst keine größeren NPUs verbaut werden, da auf dem Desktop zunächst die Leistung pro CPU-Kern wichtiger sei und man dafür keinen Platz verschenken wolle (auf der IFA 2024 Ende August klang das von Intel noch ganz anders).
Die neue Realität
Eine neue Technologie und Software, die den Alltag immer mehr verändert bzw. bestimmt, wird nicht verbaut, weil Intel sie für nicht wichtig genug hält?
Das ist in der Tat etwas unverständlich, da Intel mit dem Core Ultra 200V im Ultra Mobile Bereich bereits eine NPU mit 48 TOPS im Portfolio hat. Abgesehen von der Mobilität sehe ich keinen großen Unterschied zwischen einem Notebook und einem Desktop.
Meiner Meinung nach geht Intel damit völlig an der Realität vorbei. Ein Beispiel: Letzte Woche gab es ein Update einer bekannten Entwickler-IDE, die nun eine lokale AI laufen lässt, damit diese den Code für den Anwender besser und automatisch vervollständigen kann. Ohne NPU ist das kaum möglich.
Schauen wir uns allgemeine Software an, bei der man nicht direkt an AI denkt: Moderne Antiviren-Softwarelösungen setzen auf lokale AI-Funktionen, um Bedrohungen besser erkennen zu können. Auch moderne Bildbearbeitungssoftware oder Übersetzungsprogramme nutzen bereits lokale AI-Funktionen. Und so weiter.
Reduzierte Grafikunterstützung und kein Hyper-Threading mehr
Ähnlich katastrophal sieht es bei der Grafikunterstützung des Core Ultra 200S aus. Diese ist auf dem Niveau des Vorgängers und wirklich nur für den Desktop nutzbar. Dass es auch anders geht, hatte Intel eigentlich mit dem Ultra-Mobile Core Ultra 200V bzw. Core Ultra 200H gezeigt, wo eine schnelle interne Grafik verbaut war (8 Kerne „Xe2" bzw. 8 Kerne „Xe XMX"). Der neue Core Ultra 200S hat nur 4 Kerne der „Xe"-Generation des Vorgängers. Was für eine Enttäuschung.
Intel empfiehlt den Einbau einer separaten Grafikkarte. Aber nicht jeder, schon gar nicht die Firmen, werden in jeden Desktop für ihre Mitarbeiter eine separate Grafikkarte einbauen. Das wird die Minderheit sein. Vielleicht sollte Intel noch einmal über seine Zielgruppe bei Desktops nachdenken.
Fraglich ist auch, warum die neue CPU im Gegensatz zu AMD-Produkten kein Hyper-Threading mehr unterstützt.
AI, eine grundlegende Schlüsseltechnologie
Zusammenfassend haben wir mit AI eine grundlegend neue Schlüsseltechnologie, die mit hoher Wahrscheinlichkeit den Markt, die Programme und das Leben in den nächsten Jahren komplett verändern wird.
Und welche NPU ist dafür zu klein und zu leistungsschwach: Intels brandneue Core Ultra 200S CPU. Glückwunsch an Intel.
Damit sind die neuen AI Features von Microsoft schon mal außen vor und ob die Leistung von 13 TOPS für kleine lokale AI Software ausreicht, wird sich zeigen. Microsoft und Apple glauben das jedenfalls nicht.
Angesichts dieser Situation stellt sich die Frage: Ist es für Privatpersonen oder Unternehmen ratsam, in einen Rechner mit der neuen Core Ultra 200S CPU zu investieren, wenn diese absehbar nur eingeschränkte Zukunftstechnologien unterstützt und der Hersteller die Bedeutung der AI-Unterstützung unterschätzt?
An wen richtet sich diese CPU? Richtet sie sich in erster Linie an Hardcore-Gamer, die wenig Interesse an zukünftigen KI-Entwicklungen haben? Auch in diesem Bereich könnte sich früher oder später herausstellen, dass beispielsweise ein Virenscanner mit lokaler KI-Funktionalität ohne NPU deutlich langsamer arbeitet.
Etwas Positives
Damit ich auch etwas Positives schreiben kann, muss man der neuen CPU zugute halten, dass sie endlich stromsparend arbeitet. Das kann die Konkurrenz zwar schon länger, aber nach dem letzten instabilen Core-Prozessor-Desaster war das irgendwie wichtig.
Ein Flop
Für mich persönlich ist die neue CPU ein Flop, zu wenig NPU-Leistung, zu wenig Interesse von Intel an neuen Möglichkeiten. Entweder haben sie es technisch nicht hinbekommen oder sie sollten ihre Marketingabteilung überdenken. Wie kann man eine CPU so am Markt vorbei entwickeln? Apple, Microsoft, ARM und Co. haben das doch auch erkannt. Intel sieht den Wald vor lauter Bäumen nicht mehr und hat zu lange an alten Mustern festgehalten.
"AI everywhere" sollte sich anders anfühlen.
P.S.
An all die Hardware-Seiten und Redakteure, denen es nicht mehr auffällt, Intel-Pressemitteilungen unkritisch zu übernehmen oder sich in technischen Details zu verlieren. Man darf auch große Firmen wie Intel und ihre Produkte kritisch hinterfragen. Ja, eine kritische Haltung könnte den bevorzugten Zugang zu künftigen Produktvorstellungen gefährden. Doch ist das wichtiger als die journalistische Integrität?
Lasst uns mutig sein und ganzheitlich über Technologie berichten – unabhängig von möglichen Konsequenzen. Nur so bieten wir den Lesern echten Mehrwert.
NPU und AI sind neue wichtige Schlüsseltechnologien und wer nicht dabei ist, verpasst den Anschluss. Disruption macht auch vor ehemals großen Technologiekonzernen nicht halt.
Gruß
Frank
P.S. Wer will kann den Beitrag auch über Medium.com lesen
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 668722
Url: https://administrator.de/imho/intel-hat-es-wieder-verbockt-core-ultra-200s-668722.html
Ausgedruckt am: 23.12.2024 um 08:12 Uhr
15 Kommentare
Neuester Kommentar
Das 200 und S erinnert mich an eine Automarke 🤪. Intel ist inzwischen das Mercedes der IT Branche, man verkauft den Leuten alten Ramsch in neuem Gewand, baut dafür Dinge aus um sie dann später wieder als neue Features zurück zu bringen, und dann auch noch teurer zu verkaufen.
Zitat von @Frank:
NPU und AI sind neue wichtige Technologien und wer nicht dabei ist, verpasst den Anschluss. Disruption macht auch vor ehemals großen Technologiekonzernen nicht halt.
NPU und AI sind neue wichtige Technologien und wer nicht dabei ist, verpasst den Anschluss. Disruption macht auch vor ehemals großen Technologiekonzernen nicht halt.
Du meinst Marketing-Hypes oder einfach gesagt, die aktuelle Sau, die gerade durchs Dorf getrieben wird.
Daß die Redakteure alle momentan "begeistert" schreiben ist auch nichts neues, die müssen "News" generieren, weil ansonsten die Auflagen/Klickraten zurückgehen. Man muß halt die Artikel halt entsprechend "filtern" und das für einen selbst wichtige herauslesen.
lks
PS: Kleine Schritte sind manchmal für die Entwicklung besser als ein großer Sprung.
Moin @Frank,
ich lese schon lange nicht mehr genau was der Vertrieb oder das Marketing über irgendwelche Technik schreibt und oder was die Redakteure dann davon abkupfern, weil das meiner Ansicht und Erfahrung nach, heutzutage leider meist nur noch oberflächliches Blink-Blink-Blabla ist.
Daher schaue ich mir die Daten für z.B. die Intel CPU's meist über Ark an ...
https://ark.intel.com/content/www/us/en/ark/products/series/241071/intel ...
... denn dort sind nur die technischen Details aufgelistet und zwar meist ohne jegliches Marketing- oder Vertriebs-Blabla, was für meiner Person zumindest, sehr nervenschonend ist.
Das kann ich dir verraten und zwar haben die neuen Intel-CPU's durch die Bank nun auch E-Cores verbaut, die deutlich mehr Leistung bringen, wie jeder zusätzliche Scheduler eines P-Kerns.
Ich habe schon vor längerem mit den 12000er einen ausführlichen Test gemacht, bei dem ich z.B. die Verarbeitung der Netzwerkkarten-Daten fix auf die E-Kerne umgebogen habe, die mit dieser Arbeit übrigens fast genau so gut zurecht gekommen sind wie die P-Kerne. Das hatte zu folge, das die Performance der potenteren P-Kerne, dann auch überwiegend den lokal laufenden Anwendungen zur Verfügung stand und nicht mehr durch die NIC's mit aufgefressen wurde.
Leider muss man um sowas zu erreichen, sprich um die Vorteile der neuen CPU's auch richtig auszunutzen, auch selber viel Hand anlegen, weil Windows das selbst leider nicht wirklich gut auf die Reihe bekommt und der Pinguin ist da sicherlich auch nicht viel besser. 😔
Momentan sehe ich davon noch gar nichts, im Gegenteil, das was ich bisher von KI gesehen habe, hatte mit Intelligenz meistens nicht wirklich viel zu tun.
Ich habe erst dem Letzt die Freude gehabt ein quasi durch KI sich selbst optimierendes SAN, sprich, ein HPE Alletra MP zu testen. Na ja, die Freude bestand ehrlich gesagt eher darin, zu sehen wie es von einem anderen, mehr als 6 Jahre alten AllFlash SAN, bei den meisten Testdisziplinen dem Erdboden gleich gemacht wurde. 🙃
Frank, bist du dir wirklich sicher, dass du die neunen AI-Features, insbesondere die von MS, auch wirklich haben/aktivieren möchtest?
Ich persönlich sehe die Sache eher wie Elliott.
https://www.investmentweek.com/elliott-management-warnt-vor-ai-blase-ske ...
Gruss Alex
ich lese schon lange nicht mehr genau was der Vertrieb oder das Marketing über irgendwelche Technik schreibt und oder was die Redakteure dann davon abkupfern, weil das meiner Ansicht und Erfahrung nach, heutzutage leider meist nur noch oberflächliches Blink-Blink-Blabla ist.
Daher schaue ich mir die Daten für z.B. die Intel CPU's meist über Ark an ...
https://ark.intel.com/content/www/us/en/ark/products/series/241071/intel ...
... denn dort sind nur die technischen Details aufgelistet und zwar meist ohne jegliches Marketing- oder Vertriebs-Blabla, was für meiner Person zumindest, sehr nervenschonend ist.
Fraglich ist auch, warum die neue CPU im Gegensatz zu AMD-Produkten kein Hyper-Threading mehr unterstützt.
Das kann ich dir verraten und zwar haben die neuen Intel-CPU's durch die Bank nun auch E-Cores verbaut, die deutlich mehr Leistung bringen, wie jeder zusätzliche Scheduler eines P-Kerns.
Ich habe schon vor längerem mit den 12000er einen ausführlichen Test gemacht, bei dem ich z.B. die Verarbeitung der Netzwerkkarten-Daten fix auf die E-Kerne umgebogen habe, die mit dieser Arbeit übrigens fast genau so gut zurecht gekommen sind wie die P-Kerne. Das hatte zu folge, das die Performance der potenteren P-Kerne, dann auch überwiegend den lokal laufenden Anwendungen zur Verfügung stand und nicht mehr durch die NIC's mit aufgefressen wurde.
Leider muss man um sowas zu erreichen, sprich um die Vorteile der neuen CPU's auch richtig auszunutzen, auch selber viel Hand anlegen, weil Windows das selbst leider nicht wirklich gut auf die Reihe bekommt und der Pinguin ist da sicherlich auch nicht viel besser. 😔
Zusammenfassend haben wir mit AI eine grundlegend neue Schlüsseltechnologie, die mit hoher Wahrscheinlichkeit den Markt, die Programme und das Leben in den nächsten Jahren komplett verändern wird.
Momentan sehe ich davon noch gar nichts, im Gegenteil, das was ich bisher von KI gesehen habe, hatte mit Intelligenz meistens nicht wirklich viel zu tun.
Ich habe erst dem Letzt die Freude gehabt ein quasi durch KI sich selbst optimierendes SAN, sprich, ein HPE Alletra MP zu testen. Na ja, die Freude bestand ehrlich gesagt eher darin, zu sehen wie es von einem anderen, mehr als 6 Jahre alten AllFlash SAN, bei den meisten Testdisziplinen dem Erdboden gleich gemacht wurde. 🙃
Damit sind die neuen AI Features von Microsoft schon mal außen vor und ob die Leistung von 13 TOPS für kleine lokale AI Software ausreicht, wird sich zeigen. Microsoft und Apple glauben das jedenfalls nicht.
Frank, bist du dir wirklich sicher, dass du die neunen AI-Features, insbesondere die von MS, auch wirklich haben/aktivieren möchtest?
NPU und AI sind neue wichtige Schlüsseltechnologien und wer nicht dabei ist, verpasst den Anschluss. Disruption macht auch vor ehemals großen Technologiekonzernen nicht halt.
Ich persönlich sehe die Sache eher wie Elliott.
https://www.investmentweek.com/elliott-management-warnt-vor-ai-blase-ske ...
Gruss Alex
@Lochkartenstanzer und @MysticFoxDE haben insoweit mit ihren Zweifeln Recht, weil in der "Propaganda", die uns tagtäglich umschwirrt, genau eine solche Gleichsetzung suggeriert wird / werden soll. Und ich wage zu behaupten, dass viele das ganz unbedarft so verstehen: eine Art neue Wunder-/Zaubertechnologie, die plötzlich allmächtig daherkommt und dann wohl auch Berge versetzen kann.
Und wenn ich mir vor diesem Hintergrund die TOPS-Fähigkeiten/-Anforderungen auf der Zunge zergehen lasse, unterstreicht das, was Wahrscheinlichkeitsrechnung ist und bleiben wird: Abarbeitung eines mehr oder weniger komplexen Algorithmus. Dann stellt sich in der Tat die berechtigte Frage, die Du schon aufgeworfen hast: Wer ist betreffend die neue CPU die avisierte Zielgruppe aus Sicht von Intel oder handelt es sich vielleicht "nur" um ein "Zwischenprodukt", dass dem Verlust von Marktanteilen für eine bestimmte Dauer entgegenwirken soll, um in der Zwischenzeit den verlorenen Anschluss mit einem dann besseren Produkt wieder ausbügeln zu können. Wir wissen es nicht. Die vielen kritikfreien Lobeshymnen dienen jedenfalls erkennbar der zielgerichteten Marktbearbeitung zugunsten von Intel und der Ankurbelung seines Umsatzes - irgendwie eine Win-Win-Situation für Intel und die Redakteure gleichermaßen. Fakt ist und bleibt aber, dass möglicherweise der Ottonormalbürger auch dann mit einer solchen CPU durchaus ganz gut bedient sein könnte, wenn für ihn die AI-TOPS etwas weniger perfomant sind. Die von ihm verwendete Software muss das ja aus seiner Anwendersicht auch leistungskritisch ausschöpfen können. Und genau das ist das große Fragezeichen.
Überdiese sollte man in dieser Hinsicht im Hinterkopf behalten: Die IT-Industrie betreibt seit Jahrzehnten ein Ping-Pong-Spiel, um immer wieder zu einem kurzfristigen Austausch der Hard- und/oder Softwarebasis zu animieren, weil das Vorhandene angeblich nicht mehr ausreichend sein soll.
Viele Grüße
HansDampf06
Die Ergebnisse, die heute aus der AI kommen, sind nicht vorberechnet
Das erscheint mir ein großer Trugschluss zu sein, insbesondere wenn diesedas Ergebnis einer Wahrscheinlichkeitsrechnung, die sich immer mer an 100% annähert
sein sollen, wie Du ausführst. Wahrscheinlichkeitsrechnung ist pure Mathematik und Rechenleistung auf der Grundlage einer mehr oder weniger großen Datenbasis (z.B. Gauß lässt grüßen).Genau das ist aus meiner und der wissenschaftlichen Sicht künstliche Intelligenz
Also bei sachgerechter Betrachtung unter dem Strich nichts anderes als ein BerechnungsALGORITHMUS. Und deswegen stimmt die Aussageein künstlicher Nachbau. Sie funktionieren auf einer viel abstrakteren Ebene als biologische Neuronen
weil es die mathematische Abstraktheit der Wahrscheinlichkeitsrechnung ist und bleibt.Aktuell hat die AI aber noch Schwierigkeiten mit Transferlernen oder echtem Verständnis im menschlichen Sinne.
Das verwundert auch nicht, weil das nämlich ECHTE WISSENSVERARBEITUNG wäre und nicht nur ein mit mathematischen Wahrscheinlichkeitsformeln vollgestopfter Algorithmus. Und den springenden Punkt der menschlichen Neuronen, nämlich erworbenes Wissen auf ganz andere Anwendungsfälle adaptieren zu können, lässt sich eben wohl eher nicht (allein) mit Wahrscheinlichkeitsrechnung abbilden, wenn überhaupt mit mathematischen Formeln. Jedenfalls gibt es heutzutage in dieser Hinsicht noch keinen formelbasierten Durchbruch, um dies edv-technisch abbilden zu können.Und wenn ich mir vor diesem Hintergrund die TOPS-Fähigkeiten/-Anforderungen auf der Zunge zergehen lasse, unterstreicht das, was Wahrscheinlichkeitsrechnung ist und bleiben wird: Abarbeitung eines mehr oder weniger komplexen Algorithmus. Dann stellt sich in der Tat die berechtigte Frage, die Du schon aufgeworfen hast: Wer ist betreffend die neue CPU die avisierte Zielgruppe aus Sicht von Intel oder handelt es sich vielleicht "nur" um ein "Zwischenprodukt", dass dem Verlust von Marktanteilen für eine bestimmte Dauer entgegenwirken soll, um in der Zwischenzeit den verlorenen Anschluss mit einem dann besseren Produkt wieder ausbügeln zu können. Wir wissen es nicht. Die vielen kritikfreien Lobeshymnen dienen jedenfalls erkennbar der zielgerichteten Marktbearbeitung zugunsten von Intel und der Ankurbelung seines Umsatzes - irgendwie eine Win-Win-Situation für Intel und die Redakteure gleichermaßen. Fakt ist und bleibt aber, dass möglicherweise der Ottonormalbürger auch dann mit einer solchen CPU durchaus ganz gut bedient sein könnte, wenn für ihn die AI-TOPS etwas weniger perfomant sind. Die von ihm verwendete Software muss das ja aus seiner Anwendersicht auch leistungskritisch ausschöpfen können. Und genau das ist das große Fragezeichen.
Überdiese sollte man in dieser Hinsicht im Hinterkopf behalten: Die IT-Industrie betreibt seit Jahrzehnten ein Ping-Pong-Spiel, um immer wieder zu einem kurzfristigen Austausch der Hard- und/oder Softwarebasis zu animieren, weil das Vorhandene angeblich nicht mehr ausreichend sein soll.
Viele Grüße
HansDampf06
Also mal ganz abgesehen von der Frage wie tiefgreifend AI wirklich ein sinnvoller Bestandteil unseres Alltags wird oder werden kann muss ich gestehen das ich noch nie eine Software-Funktion kennen gelernt habe die auf dem Client AI Berechnungen durchführt. Ich sage nicht, das es sowas nicht gibt oder geben wird aber was war denn vor AI der Hype? - Die Cloud - SaaS um genau zu sein. Bei Virenscannern mag es vielleicht sinnvolle Ansätze geben Dinge lokal schneller zu analysieren aber dieser Ansatz lokal ist doch irgendwie völlig abhanden gekommen. Viele Sicherheitsanbieter haben die Analyse auch eher in der Cloud laufen, allein schon weil es dort Big Data über viele Kunden gibt.
Also ja, AI im Desktop kann vielleicht irgendwem nutzen aber ich bin auch eher skeptisch was den Nutzen angeht. Vielleicht wird ja die Civilization KI endlich besser
PS: Ich erinnere mich an dieses Video:
https://www.youtube.com/watch?v=nJQulJ_gBjo
Um Minute 13 herum wird auch von Intel mit einer Desktop AI Strategie geworben.
Also ja, AI im Desktop kann vielleicht irgendwem nutzen aber ich bin auch eher skeptisch was den Nutzen angeht. Vielleicht wird ja die Civilization KI endlich besser
PS: Ich erinnere mich an dieses Video:
https://www.youtube.com/watch?v=nJQulJ_gBjo
Um Minute 13 herum wird auch von Intel mit einer Desktop AI Strategie geworben.
Moin @Frank,
das meiste was du gerade aufgezählt hast läuft eben nicht auf einer lokalen NPU, sondern wird in den Rechenzentren der entsprechenden Rechenzentren verarbeitet. Trenn mal bei einem solchen Gerät die Internetverbindung und versuch dann irgendeine KI/AI Funktion zu nutzen, dann siehst du selber ganz schnell, wie sehr die entsprechenden Hersteller heutzutage die lokale NPU wirklich nutzen.
Ich habe nämlich auch so ein KI-Smartphone (S24 Ultra) und sobald ich bei diesem den Flugmodus aktiviere, sind so gut wie alle KI Funktionen nicht mehr verfügbar. 😔
Dasselbe gilt auch für Microsofts Büroklammer-AI.
Und was deren das Recall angeht ... 😱 ... ne, das möchte ich auf meinem Rechner ganz sicher nicht haben.
Um genau zu sein, das darf ich Recall auf meinem Rechner schon rein rechtlich auf keinen Fall benutzen, da ich ständig Remote auf anderen Systemen bin und auch oft mit sehr sensiblen Daten hantiere, die auf keinen Fall in irgend einer Weise aufgezeichnet werden dürfen, weil Geheimhaltungspflicht und oder DSGVO oder ähnliche Dinge.
Frank, sei mir bitte nicht böse, aber ich kann dieses ganze AI/KI Zeugs, bald nicht mehr hören.
Denn stand heute habe ich, vor allem was "Intelligenz" angeht, noch nichts davon wirklich in irgend einem Gerät gesehen, maschinelles Lernen ja, intelligentes, sprich, selbstständiges lernen jedoch ganz sicher nicht, zumindest nicht nach meinem Verständnis von Intelligenz.
Und was wirklich oft hinter den heutigen KI's steckt, kann man z.B. in dem folgenden Artikel nachlesen ...
https://netzpolitik.org/2024/von-wegen-kuenstliche-intelligenz-indische- ...
... 😔
Also was mich angeht, doch den habe ich schon gehört, ich muss jedoch nicht an jedem Lauf teilnehmen,
da es meiner Ansicht nach aktuell viel dringendere Probleme zu lösen gibt, wie z.B. das mit dem mittlerweile absolut katastrophalem Fachkräftemangel. 😭
Das Fell wird aber nur dann nass, wenn man sich unterhalb einer Welle befindet, darüber bleibt es meist etwas trockener. 😉
Und nein, ich bin eigentlich kein AI/KI Gegner, aber das was uns heutzutage insbesondere vom Marketing und dem Vertrieb heute schon alles als KI/AI angedreht wird, finde ich persönlich einfach nur sehr traurig und vor allem datenschutztechnisch auch sehr sehr grenzwertig. 😔
Gruss Alex
Wirklich? Jedes iPhone oder jeder Apple Rechner mit M-CPU macht das täglich mit vielen Standardprogrammen: Foto, Vorschau, demnächst Mail etc. Alle Apps machen das mit Hilfe der NPU in Apples CPUs. Im Windows 11 Bereich die Copilot-PCs für Backup, Bildbearbeitung, Spiele, Virenscanner etc. Nicht in der Zukunft, sondern jetzt.
das meiste was du gerade aufgezählt hast läuft eben nicht auf einer lokalen NPU, sondern wird in den Rechenzentren der entsprechenden Rechenzentren verarbeitet. Trenn mal bei einem solchen Gerät die Internetverbindung und versuch dann irgendeine KI/AI Funktion zu nutzen, dann siehst du selber ganz schnell, wie sehr die entsprechenden Hersteller heutzutage die lokale NPU wirklich nutzen.
Ich habe nämlich auch so ein KI-Smartphone (S24 Ultra) und sobald ich bei diesem den Flugmodus aktiviere, sind so gut wie alle KI Funktionen nicht mehr verfügbar. 😔
Dasselbe gilt auch für Microsofts Büroklammer-AI.
Und was deren das Recall angeht ... 😱 ... ne, das möchte ich auf meinem Rechner ganz sicher nicht haben.
Um genau zu sein, das darf ich Recall auf meinem Rechner schon rein rechtlich auf keinen Fall benutzen, da ich ständig Remote auf anderen Systemen bin und auch oft mit sehr sensiblen Daten hantiere, die auf keinen Fall in irgend einer Weise aufgezeichnet werden dürfen, weil Geheimhaltungspflicht und oder DSGVO oder ähnliche Dinge.
Das sind alltägliche Dinge, in denen AI schon längst steckt.
Frank, sei mir bitte nicht böse, aber ich kann dieses ganze AI/KI Zeugs, bald nicht mehr hören.
Denn stand heute habe ich, vor allem was "Intelligenz" angeht, noch nichts davon wirklich in irgend einem Gerät gesehen, maschinelles Lernen ja, intelligentes, sprich, selbstständiges lernen jedoch ganz sicher nicht, zumindest nicht nach meinem Verständnis von Intelligenz.
Und was wirklich oft hinter den heutigen KI's steckt, kann man z.B. in dem folgenden Artikel nachlesen ...
https://netzpolitik.org/2024/von-wegen-kuenstliche-intelligenz-indische- ...
... 😔
Sorry, aber wer immer noch glaubt, dass AI nur ein Hype ist oder dass man AI weder braucht noch nutzen wird, der hat den Startschuss nicht gehört.
Also was mich angeht, doch den habe ich schon gehört, ich muss jedoch nicht an jedem Lauf teilnehmen,
da es meiner Ansicht nach aktuell viel dringendere Probleme zu lösen gibt, wie z.B. das mit dem mittlerweile absolut katastrophalem Fachkräftemangel. 😭
Nicht, dass ich das in allen Bereichen gut finde, aber die Welle wird uns alle überrollen.
Das Fell wird aber nur dann nass, wenn man sich unterhalb einer Welle befindet, darüber bleibt es meist etwas trockener. 😉
Und nein, ich bin eigentlich kein AI/KI Gegner, aber das was uns heutzutage insbesondere vom Marketing und dem Vertrieb heute schon alles als KI/AI angedreht wird, finde ich persönlich einfach nur sehr traurig und vor allem datenschutztechnisch auch sehr sehr grenzwertig. 😔
Gruss Alex
Ich glaube, dass das Thema KI eines ist, bei dem ganz viel in einen Topf geworfen wird, so dass es schwer fällt, "propagandistisches" Blendwerk von wirklich interessanten Aspekten zu unterscheiden. Ein weiterer Umstand ist, dass hier der Begriff "KI" in einer gewissen Weise "missbraucht", um auf dem Trittbrett anderer mitzufahren.
Aber lasst uns das einmal sachlich etwas auseinanderdefinieren:
NPU - Das ist eine besondere Recheneinheit, die dazu gedacht ist, spezielle Rechenaufgaben sehr schnell zu erledigen. Das kennen wir ja bereits von speziellen Einheiten für Fließkomma, Verschlüsselung, Grafik etc. Denn wir wissen, dass dann, wenn es solche hartverdrahteten Einheiten nicht gibt, dies durch die Zentraleinheit in der Form der Abarbeitung von Softcode erledigt werden muss. Eine solche Abarbeitung benötigt eben wesentlich mehr Taktzyklen, was in der Natur einer solchen Abarbeitung liegt.
Somit wissen wir auch, was ja @MysticFoxDE bereits ausdrücklich proklamiert hat und was @Frank für bestimmte Anwendungen in Anspruch nimmt, dass eine solche spezielle Einheit nur dann einen Sinn macht, wenn die Software davon hinreichenden Gebrauch macht.
Hierdurch wird klar, dass nicht jede Aufgabe mit einer solchen speziellen Einheit erledigt werden kann, weil nicht jede Aufgabe dazu geeignet bzw. darauf angewiesen ist, eine solche spezielle Einheit zu nutzen.
Diese beiden - wahrlich keine neuen - Erkenntnisse unterstreichen, dass eine NPU im Falle einer Remote-AI kaum eine Rolle spielen wird, weil die eigentliche Rechenleistung remote erfolgt.
Hierdurch steht weiters selbstredend fest, dass eine Anwendung, die die NPU-Einheit nutzt, um so schneller ausgeführt werden könnte, um so mehr Berechnungsdurchläufe diese NPU-Einheit pro Zeiteinheit liefern kann. Das hängt aber nicht allein von der Leistungsfähigkeit dieser NPU-Einheit selbst ab, sondern auch davon, welchen Anteil die NPU-Nutzung an den Gesamtarbeitsschritten dieser Anwendung hat und in welchem Wechselspiel die NPU-Nutzung zu der sonstigen CPU-Nutzung steht.
Diese vier Punkte dürften meinem Verständnis nach gar nicht im Dissens sein.
Was eher im Dissens liegt, ist die Frage, ob es gerechtfertigt ist, etwas als KI zu bezeichnen, obschon es eigentlich eine stinknormale Programmierung ist. Wird diese Bezeichnung schon dann verdient, wenn eine Software, die eigentlich mit eins, zwei, drei mathematischen Formeln die Arbeitsaufgabe sicher und hinreichend erledigen kann, plötzlich mit einem Datenmonster aufgebläht wird, um dann natürlich bei der Verarbeitung ganz viel "Zinnober" zu veranstalten, wobei dieser Zinnober nur dann angemessen abgearbeitet werden kann, wenn eine NPU-Einheit zur Verfügung steht. Ansonsten würde dem bisherigen Nutzer mit diesem Zinnober kein Mehrwert vorgegaukelt werden können, was auf den Umsatz auswirken würde.
Das gilt umso mehr, als bestimmte Arbeitsaufgaben vor zehn Jahren und davor auch schon mit Bravour erledigt wurden, obschon der betreffenden Software von der Werbeabteilung noch nicht das KI-Siegel aufgedrückt wurde. Denn beispielsweise das Herauslösen eines Objekts aus einem Bild war damals schon längst höchst professionell machbar.
Und ich glaube, @MysticFoxDE mit seiner Kritik, die im Wesentlichen auch meine ist, genau dahingehend verstehen zu können.
Zugleich hat @Frank mit seiner positiven Befürwortung nicht völlig Unrecht, weil es durchaus denkbar ist, dass sich gewisse Aufgaben besser erledigen lassen könn(t)en, wenn die Datenbasis erweitert wird und dies folglich umfangreichere Berechnungen erfordert. Unbestreitbar ist daher @Frank insoweit zuzustimmen, dass dann, wenn die App-Anbieter alle auf dieser KI-Welle reiten, wir als Nutzer rein faktisch gezwungen werden, uns die passende Hardware zu besorgen, wollen wir von ungenügender Leistungsfähigkeit nicht frustriert werden.
Viele Grüße
HansDampf06
Aber lasst uns das einmal sachlich etwas auseinanderdefinieren:
NPU - Das ist eine besondere Recheneinheit, die dazu gedacht ist, spezielle Rechenaufgaben sehr schnell zu erledigen. Das kennen wir ja bereits von speziellen Einheiten für Fließkomma, Verschlüsselung, Grafik etc. Denn wir wissen, dass dann, wenn es solche hartverdrahteten Einheiten nicht gibt, dies durch die Zentraleinheit in der Form der Abarbeitung von Softcode erledigt werden muss. Eine solche Abarbeitung benötigt eben wesentlich mehr Taktzyklen, was in der Natur einer solchen Abarbeitung liegt.
Somit wissen wir auch, was ja @MysticFoxDE bereits ausdrücklich proklamiert hat und was @Frank für bestimmte Anwendungen in Anspruch nimmt, dass eine solche spezielle Einheit nur dann einen Sinn macht, wenn die Software davon hinreichenden Gebrauch macht.
Hierdurch wird klar, dass nicht jede Aufgabe mit einer solchen speziellen Einheit erledigt werden kann, weil nicht jede Aufgabe dazu geeignet bzw. darauf angewiesen ist, eine solche spezielle Einheit zu nutzen.
Diese beiden - wahrlich keine neuen - Erkenntnisse unterstreichen, dass eine NPU im Falle einer Remote-AI kaum eine Rolle spielen wird, weil die eigentliche Rechenleistung remote erfolgt.
Hierdurch steht weiters selbstredend fest, dass eine Anwendung, die die NPU-Einheit nutzt, um so schneller ausgeführt werden könnte, um so mehr Berechnungsdurchläufe diese NPU-Einheit pro Zeiteinheit liefern kann. Das hängt aber nicht allein von der Leistungsfähigkeit dieser NPU-Einheit selbst ab, sondern auch davon, welchen Anteil die NPU-Nutzung an den Gesamtarbeitsschritten dieser Anwendung hat und in welchem Wechselspiel die NPU-Nutzung zu der sonstigen CPU-Nutzung steht.
Diese vier Punkte dürften meinem Verständnis nach gar nicht im Dissens sein.
Was eher im Dissens liegt, ist die Frage, ob es gerechtfertigt ist, etwas als KI zu bezeichnen, obschon es eigentlich eine stinknormale Programmierung ist. Wird diese Bezeichnung schon dann verdient, wenn eine Software, die eigentlich mit eins, zwei, drei mathematischen Formeln die Arbeitsaufgabe sicher und hinreichend erledigen kann, plötzlich mit einem Datenmonster aufgebläht wird, um dann natürlich bei der Verarbeitung ganz viel "Zinnober" zu veranstalten, wobei dieser Zinnober nur dann angemessen abgearbeitet werden kann, wenn eine NPU-Einheit zur Verfügung steht. Ansonsten würde dem bisherigen Nutzer mit diesem Zinnober kein Mehrwert vorgegaukelt werden können, was auf den Umsatz auswirken würde.
Das gilt umso mehr, als bestimmte Arbeitsaufgaben vor zehn Jahren und davor auch schon mit Bravour erledigt wurden, obschon der betreffenden Software von der Werbeabteilung noch nicht das KI-Siegel aufgedrückt wurde. Denn beispielsweise das Herauslösen eines Objekts aus einem Bild war damals schon längst höchst professionell machbar.
Und ich glaube, @MysticFoxDE mit seiner Kritik, die im Wesentlichen auch meine ist, genau dahingehend verstehen zu können.
Zugleich hat @Frank mit seiner positiven Befürwortung nicht völlig Unrecht, weil es durchaus denkbar ist, dass sich gewisse Aufgaben besser erledigen lassen könn(t)en, wenn die Datenbasis erweitert wird und dies folglich umfangreichere Berechnungen erfordert. Unbestreitbar ist daher @Frank insoweit zuzustimmen, dass dann, wenn die App-Anbieter alle auf dieser KI-Welle reiten, wir als Nutzer rein faktisch gezwungen werden, uns die passende Hardware zu besorgen, wollen wir von ungenügender Leistungsfähigkeit nicht frustriert werden.
Viele Grüße
HansDampf06
Zitat von @HansDampf06:
Das gilt umso mehr, als bestimmte Arbeitsaufgaben vor zehn Jahren und davor auch schon mit Bravour erledigt wurden, obschon der betreffenden Software von der Werbeabteilung noch nicht das KI-Siegel aufgedrückt wurde. Denn beispielsweise das Herauslösen eines Objekts aus einem Bild war damals schon längst höchst professionell machbar.
Das gilt umso mehr, als bestimmte Arbeitsaufgaben vor zehn Jahren und davor auch schon mit Bravour erledigt wurden, obschon der betreffenden Software von der Werbeabteilung noch nicht das KI-Siegel aufgedrückt wurde. Denn beispielsweise das Herauslösen eines Objekts aus einem Bild war damals schon längst höchst professionell machbar.
Manche dieser "KI"-Aufgaben konnte man schon mit einem Z80 oder 6502 schon lösen, wenn auch nicht so schnell und "elegant" wie heute..
lks
Moin @HansDampf06,
ja, unsere Kristallkugeln scheinen diesbezüglich wohl sehr synchron zu laufen. 😁
Ich möchte auch keineswegs abstreiten, dass NPU's für bestimmte Dinge durchaus effizienter sind, aber ...
... wenn ich mir anschaue, wofür z.B. Microsoft eine NPU in ihrem aktuellen Windows benutzt ...
https://support.microsoft.com/de-de/windows/all-about-neural-processing- ...
...
https://www.microsoft.com/de-de/windows/copilot-plus-pcs?r=1#npu
... also, für Recall, Cocreator, Liveuntertitel, Studioeffekte, muss ich mich schon auch fragen,
ob Microsoft es tatsächlich bewusst ist, wofür deren Windows von Millionen von Businessanwendern tatsächlich Tag für Tag verwendet wird. 😔
Ich finde aktuell auch keine einzige Ankündigung eines AV-Herstellers, dass dessen Produkte in naher Zukunft eine NPU benutzen würden, auch nicht der Defender von Microsoft.
Daher, solange es für die breite Masse keine wirklich sinnvollen/nützlichen AI/KI Anwendungen gibt, die die lokale NPU nutzen, sehe ich auch keinen Grund aktuell in einen Business-Rechner zwangsweise auch eine NPU einzubauen. Denn wenn die nützlichen Anwendungen wirklich mal soweit sind, bin ich mir sehr sicher, dass die heutigen NPU's dafür dann eh zu unterdimensioniert sind.
Ausserdem gibt es schon jetzt Anzeichen dafür, dass die heutigen AI/KI Modele, mit zunehmendem Alter eher schlechter als besser werden ...
https://www.telepolis.de/features/Was-passiert-wenn-Sie-eine-KI-mit-KI-D ...
https://1e9.community/t/werden-chatgpt-und-co-an-digitalem-rinderwahn-er ...
... weil sie anfangen sich selbst mit den eigenen, zum Teil sehr vergrüzzten Inhalten zu trainieren. 🙃
---
By the way, informiert euch mal darüber wie NPU's, respektive, KI's/AI's schon heute in der Überwachungsbranche und auch beim Militär verwendet werden. 😔
Für den Anfang mal eher was Lustiges ...
https://the-decoder.de/china-oeffentliches-schlafanzug-shaming-dank-gesi ...
... und spätestens ab hier ...
https://www.project-syndicate.org/commentary/china-exports-ai-surveillan ...
https://www.youtube.com/watch?v=OpLLyyqkue4
... ist es glaube ich nicht mehr ganz so lustig. 😔
Gruss Alex
Und ich glaube, @MysticFoxDE mit seiner Kritik, die im Wesentlichen auch meine ist, genau dahingehend verstehen zu können.
ja, unsere Kristallkugeln scheinen diesbezüglich wohl sehr synchron zu laufen. 😁
Zugleich hat @Frank mit seiner positiven Befürwortung nicht völlig Unrecht, weil es durchaus denkbar ist, dass sich gewisse Aufgaben besser erledigen lassen könn(t)en, wenn die Datenbasis erweitert wird und dies folglich umfangreichere Berechnungen erfordert.
Ich möchte auch keineswegs abstreiten, dass NPU's für bestimmte Dinge durchaus effizienter sind, aber ...
Unbestreitbar ist daher @Frank insoweit zuzustimmen, dass dann, wenn die App-Anbieter alle auf dieser KI-Welle reiten, wir als Nutzer rein faktisch gezwungen werden, uns die passende Hardware zu besorgen, wollen wir von ungenügender Leistungsfähigkeit nicht frustriert werden.
... wenn ich mir anschaue, wofür z.B. Microsoft eine NPU in ihrem aktuellen Windows benutzt ...
https://support.microsoft.com/de-de/windows/all-about-neural-processing- ...
"It provides lightning-fast, high-bandwidth AI in real time—a great advantage for using voice commands, creating images quickly, and more."
...
https://www.microsoft.com/de-de/windows/copilot-plus-pcs?r=1#npu
... also, für Recall, Cocreator, Liveuntertitel, Studioeffekte, muss ich mich schon auch fragen,
ob Microsoft es tatsächlich bewusst ist, wofür deren Windows von Millionen von Businessanwendern tatsächlich Tag für Tag verwendet wird. 😔
Ich finde aktuell auch keine einzige Ankündigung eines AV-Herstellers, dass dessen Produkte in naher Zukunft eine NPU benutzen würden, auch nicht der Defender von Microsoft.
Daher, solange es für die breite Masse keine wirklich sinnvollen/nützlichen AI/KI Anwendungen gibt, die die lokale NPU nutzen, sehe ich auch keinen Grund aktuell in einen Business-Rechner zwangsweise auch eine NPU einzubauen. Denn wenn die nützlichen Anwendungen wirklich mal soweit sind, bin ich mir sehr sicher, dass die heutigen NPU's dafür dann eh zu unterdimensioniert sind.
Ausserdem gibt es schon jetzt Anzeichen dafür, dass die heutigen AI/KI Modele, mit zunehmendem Alter eher schlechter als besser werden ...
https://www.telepolis.de/features/Was-passiert-wenn-Sie-eine-KI-mit-KI-D ...
https://1e9.community/t/werden-chatgpt-und-co-an-digitalem-rinderwahn-er ...
... weil sie anfangen sich selbst mit den eigenen, zum Teil sehr vergrüzzten Inhalten zu trainieren. 🙃
---
By the way, informiert euch mal darüber wie NPU's, respektive, KI's/AI's schon heute in der Überwachungsbranche und auch beim Militär verwendet werden. 😔
Für den Anfang mal eher was Lustiges ...
https://the-decoder.de/china-oeffentliches-schlafanzug-shaming-dank-gesi ...
"Der Pyjama-Fall sei ein Beispiel dafür, was passiere, wenn leistungsfähige Technologie in die Hände von unqualifizierten, dummen Bürokraten gerate."
... und spätestens ab hier ...
https://www.project-syndicate.org/commentary/china-exports-ai-surveillan ...
https://www.youtube.com/watch?v=OpLLyyqkue4
... ist es glaube ich nicht mehr ganz so lustig. 😔
Gruss Alex
Moin @Frank,
ich habe mir soeben alle Links durchgesehen und sehe bei keiner einzigen Lösung die Nutzung einer lokalen NPU. Im Gegenteil, bei vielen Produkten ist deutlich zu erkennen, dass diese auf Cloud-KI/AI Diensten basieren.
Und warum holst du dir dann nicht einfach eine entsprechende GPU?
Denn eine NVIDIA RTX 4090, leistet schon bis zu 1321 TOPS. 😉
Ja, damit hast du natürlich absolut Recht.
Ich wollte dennoch auch mal die Schattenseiten der AI/KI Geschichte erwähnen, weil sowas leider gerne auch mal übersehen wird. 😔
Gruss Alex
Dann hast du etwas verpasst:
Natürlich ist jede Software auch ohne NPU nutzbar, dann aber um ein Vielfaches langsamer. Die Anwender wundern sich doch immer, warum nach der Installation der Antivirensoftware alles so langsam läuft
- Diese Google-KI erkennt Malware so gut wie ein Sicherheitsexperte
- How AI is shaping malware analysis
- Die 10 besten KI-Cybersicherheitstools (Oktober 2024)
- McAfee - KI und Bedrohungserkennung: Was steckt dahinter und wie funktioniert es?
- Avast - Cyberangriffe lassen sich ohne KI-basierte Maschinen nicht mehr bekämpfen
- Bitdefender Scam Copilot im Test: Antivirus-Programm mit neuem KI-Feature
- beliebig fortsetzbar ...
Natürlich ist jede Software auch ohne NPU nutzbar, dann aber um ein Vielfaches langsamer. Die Anwender wundern sich doch immer, warum nach der Installation der Antivirensoftware alles so langsam läuft
ich habe mir soeben alle Links durchgesehen und sehe bei keiner einzigen Lösung die Nutzung einer lokalen NPU. Im Gegenteil, bei vielen Produkten ist deutlich zu erkennen, dass diese auf Cloud-KI/AI Diensten basieren.
Mein aktuelles und persönliches Beispiel sind die JetBrains IDEs. Diese bieten bereits eine interne lokale KI an. Wenn eine NPU vorhanden ist, läuft das super, ohne musste ich einige Funktionen abschalten, weil das System sonst zu langsam wurde. Das ist sehr ärgerlich, da die neuen KI-Funktionen bei der Entwicklung sehr hilfreich sind. Daher werde ich mir als nächstes entweder die neue AMD Ryzen AI 300 Serie mit 50 TOPS NPU oder einen neuen Mac mit M4 (oder beides) kaufen.
Und warum holst du dir dann nicht einfach eine entsprechende GPU?
Denn eine NVIDIA RTX 4090, leistet schon bis zu 1321 TOPS. 😉
Ich glaube nicht, dass der Beitrag jetzt alle Vor- und Nachteile von KI abarbeiten kann oder sollte.
Ja, damit hast du natürlich absolut Recht.
Ich wollte dennoch auch mal die Schattenseiten der AI/KI Geschichte erwähnen, weil sowas leider gerne auch mal übersehen wird. 😔
Gruss Alex