frank
Goto Top

Intel hat es wieder verbockt: Core Ultra 200S

Auf vielen Hardware-Seiten lese ich derzeit die Neuankündigung der Intel Core Ultra 200S CPU mit dem Codenamen Arrow Lake-S. Das neueste Werk von Intel soll der größte Schritt im Desktop-Umfeld seit Jahren sein. Ich sehe das anders.

back-to-topImmer diese Benchmarks


In den Berichten finden sich zahlreiche Benchmarks zu Anwendungen und Spielen, kleinste Verbesserungen im Megahertz-Bereich und bei der RAM-Geschwindigkeit, gefühlte tausend neue Schnittstellen, neuer Chipsatz etc. Alles Daten, die für den normalen Anwender eher langweilig sind. Ein Beispiel: Er kann mit DDR5-6400 umgehen, DDR5-5600 bleibt aber vorerst Standard, er unterstützt ECC RAM, das aber wohl nie den Weg auf den Desktop finden wird (ist eher was für Xeon CPUs). Findet ihr das auch so spannend wie ich?

Oder die Ankündigung, dass die CPU endlich Thunderbolt 4 unterstützt. In einigen Beiträgen ist von einem Novum im Desktop-Bereich die Rede. Ob die Redakteure wissen, dass Thunderbolt 4 bereits für 2020 angekündigt war? Oder dass die Übertragungsgeschwindigkeit mit 40 Gbit/s die gleiche ist wie bei Thunderbolt 3? Generell gibt es natürlich Vorteile zwischen den beiden Generationen, aber das als wichtiges Feature zu verkaufen? Aber ich will Euch nicht weiter mit unwichtigen Details langweilen.

Bemerkenswert ist die Detailverliebtheit, mit der über noch so kleine und für den Normalverbraucher eher unwichtige Neuerungen berichtet wird. Die Redakteure stürzen sich wirklich auf alles, was ihnen die Presseabteilung von Intel zum Fraß vorwirft.

Trotzdem lese ich die Beiträge über die vielen Neuerungen und Details.

Manches ist interessant, aber langsam habe ich das Gefühl, dass diese Neuerungen gar nicht so neu sind. Viele Features kenne ich schon von den Vorgängerarchitekturen wie dem 3 Jahre alten Raptor Lake oder dem direkten Vorgänger Meteor Lake.

Irgendwann komme ich an einen Punkt, der mich stutzig macht:

In den meisten Beiträgen ist die Rede von: Single-Core-Performance, Multi-Core-Performance und Gaming-Performance. Aber etwas fehlt in der Aufzählung, etwas, das unsere IT gerade komplett verändert: Die AI-Performance.

back-to-topWo ist die NPU für die AI?


Für alle, die sich fragen, was das ist: Eine NPU (Neural Processing Unit) ist ein spezialisierter Prozessor, der für AI-Anwendungen und maschinelles Lernen optimiert ist.

Viele Anwender glauben, dass eine leistungsfähige Grafikkarte (GPU) die Aufgaben einer Neural Processing Unit (NPU) übernehmen kann. Dies trifft jedoch nur bedingt zu. Zwar glänzen GPUs bei der Parallelverarbeitung, doch sind sie für KI-spezifische Operationen weniger optimiert als NPUs. Der entscheidende Unterschied liegt in der Energieeffizienz: NPUs führen KI-Berechnungen bei einem Bruchteil des Stromverbrauchs einer GPU durch. Genau diese Spezialisierung und Effizienz machen NPUs unverzichtbar für moderne KI-Anwendungen, besonders wenn es um lokale Verarbeitung auf Endgeräten geht. Sie ermöglichen leistungsfähige KI-Funktionen bei gleichzeitig geringem Energieverbrauch - eine Kombination, die GPUs in dieser Form nicht bieten können.

Kürzlich hat beispielsweise Microsoft 40 TOPS NPU-Leistung (Trillion Operations Per Second) als Minimum für seinen Copilot+ PC festgelegt. Apple verbaut in seinem M4 etwa 38 TOPS und legt mit iOS 18 den Grundstein für viele neue AI-Funktionen.

Irgendwann habe ich dann in der offiziellen Präsentation von Intel ganz weit hinten doch noch ein paar Details zur der NPU gefunden: Intels brandneue Core Ultra 200S CPU kann ganze 13 TOPS verarbeiten. Dennoch bewirbt Intel seine CPU mit dem Slogan "AI everywhere".

Damit liegt sie deutlich unter den Vorgaben von Microsoft und sogar unter dem Niveau des iPhone 14 von vor zwei Jahren (17 TOPS). Dies könnte auch ein Grund dafür sein, dass Microsoft sich entschieden hat, Intel-Prozessoren vollständig aus seinem Surface-Produktangebot zu entfernen. Stattdessen setzt das Unternehmen nun durchgängig auf die ARM-basierte Qualcomm Snapdragon X CPU, deren NPU eine Leistung von 45 TOPS bietet.

Nun werden einige sagen, dass der aktuelle Ryzen 9000 von AMD ganz ohne NPU auskommt. Das ist richtig, aber der Nachfolger steht schon in den Startlöchern: Die Ryzen AI 300 Serie ("Strix Point") wird laut AMD mindestens 50 TOPS unterstützen. Was AMD daraus macht, bleibt abzuwarten. Jetzt, wo die Katze aus dem Sack ist, kann ich mir gut vorstellen, dass sich AMD die Hände reibt und weiß, was zu tun ist.

Warum Intel nur 13 TOPS anbietet, steht dann auch in der Pressemitteilung. Dort erklärt Intel überraschend deutlich, dass bewusst keine größeren NPUs verbaut werden, da auf dem Desktop zunächst die Leistung pro CPU-Kern wichtiger sei und man dafür keinen Platz verschenken wolle (auf der IFA 2024 Ende August klang das von Intel noch ganz anders).

back-to-topDie neue Realität


Eine neue Technologie und Software, die den Alltag immer mehr verändert bzw. bestimmt, wird nicht verbaut, weil Intel sie für nicht wichtig genug hält?

Das ist in der Tat etwas unverständlich, da Intel mit dem Core Ultra 200V im Ultra Mobile Bereich bereits eine NPU mit 48 TOPS im Portfolio hat. Abgesehen von der Mobilität sehe ich keinen großen Unterschied zwischen einem Notebook und einem Desktop.

Meiner Meinung nach geht Intel damit völlig an der Realität vorbei. Ein Beispiel: Letzte Woche gab es ein Update einer bekannten Entwickler-IDE, die nun eine lokale AI laufen lässt, damit diese den Code für den Anwender besser und automatisch vervollständigen kann. Ohne NPU ist das kaum möglich.

Schauen wir uns allgemeine Software an, bei der man nicht direkt an AI denkt: Moderne Antiviren-Softwarelösungen setzen auf lokale AI-Funktionen, um Bedrohungen besser erkennen zu können. Auch moderne Bildbearbeitungssoftware oder Übersetzungsprogramme nutzen bereits lokale AI-Funktionen. Und so weiter.

back-to-topReduzierte Grafikunterstützung und kein Hyper-Threading mehr


Ähnlich katastrophal sieht es bei der Grafikunterstützung des Core Ultra 200S aus. Diese ist auf dem Niveau des Vorgängers und wirklich nur für den Desktop nutzbar. Dass es auch anders geht, hatte Intel eigentlich mit dem Ultra-Mobile Core Ultra 200V bzw. Core Ultra 200H gezeigt, wo eine schnelle interne Grafik verbaut war (8 Kerne „Xe2" bzw. 8 Kerne „Xe XMX"). Der neue Core Ultra 200S hat nur 4 Kerne der „Xe"-Generation des Vorgängers. Was für eine Enttäuschung.

Intel empfiehlt den Einbau einer separaten Grafikkarte. Aber nicht jeder, schon gar nicht die Firmen, werden in jeden Desktop für ihre Mitarbeiter eine separate Grafikkarte einbauen. Das wird die Minderheit sein. Vielleicht sollte Intel noch einmal über seine Zielgruppe bei Desktops nachdenken.

Fraglich ist auch, warum die neue CPU im Gegensatz zu AMD-Produkten kein Hyper-Threading mehr unterstützt.

back-to-topAI, eine grundlegende Schlüsseltechnologie


Zusammenfassend haben wir mit AI eine grundlegend neue Schlüsseltechnologie, die mit hoher Wahrscheinlichkeit den Markt, die Programme und das Leben in den nächsten Jahren komplett verändern wird.

Und welche NPU ist dafür zu klein und zu leistungsschwach: Intels brandneue Core Ultra 200S CPU. Glückwunsch an Intel.

Damit sind die neuen AI Features von Microsoft schon mal außen vor und ob die Leistung von 13 TOPS für kleine lokale AI Software ausreicht, wird sich zeigen. Microsoft und Apple glauben das jedenfalls nicht.

Angesichts dieser Situation stellt sich die Frage: Ist es für Privatpersonen oder Unternehmen ratsam, in einen Rechner mit der neuen Core Ultra 200S CPU zu investieren, wenn diese absehbar nur eingeschränkte Zukunftstechnologien unterstützt und der Hersteller die Bedeutung der AI-Unterstützung unterschätzt?

An wen richtet sich diese CPU? Richtet sie sich in erster Linie an Hardcore-Gamer, die wenig Interesse an zukünftigen KI-Entwicklungen haben? Auch in diesem Bereich könnte sich früher oder später herausstellen, dass beispielsweise ein Virenscanner mit lokaler KI-Funktionalität ohne NPU deutlich langsamer arbeitet.

back-to-topEtwas Positives


Damit ich auch etwas Positives schreiben kann, muss man der neuen CPU zugute halten, dass sie endlich stromsparend arbeitet. Das kann die Konkurrenz zwar schon länger, aber nach dem letzten instabilen Core-Prozessor-Desaster war das irgendwie wichtig.

back-to-topEin Flop


Für mich persönlich ist die neue CPU ein Flop, zu wenig NPU-Leistung, zu wenig Interesse von Intel an neuen Möglichkeiten. Entweder haben sie es technisch nicht hinbekommen oder sie sollten ihre Marketingabteilung überdenken. Wie kann man eine CPU so am Markt vorbei entwickeln? Apple, Microsoft, ARM und Co. haben das doch auch erkannt. Intel sieht den Wald vor lauter Bäumen nicht mehr und hat zu lange an alten Mustern festgehalten.

"AI everywhere" sollte sich anders anfühlen.

back-to-topP.S.


An all die Hardware-Seiten und Redakteure, denen es nicht mehr auffällt, Intel-Pressemitteilungen unkritisch zu übernehmen oder sich in technischen Details zu verlieren. Man darf auch große Firmen wie Intel und ihre Produkte kritisch hinterfragen. Ja, eine kritische Haltung könnte den bevorzugten Zugang zu künftigen Produktvorstellungen gefährden. Doch ist das wichtiger als die journalistische Integrität?

Lasst uns mutig sein und ganzheitlich über Technologie berichten – unabhängig von möglichen Konsequenzen. Nur so bieten wir den Lesern echten Mehrwert.

NPU und AI sind neue wichtige Schlüsseltechnologien und wer nicht dabei ist, verpasst den Anschluss. Disruption macht auch vor ehemals großen Technologiekonzernen nicht halt.

Gruß
Frank

P.S. Wer will kann den Beitrag auch über Medium.com lesen

Content-ID: 668722

Url: https://administrator.de/contentid/668722

Ausgedruckt am: 16.10.2024 um 00:10 Uhr

Ted555
Ted555 12.10.2024 aktualisiert um 10:12:01 Uhr
Goto Top
Das 200 und S erinnert mich an eine Automarke 🤪. Intel ist inzwischen das Mercedes der IT Branche, man verkauft den Leuten alten Ramsch in neuem Gewand, baut dafür Dinge aus um sie dann später wieder als neue Features zurück zu bringen, und dann auch noch teurer zu verkaufen.
Lochkartenstanzer
Lochkartenstanzer 12.10.2024 aktualisiert um 09:04:27 Uhr
Goto Top
Zitat von @Frank:

NPU und AI sind neue wichtige Technologien und wer nicht dabei ist, verpasst den Anschluss. Disruption macht auch vor ehemals großen Technologiekonzernen nicht halt.


Du meinst Marketing-Hypes oder einfach gesagt, die aktuelle Sau, die gerade durchs Dorf getrieben wird.

Daß die Redakteure alle momentan "begeistert" schreiben ist auch nichts neues, die müssen "News" generieren, weil ansonsten die Auflagen/Klickraten zurückgehen. Man muß halt die Artikel halt entsprechend "filtern" und das für einen selbst wichtige herauslesen.

lks

PS: Kleine Schritte sind manchmal für die Entwicklung besser als ein großer Sprung. face-smile
MysticFoxDE
MysticFoxDE 12.10.2024 aktualisiert um 09:03:07 Uhr
Goto Top
Moin @Frank,

ich lese schon lange nicht mehr genau was der Vertrieb oder das Marketing über irgendwelche Technik schreibt und oder was die Redakteure dann davon abkupfern, weil das meiner Ansicht und Erfahrung nach, heutzutage leider meist nur noch oberflächliches Blink-Blink-Blabla ist.

Daher schaue ich mir die Daten für z.B. die Intel CPU's meist über Ark an ...

https://ark.intel.com/content/www/us/en/ark/products/series/241071/intel ...

... denn dort sind nur die technischen Details aufgelistet und zwar meist ohne jegliches Marketing- oder Vertriebs-Blabla, was für meiner Person zumindest, sehr nervenschonend ist.


Fraglich ist auch, warum die neue CPU im Gegensatz zu AMD-Produkten kein Hyper-Threading mehr unterstützt.

Das kann ich dir verraten und zwar haben die neuen Intel-CPU's durch die Bank nun auch E-Cores verbaut, die deutlich mehr Leistung bringen, wie jeder zusätzliche Scheduler eines P-Kerns.

Ich habe schon vor längerem mit den 12000er einen ausführlichen Test gemacht, bei dem ich z.B. die Verarbeitung der Netzwerkkarten-Daten fix auf die E-Kerne umgebogen habe, die mit dieser Arbeit übrigens fast genau so gut zurecht gekommen sind wie die P-Kerne. Das hatte zu folge, das die Performance der potenteren P-Kerne, dann auch überwiegend den lokal laufenden Anwendungen zur Verfügung stand und nicht mehr durch die NIC's mit aufgefressen wurde.

Leider muss man um sowas zu erreichen, sprich um die Vorteile der neuen CPU's auch richtig auszunutzen, auch selber viel Hand anlegen, weil Windows das selbst leider nicht wirklich gut auf die Reihe bekommt und der Pinguin ist da sicherlich auch nicht viel besser. 😔

Zusammenfassend haben wir mit AI eine grundlegend neue Schlüsseltechnologie, die mit hoher Wahrscheinlichkeit den Markt, die Programme und das Leben in den nächsten Jahren komplett verändern wird.

Momentan sehe ich davon noch gar nichts, im Gegenteil, das was ich bisher von KI gesehen habe, hatte mit Intelligenz meistens nicht wirklich viel zu tun.

Ich habe erst dem Letzt die Freude gehabt ein quasi durch KI sich selbst optimierendes SAN, sprich, ein HPE Alletra MP zu testen. Na ja, die Freude bestand ehrlich gesagt eher darin, zu sehen wie es von einem anderen, mehr als 6 Jahre alten AllFlash SAN, bei den meisten Testdisziplinen dem Erdboden gleich gemacht wurde. 🙃

Damit sind die neuen AI Features von Microsoft schon mal außen vor und ob die Leistung von 13 TOPS für kleine lokale AI Software ausreicht, wird sich zeigen. Microsoft und Apple glauben das jedenfalls nicht.

Frank, bist du dir wirklich sicher, dass du die neunen AI-Features, insbesondere die von MS, auch wirklich haben/aktivieren möchtest?

NPU und AI sind neue wichtige Schlüsseltechnologien und wer nicht dabei ist, verpasst den Anschluss. Disruption macht auch vor ehemals großen Technologiekonzernen nicht halt.

Ich persönlich sehe die Sache eher wie Elliott.
https://www.investmentweek.com/elliott-management-warnt-vor-ai-blase-ske ...

Gruss Alex
Frank
Frank 12.10.2024 aktualisiert um 14:26:22 Uhr
Goto Top
Du meinst Marketing-Hypes oder einfach gesagt, die aktuelle Sau, die gerade durchs Dorf getrieben wird.

Natürlich gibt es derzeit einen Hype, wie bei jeder neuen Technologie. Aber ich bin fest davon überzeugt, dass AI bleiben wird. Wenn man über den Tellerrand schaut, ist AI schon überall angekommen: In der Biotechnologie, in der Medikamentenentwicklung, der Automobilindustrie, in der Softwareindustrie und so weiter. Die größten Technologieunternehmen investieren Milliarden in AI. Microsoft kauft alte Atomkraftwerke nur für sein AI-Rechenzentrum und macht sie wieder funktionsfähig. Das sind Anzeichen dafür, dass AI unser Leben in Zukunft komplett verändern und hoffentlich verbessern wird. Natürlich gibt es auch Gefahren, wie bei jeder neuen Technologie.

Ich selbst merke das bereits in meinem Alltag: In meiner Entwicklungsumgebung gibt es zwei AI-Einheiten, eine, mit der ich über Fehler sprechen kann und die meinen geschriebenen Code optimiert, und eine zweite, die lokal im Hintergrund läuft und detaillierte Vervollständigungspläne erstellt, während ich meinen Code eingebe. Beide sind sehr nützlich und ich möchte sie nicht mehr missen. Beides sind Large Language Models (LLMs) ähnlich ChatGPT.

AI bedeutet aber nicht nur ChatGPT. AI ist in verschiedenen Formen bereits fester Bestandteil vieler Softwareprogramme, ohne dass der Benutzer dies bemerkt.

Frank, bist du dir wirklich sicher, dass du die neunen AI-Features, insbesondere die von MS, auch wirklich haben/aktivieren möchtest?

Natürlich will ich nicht jedes neue AI-Feature. Ob die von Microsoft sinnvoll und sicher sind, kann ich nicht sagen. Ich arbeite nur mit Mac und Linux. Aber wie immer bei Software kann man sich aussuchen, was man benutzt.

Generell wünsche ich mir vor allem lokale AIs, anstatt alles über das Internet zu machen. Auf diese Weise bleibt der Schutz personenbezogener Daten in der Regel gewahrt. Aber das geht in Zukunft nur, wenn die CPU auch eine NPU hat. Das wird sonst ein Henne-Ei-Problem.

Ich will mir keinen Rechner mit einer brandneuen CPU kaufen, wo ich von vornherein weiß, dass die neueste Technologie nur gebremst und schwach darauf läuft. Die neuen Intel CPUs fallen also aus dem Raster.

Warum die ganzen Hardwareseiten diese Kritik nicht aufgreifen, ist mir ein Rätsel. Alle anderen Hersteller haben leistungsfähige NPUs eingebaut, Intel nicht. Einige Webseiten schreiben überhaupt nichts über die NPU, als ob sie nicht wichtig wäre. Jeder vernünftige Redakteur müsste das erkennen und Intel dafür kritisieren. Man kann doch nicht schreiben, dass die neue CPU ein Hit ist. Dann hat man die letzten zwei Jahre AI Entwicklung wohl verschlafen.

Momentan sehe ich davon noch gar nichts, im Gegenteil, das was ich bisher von AI gesehen habe, hatte mit Intelligenz meistens nicht wirklich viel zu tun.

Ich glaube, du vergleichst die menschliche Intelligenz zu sehr mit der künstlichen Intelligenz. Die Ergebnisse, die heute aus der AI kommen, sind nicht vorberechnet, sie sind das Ergebnis einer Wahrscheinlichkeitsrechnung, die sich immer mehr an 100% annähert. Derzeit liegen wir bei ca. 90% Genauigkeit je nach Aufgabe und Modell. Genau das ist aus meiner und der wissenschaftlichen Sicht künstliche Intelligenz. Das interne Konzept der neuronalen Netze ähnelt dem menschlichen, ist aber ein künstlicher Nachbau. Sie funktionieren auf einer viel abstrakteren Ebene als biologische Neuronen. Die Ergebnisse sind aber schon erstaunlich gut und meistens richtig. Und sie werden mit jeder Generation genauer. Aktuell hat die AI aber noch Schwierigkeiten mit Transferlernen oder echtem Verständnis im menschlichen Sinne.

Ich wollte jetzt auch nicht auf die AI selbst eingehen, das können wir gerne in einem eigenen Beitrag machen. Für Nutzer der kommenden Intel CPU spielt sie eh keine große Rolle 😈

Gruß
Frank
HansDampf06
HansDampf06 12.10.2024 um 17:40:21 Uhr
Goto Top
Zitat von @Frank:
... vergleichst die menschliche Intelligenz ... mit der künstlichen Intelligenz
@Lochkartenstanzer und @MysticFoxDE haben insoweit mit ihren Zweifeln Recht, weil in der "Propaganda", die uns tagtäglich umschwirrt, genau eine solche Gleichsetzung suggeriert wird / werden soll. Und ich wage zu behaupten, dass viele das ganz unbedarft so verstehen: eine Art neue Wunder-/Zaubertechnologie, die plötzlich allmächtig daherkommt und dann wohl auch Berge versetzen kann.

Die Ergebnisse, die heute aus der AI kommen, sind nicht vorberechnet
Das erscheint mir ein großer Trugschluss zu sein, insbesondere wenn diese
das Ergebnis einer Wahrscheinlichkeitsrechnung, die sich immer mer an 100% annähert
sein sollen, wie Du ausführst. Wahrscheinlichkeitsrechnung ist pure Mathematik und Rechenleistung auf der Grundlage einer mehr oder weniger großen Datenbasis (z.B. Gauß lässt grüßen).
Genau das ist aus meiner und der wissenschaftlichen Sicht künstliche Intelligenz
Also bei sachgerechter Betrachtung unter dem Strich nichts anderes als ein BerechnungsALGORITHMUS. Und deswegen stimmt die Aussage
ein künstlicher Nachbau. Sie funktionieren auf einer viel abstrakteren Ebene als biologische Neuronen
weil es die mathematische Abstraktheit der Wahrscheinlichkeitsrechnung ist und bleibt.

Aktuell hat die AI aber noch Schwierigkeiten mit Transferlernen oder echtem Verständnis im menschlichen Sinne.
Das verwundert auch nicht, weil das nämlich ECHTE WISSENSVERARBEITUNG wäre und nicht nur ein mit mathematischen Wahrscheinlichkeitsformeln vollgestopfter Algorithmus. Und den springenden Punkt der menschlichen Neuronen, nämlich erworbenes Wissen auf ganz andere Anwendungsfälle adaptieren zu können, lässt sich eben wohl eher nicht (allein) mit Wahrscheinlichkeitsrechnung abbilden, wenn überhaupt mit mathematischen Formeln. Jedenfalls gibt es heutzutage in dieser Hinsicht noch keinen formelbasierten Durchbruch, um dies edv-technisch abbilden zu können.

Und wenn ich mir vor diesem Hintergrund die TOPS-Fähigkeiten/-Anforderungen auf der Zunge zergehen lasse, unterstreicht das, was Wahrscheinlichkeitsrechnung ist und bleiben wird: Abarbeitung eines mehr oder weniger komplexen Algorithmus. Dann stellt sich in der Tat die berechtigte Frage, die Du schon aufgeworfen hast: Wer ist betreffend die neue CPU die avisierte Zielgruppe aus Sicht von Intel oder handelt es sich vielleicht "nur" um ein "Zwischenprodukt", dass dem Verlust von Marktanteilen für eine bestimmte Dauer entgegenwirken soll, um in der Zwischenzeit den verlorenen Anschluss mit einem dann besseren Produkt wieder ausbügeln zu können. Wir wissen es nicht. Die vielen kritikfreien Lobeshymnen dienen jedenfalls erkennbar der zielgerichteten Marktbearbeitung zugunsten von Intel und der Ankurbelung seines Umsatzes - irgendwie eine Win-Win-Situation für Intel und die Redakteure gleichermaßen. Fakt ist und bleibt aber, dass möglicherweise der Ottonormalbürger auch dann mit einer solchen CPU durchaus ganz gut bedient sein könnte, wenn für ihn die AI-TOPS etwas weniger perfomant sind. Die von ihm verwendete Software muss das ja aus seiner Anwendersicht auch leistungskritisch ausschöpfen können. Und genau das ist das große Fragezeichen.

Überdiese sollte man in dieser Hinsicht im Hinterkopf behalten: Die IT-Industrie betreibt seit Jahrzehnten ein Ping-Pong-Spiel, um immer wieder zu einem kurzfristigen Austausch der Hard- und/oder Softwarebasis zu animieren, weil das Vorhandene angeblich nicht mehr ausreichend sein soll.

Viele Grüße
HansDampf06
ukulele-7
ukulele-7 14.10.2024 um 08:56:15 Uhr
Goto Top
Also mal ganz abgesehen von der Frage wie tiefgreifend AI wirklich ein sinnvoller Bestandteil unseres Alltags wird oder werden kann muss ich gestehen das ich noch nie eine Software-Funktion kennen gelernt habe die auf dem Client AI Berechnungen durchführt. Ich sage nicht, das es sowas nicht gibt oder geben wird aber was war denn vor AI der Hype? - Die Cloud - SaaS um genau zu sein. Bei Virenscannern mag es vielleicht sinnvolle Ansätze geben Dinge lokal schneller zu analysieren aber dieser Ansatz lokal ist doch irgendwie völlig abhanden gekommen. Viele Sicherheitsanbieter haben die Analyse auch eher in der Cloud laufen, allein schon weil es dort Big Data über viele Kunden gibt.

Also ja, AI im Desktop kann vielleicht irgendwem nutzen aber ich bin auch eher skeptisch was den Nutzen angeht. Vielleicht wird ja die Civilization KI endlich besser face-smile

PS: Ich erinnere mich an dieses Video:
https://www.youtube.com/watch?v=nJQulJ_gBjo
Um Minute 13 herum wird auch von Intel mit einer Desktop AI Strategie geworben.