Setzt ihr Chat GPT oder ähnliche Tools in eurem Admin-Alltag ein?
Moin zusammen,
mich würde mal interessieren, wie ihr aktuell mit Chat GPT & Co. in eurem IT-Alltag umgeht.
Ich arbeite selbst als Admin in einer mittelgroßen Umgebung (hauptsächlich Windows, etwas Linux, viel AD, Office 365 etc.), und ehrlich gesagt habe ich Chat GPT mittlerweile ziemlich häufig im Einsatz. Zum Beispiel:
Beim schnellen Schreiben von PowerShell-Skripten oder um sich an selten genutzte Befehle zu erinnern
Beim Erklären von Registry-Einträgen, die ich so auf die Schnelle nicht einordnen konnte
Oder auch mal zum Formulieren von Mails an Benutzer (die höflich sein sollen, auch wenn man gerade zum dritten Mal dieselbe Frage beantwortet 😅)
Natürlich verlasse ich mich nicht blind drauf, aber oft spart es einfach Zeit. Ich sehe es als eine Art "Junior Admin", der immer verfügbar ist.
Jetzt frage ich mich:
Wie ist das bei euch? Nutzt ihr solche Tools? Habt ihr sie sogar offiziell im Team/Unternehmen eingeführt – oder ist das bei euch ein No-Go wegen Datenschutz, Compliance etc.?
Mich interessieren vor allem auch die kritischen Stimmen:
Wo sind euch klare Grenzen aufgefallen?
Habt ihr schon mal "Halluzinationen" erlebt, die euch fast in die Irre geführt hätten?
Oder sagt ihr vielleicht: "So ein Quatsch, ein echter Admin braucht sowas nicht!"?
Freue mich auf den Austausch – gern ehrlich und praxisnah.
Grüße
_Charles R.Howard_
mich würde mal interessieren, wie ihr aktuell mit Chat GPT & Co. in eurem IT-Alltag umgeht.
Ich arbeite selbst als Admin in einer mittelgroßen Umgebung (hauptsächlich Windows, etwas Linux, viel AD, Office 365 etc.), und ehrlich gesagt habe ich Chat GPT mittlerweile ziemlich häufig im Einsatz. Zum Beispiel:
Beim schnellen Schreiben von PowerShell-Skripten oder um sich an selten genutzte Befehle zu erinnern
Beim Erklären von Registry-Einträgen, die ich so auf die Schnelle nicht einordnen konnte
Oder auch mal zum Formulieren von Mails an Benutzer (die höflich sein sollen, auch wenn man gerade zum dritten Mal dieselbe Frage beantwortet 😅)
Natürlich verlasse ich mich nicht blind drauf, aber oft spart es einfach Zeit. Ich sehe es als eine Art "Junior Admin", der immer verfügbar ist.
Jetzt frage ich mich:
Wie ist das bei euch? Nutzt ihr solche Tools? Habt ihr sie sogar offiziell im Team/Unternehmen eingeführt – oder ist das bei euch ein No-Go wegen Datenschutz, Compliance etc.?
Mich interessieren vor allem auch die kritischen Stimmen:
Wo sind euch klare Grenzen aufgefallen?
Habt ihr schon mal "Halluzinationen" erlebt, die euch fast in die Irre geführt hätten?
Oder sagt ihr vielleicht: "So ein Quatsch, ein echter Admin braucht sowas nicht!"?
Freue mich auf den Austausch – gern ehrlich und praxisnah.
Grüße
_Charles R.Howard_
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 673413
Url: https://administrator.de/forum/chat-gpt-admin-tools-673413.html
Ausgedruckt am: 08.07.2025 um 11:07 Uhr
85 Kommentare
Neuester Kommentar
Ist für mich, als KU-Supporter (der überall ein bisschen können muss) ein sehr wichtiger "Kollege" geworden. Fast wie ein Mensch. (Schon nur) der Austausch ist oft hilfreich, manchmal ist er faul, dann muss man ihm in den Hintern treten. Manchmal weiß er was nicht, aber das ist im RL ja auch nicht anders - und es gibt einem ein gutes Gefühl, auch mal was besser zu wissen
Extrem hilfreich bei administrativen Skripten. Selbst wenn ich sie selbst schreibe, ist das beim Debugging eine große Hilfe.
Toll auch zu lernen. Erklärt Dinge gut, auch wenn man 5x nachfragt.
Auch sehr zu schätzen ist der stets sachbezogene und freundliche Duktus, der unseren RL-Kollegen ja nicht immer gelingt
Insgesamt versuche ich aber stets, das Problem selbst zu durchdringen, einen Lösungsansatz zu finden und nur die Spezifika nachzufragen. Wäre, glaube ich, nicht so gut, sich das Denken komplett abzugewöhnen und ich bin sicher, wem es an Basiswissen mangelt, der hat schon bei der Fragestellung, spätestens aber bei der Interpretation des Ergebnisses verloren.
Warum ich "ihn" als Mann interpretiere, weiß ich selbst nicht. Soll keine Ungerechtigkeit sein. Wahrscheinlich stimmt "es" sich auf meine Herangehensweise ab.
Viele Grüße, commodity
Moin,
ich nutze die KI auch immer häufiger, aber nicht um mir Themen erklären zu lassen, sondern um sehr spezifische Fragen zu klären, ohne mich zeitintensiv selbst damit zu beschäftigen. Ich nutze perplexity, ich finde es gut, dass auch immer die Quellen mit angegeben werden für bestimmte Aussagen, die lese ich dann auch selbst durch. Für das Erstellen von Scripts ist es wirklich sehr nützlich, ich prüfe die aber auch immer (zumindest mit meinen rudimentären Scriptverständnis).
Habe perplexity vor kurzem gebeten, mir ein Script zu schreiben, dass auf einem Terminalserver bei allen Usern die jeweiligen TEMP-Verzeichnisse löschen soll. Hat wunderbar funktioniert und hilft sehr.
Mails usw verfasse ich aber stets selber, denn das KI Geblabber ertrage ich selbst nicht. Mir stößt aber auch unangenehm auf, dass unsere Azubis gefühlt 100% von der KI abhängig sind und alles glauben. Ich weiß noch nicht, wie wir damit umgehen sollten, schwieriges Thema...
MfG
ich nutze die KI auch immer häufiger, aber nicht um mir Themen erklären zu lassen, sondern um sehr spezifische Fragen zu klären, ohne mich zeitintensiv selbst damit zu beschäftigen. Ich nutze perplexity, ich finde es gut, dass auch immer die Quellen mit angegeben werden für bestimmte Aussagen, die lese ich dann auch selbst durch. Für das Erstellen von Scripts ist es wirklich sehr nützlich, ich prüfe die aber auch immer (zumindest mit meinen rudimentären Scriptverständnis).
Habe perplexity vor kurzem gebeten, mir ein Script zu schreiben, dass auf einem Terminalserver bei allen Usern die jeweiligen TEMP-Verzeichnisse löschen soll. Hat wunderbar funktioniert und hilft sehr.
Mails usw verfasse ich aber stets selber, denn das KI Geblabber ertrage ich selbst nicht. Mir stößt aber auch unangenehm auf, dass unsere Azubis gefühlt 100% von der KI abhängig sind und alles glauben. Ich weiß noch nicht, wie wir damit umgehen sollten, schwieriges Thema...
MfG
Moin.
Ich sehe ein großes Problem darin, dass sich KI scheuen, Unsicherheiten bei der Antwort anzugeben - die KI sagt nie "ich bin mir lediglich recht sicher, dass...".
Ich habe schon dutzende Fragestellungen (zur Windowsadministration, zu Skripten, zu Hardwarerecherche) an die KI abgegeben und schätze, dass von den Antworten 3/4 falsch waren. Je komplizierter die Frage war, desto mehr.
Bei einem Skript hat die KI zum Beispiel erst im 15. Anlauf das Problem gelöst obwohl sie jedes Mal zuvor beteuert hatte, nun das Problem erkannt zu haben. Und da auch erst, nachdem ich der KI einen Link zu einer Site mit einem Skript zu einer ähnlichen Aufgabe übergeben habe.
Halluzinationen? Ständig, meistens.
Ich sehe ein großes Problem darin, dass sich KI scheuen, Unsicherheiten bei der Antwort anzugeben - die KI sagt nie "ich bin mir lediglich recht sicher, dass...".
Ich habe schon dutzende Fragestellungen (zur Windowsadministration, zu Skripten, zu Hardwarerecherche) an die KI abgegeben und schätze, dass von den Antworten 3/4 falsch waren. Je komplizierter die Frage war, desto mehr.
Bei einem Skript hat die KI zum Beispiel erst im 15. Anlauf das Problem gelöst obwohl sie jedes Mal zuvor beteuert hatte, nun das Problem erkannt zu haben. Und da auch erst, nachdem ich der KI einen Link zu einer Site mit einem Skript zu einer ähnlichen Aufgabe übergeben habe.
Halluzinationen? Ständig, meistens.
Ich nutze KI um meine Meinung an den Mainstream anzupassen, da ich nicht immer die der Herde teile (noch nicht).
heise.de/news/Unerwuenschtes-KI-Experiment-auf-Reddit-Massive-Kr ...
heise.de/news/Unerwuenschtes-KI-Experiment-auf-Reddit-Massive-Kr ...
Andauernd, große Hilfe beim Skripten, um ein Grundgerüst aufzubauen, und je nachdem wie gut man die Prompts schreibt, mit Links zu Dokus etc., sind die Skript auch meist brauchbar. Manuelles Anpassen ist allerdings fast immer nötig.
Bei Themen zu denen man gar keine Ahnung hat hilft es mir oft, sich mittels KI einen Überblick zu verschaffen.
Compliance, Datenschutz ist kein Problem, so lange man die Chats allgemein hält, Skripts konfigurierbar macht, etc.
Halluzinationen zu Code gibt es regelmäßig, bspw. nicht vorhandene PowerShell-Module. Wenn man das weiß, kann man mMn. gut damit umgehen. Insgesamt kann es auf jeden Fall trotzdem deutlich Zeit sparen.
Ich verwende hauptsächlich Cursor (mit variierendem Modell) und ChatGPT
Bei Themen zu denen man gar keine Ahnung hat hilft es mir oft, sich mittels KI einen Überblick zu verschaffen.
Compliance, Datenschutz ist kein Problem, so lange man die Chats allgemein hält, Skripts konfigurierbar macht, etc.
Halluzinationen zu Code gibt es regelmäßig, bspw. nicht vorhandene PowerShell-Module. Wenn man das weiß, kann man mMn. gut damit umgehen. Insgesamt kann es auf jeden Fall trotzdem deutlich Zeit sparen.
Ich verwende hauptsächlich Cursor (mit variierendem Modell) und ChatGPT
Ich bin ein 3rd-level Administrator und KI hat kein Platz in meiner Arbeit.
Die Probleme die ich löse sind zu spezifisch. Skripte schreiben tue ich selten, und wenn ich muss, dann freuhe ich mich richtig wenn ich das selbst machen darf.
Das Selbe mit E-Mails, sich richtig auszudrücken ist eine Fähigkeit die stätig trainiert werden muss.
Selbst englischsprachige Texte verfasse ich lieber selbst um das nicht zu verlernen.
Die Antworten die KI mir und meinen Kollegen liefert sind oft falsch oder passen nicht zum Kontext.
MfG Oldschool-Admin
Nachtrag: KI wurde an Web-Inhalten trainiert, Foren, Blogs, usw.. Viele Foren und Blogs leben von der Werbung und echten Besuchern, KI nimmt diesen Traffic von den Foren weg und die Werbe-Einnahmen versickern. Langfristig drohen diese Informationsquellen zu verschwinden und wir verlieren neu generiertes Wissen.
Die Probleme die ich löse sind zu spezifisch. Skripte schreiben tue ich selten, und wenn ich muss, dann freuhe ich mich richtig wenn ich das selbst machen darf.
Das Selbe mit E-Mails, sich richtig auszudrücken ist eine Fähigkeit die stätig trainiert werden muss.
Selbst englischsprachige Texte verfasse ich lieber selbst um das nicht zu verlernen.
Die Antworten die KI mir und meinen Kollegen liefert sind oft falsch oder passen nicht zum Kontext.
MfG Oldschool-Admin
Nachtrag: KI wurde an Web-Inhalten trainiert, Foren, Blogs, usw.. Viele Foren und Blogs leben von der Werbung und echten Besuchern, KI nimmt diesen Traffic von den Foren weg und die Werbe-Einnahmen versickern. Langfristig drohen diese Informationsquellen zu verschwinden und wir verlieren neu generiertes Wissen.
Zitat von @DerWoWusste:
Moin.
Ich sehe ein großes Problem darin, dass sich KI scheuen, Unsicherheiten bei der Antwort anzugeben - die KI sagt nie "ich bin mir lediglich recht sicher, dass...".
Ich habe schon dutzende Fragestellungen (zur Windowsadministration, zu Skripten, zu Hardwarerecherche) an die KI abgegeben und schätze, dass von den Antworten 3/4 falsch waren. Je komplizierter die Frage war, desto mehr.
Bei einem Skript hat die KI zum Beispiel erst im 15. Anlauf das Problem gelöst obwohl sie jedes Mal zuvor beteuert hatte, nun das Problem erkannt zu haben. Und da auch erst, nachdem ich der KI einen Link zu einer Site mit einem Skript zu einer ähnlichen Aufgabe übergeben habe.
Halluzinationen? Ständig, meistens.
Moin.
Ich sehe ein großes Problem darin, dass sich KI scheuen, Unsicherheiten bei der Antwort anzugeben - die KI sagt nie "ich bin mir lediglich recht sicher, dass...".
Ich habe schon dutzende Fragestellungen (zur Windowsadministration, zu Skripten, zu Hardwarerecherche) an die KI abgegeben und schätze, dass von den Antworten 3/4 falsch waren. Je komplizierter die Frage war, desto mehr.
Bei einem Skript hat die KI zum Beispiel erst im 15. Anlauf das Problem gelöst obwohl sie jedes Mal zuvor beteuert hatte, nun das Problem erkannt zu haben. Und da auch erst, nachdem ich der KI einen Link zu einer Site mit einem Skript zu einer ähnlichen Aufgabe übergeben habe.
Halluzinationen? Ständig, meistens.
Ok - sagst du bei jeder Antwort "ich bin mir nicht ganz sicher", "ich glaube zu 95% das...."? Man sollte nicht vergessen - es steckt kein Mensch dahinter, es ist ein System welches aus einer Menge Daten eben das wahrscheinlichste raussucht. Und genauso wie bei einer menschlichen Antwort gibt es eben idR. eine gewisse Unsicherheit.
Und "erst im 15ten Anlauf gelöst" - nun, vergleichen wir das mal mit einigen Fragestellungen hier die von Menschen beantwortet werden, da sind 15 Anläufe doch gar nicht mal sooo schlecht! Und es ist ja dann eine Frage ob die KI eben lernt (und der nächste mit derselben Fragestellung deine verbesserte Antwort bekommt) oder eben nicht. Dabei sollte man eben nicht vergessen das vermutlich jede halbwegs anspruchsvolle Aufgabe eben nicht nur eine Lösung hat - und ggf. ein sehr ähnliches Problem wie das was du hattest schon 1000 Leute vorher eben mit einer "kleinen" Abweichung hatten und die Lösungen da gepasst haben. Damit hätte dann die KI ja immernoch eben 99.9% korrekt geantwortet...
Ich selbst nutze die zB. gerne mal für Lösungsideen -> bei der ich eben absichtlich nur ein ähnliches Problem formuliere und schaue wie es gelöst wurde. Damit habe ich dann eben auch kein Problem mit Datenschutz - wenn ich sage ich möchte ein Programm haben welches mir mit Zeitverzögerung ein Lauflicht baut was hin und her läuft wäre es einfach anzupassen daraus zB. ne Ampelsteuerung zu machen -> die Fragestellung würde aber nicht zwingend genau genug sein um Datenschutzmässig nen Problem zu haben. Oder zB. fürs Programmieren "baue mir folgende Funktion rekursiv um" -> um sich dann das ganze anzugucken, hatte in dem Fall sogar eine wirklich schöne Lösung ergeben... Ich würde eben NICHT einfach per Copy/Paste den Code einfügen und ausführen, sondern immer noch mittels HI (Human Intelligence) mal drübergucken -> wenn es genug Leute gibt die behaupten nen "rm -rf /" würde unter Linux das System optimieren würde eine KI das eben auch so wiedergeben -> was ganz sicher NICHT korrekt ist. Und wenn die Lösung etwas komplexer aussieht dann wirds umso wichtiger mal drüber zu gucken... Aber sich einer neuen Technik verschließen dürfte grad in diesem Fall eher kurzsichtig sein - da es sich eben mehr und mehr in den Alltag schieben wird...
Zitat von @heilgecht:
Ich bin ein 3rd-level Administrator und KI hat kein Platz in meiner Arbeit.
Die Probleme die ich löse sind zu spezifisch. Skripte schreiben tue ich selten, und wenn ich muss, dann freuhe ich mich richtig wenn ich das selbst machen darf.
Das Selbe mit E-Mails, sich richtig auszudrücken ist eine Fähigkeit die stätig trainiert werden muss.
Selbst englischsprachige Texte verfasse ich lieber selbst um das nicht zu verlernen.
Die Antworten die KI mir und meinen Kollegen liefert sind oft falsch oder passen nicht zum Kontext.
MfG Oldschool-Admin
Nachtrag: KI wurde an Web-Inhalten trainiert, Foren, Blogs, usw.. Viele Foren und Blogs leben von der Werbung und echten Besuchern, KI nimmt diesen Traffic von den Foren weg und die Werbe-Einnahmen versickern. Langfristig drohen diese Informationsquellen zu verschwinden und wir verlieren neu generiertes Wissen.
Ich bin ein 3rd-level Administrator und KI hat kein Platz in meiner Arbeit.
Die Probleme die ich löse sind zu spezifisch. Skripte schreiben tue ich selten, und wenn ich muss, dann freuhe ich mich richtig wenn ich das selbst machen darf.
Das Selbe mit E-Mails, sich richtig auszudrücken ist eine Fähigkeit die stätig trainiert werden muss.
Selbst englischsprachige Texte verfasse ich lieber selbst um das nicht zu verlernen.
Die Antworten die KI mir und meinen Kollegen liefert sind oft falsch oder passen nicht zum Kontext.
MfG Oldschool-Admin
Nachtrag: KI wurde an Web-Inhalten trainiert, Foren, Blogs, usw.. Viele Foren und Blogs leben von der Werbung und echten Besuchern, KI nimmt diesen Traffic von den Foren weg und die Werbe-Einnahmen versickern. Langfristig drohen diese Informationsquellen zu verschwinden und wir verlieren neu generiertes Wissen.
... KI nimmt inhalte weg? Also - wenn du soooo oldschool bist -> kommen die folgende Aussagen bekannt vor?
"Recording kills Music" (Anfänge der Kassetten und entsprechender Aufnahmegeräte)
"MP3 wird Musik töten" (als dann MP3 rauskam)
"Filesharing wird die Film- und Musikindustrie zerstören" (Napster, Bittorrent,... suchs dir aus)
"Internet wird die Presse zerstören" (speziell über Newsseiten), kurz später "Paywalls zerstören das Internet"...
Und das ist jetzt nur ein kurzer Auszug von dem was alles schon zerstört wurde und verschwunden ist... ist jetzt etwas merkwürdig weil allein beim Schreiben hier aus meinem Kopfhörer irgendwas rauskommt was sich wie Musik anhört - aber die ist ja schon seid mind. irgendwo so um 80er Jahre tod?!?
KI löst in erster Linie Delegierungsprobleme: Häufig ist klar, dass etwas geht und wie es geht. Diejenigen, denen das klar ist, haben aber derzeit nicht die Aufgabe, es selbst umzusetzen, weil das wirtschaftlich und zeitlich unmöglich ist.
Die Bearbeitung der Teilschritte in Team-Strukturen erfordert vorab schon einen großen Zeiteinsatz zur Abstimmung und zum Erreichen eines gemeinsamen Verständnisses. Zurück kommen Resultate unterschiedlicher Qualität: Fehlende Kommentare, fehlende Erläuterung/Dokumentation, hochfragile funktionale Minima ohne Fehler-/Ausnahmenbehandlung, Stückwerke aus Schnipseln von Stack Overflow und Co, gern auch Tabs und Leerzeichen gemischt, um keinen Zweifel am eigenen Arbeitseinsatz zu lassen.
Das kann KI in den verbreiteten Skript- und Programmiersprachen anhand isolierter Probleme schon besser. Es hat also keinen Zweck, sich dem zu verweigern, weil man zukünftig Arbeitsaufträge im eigenen Interesse entweder heruntergebrochen direkt an KI stellt oder - bei komplexeren Problemen - an Menschen, die KI bedienen können. Die Arbeiter mit Schaufeln und ihr Vorarbeiter werden durch Baggerfahrer ersetzt.
Eine Stärke von LLMs ist die Kombination von reichlich vorhandenem Faktenwissen. Alles, was anhand umfassender Dokumentation lösbar ist, wird für meine Zwecke verlässlich gelöst, z.B. PowerShell, Bash, Python, Cloud- und Netzwerk-CLIs. Auch verbreitete Logik- oder Effizienzkniffe in C/C++ werden gut integriert. Die "zweite Meinung" und die manchmal damit verbundene Überraschung sind dem Weg zu einer eleganten Lösung sehr hilfreich.
Bei Instruktionen für eher selten verwendete Tools werden Funktionen und Parameter erfunden. Dann ist auch nach Korrektur in der Regel kein Weiterkommen.
Über die Prompts muss man sich etwas Gedanken machen, um keine Suggestivfragen einzubauen und sich der eigentlichen Frage in Schritten zu nähern. Die Erwartung, ein Problem, für das ich KI verwende, durch eine einzelne Frage zu lösen, habe ich in der Regel nicht.
Datenschutz und Compliance sind keine KI-spezifischen Themen, sondern stellen sich genauso für Suchanfragen und Forenbeiträge. Unternehmen haben die Infrastruktur und Prozesse, das zu kontrollieren oder sie haben sie nicht. KI bietet nun zumindest die Chance, das, was bislang das Unternehmen über die genannten Kanäle verließ, intern zu halten.
Grüße
Richard
Die Bearbeitung der Teilschritte in Team-Strukturen erfordert vorab schon einen großen Zeiteinsatz zur Abstimmung und zum Erreichen eines gemeinsamen Verständnisses. Zurück kommen Resultate unterschiedlicher Qualität: Fehlende Kommentare, fehlende Erläuterung/Dokumentation, hochfragile funktionale Minima ohne Fehler-/Ausnahmenbehandlung, Stückwerke aus Schnipseln von Stack Overflow und Co, gern auch Tabs und Leerzeichen gemischt, um keinen Zweifel am eigenen Arbeitseinsatz zu lassen.
Das kann KI in den verbreiteten Skript- und Programmiersprachen anhand isolierter Probleme schon besser. Es hat also keinen Zweck, sich dem zu verweigern, weil man zukünftig Arbeitsaufträge im eigenen Interesse entweder heruntergebrochen direkt an KI stellt oder - bei komplexeren Problemen - an Menschen, die KI bedienen können. Die Arbeiter mit Schaufeln und ihr Vorarbeiter werden durch Baggerfahrer ersetzt.
Eine Stärke von LLMs ist die Kombination von reichlich vorhandenem Faktenwissen. Alles, was anhand umfassender Dokumentation lösbar ist, wird für meine Zwecke verlässlich gelöst, z.B. PowerShell, Bash, Python, Cloud- und Netzwerk-CLIs. Auch verbreitete Logik- oder Effizienzkniffe in C/C++ werden gut integriert. Die "zweite Meinung" und die manchmal damit verbundene Überraschung sind dem Weg zu einer eleganten Lösung sehr hilfreich.
Bei Instruktionen für eher selten verwendete Tools werden Funktionen und Parameter erfunden. Dann ist auch nach Korrektur in der Regel kein Weiterkommen.
Über die Prompts muss man sich etwas Gedanken machen, um keine Suggestivfragen einzubauen und sich der eigentlichen Frage in Schritten zu nähern. Die Erwartung, ein Problem, für das ich KI verwende, durch eine einzelne Frage zu lösen, habe ich in der Regel nicht.
Datenschutz und Compliance sind keine KI-spezifischen Themen, sondern stellen sich genauso für Suchanfragen und Forenbeiträge. Unternehmen haben die Infrastruktur und Prozesse, das zu kontrollieren oder sie haben sie nicht. KI bietet nun zumindest die Chance, das, was bislang das Unternehmen über die genannten Kanäle verließ, intern zu halten.
Grüße
Richard
Das Selbe mit E-Mails, sich richtig auszudrücken ist eine Fähigkeit die stätig trainiert werden muss.
Dieser Satz hat mir ziemliche Freude bereitet :DVielleicht hätte eine KI hier keinen Schreibfehler eingebaut /shrug
onTopic:
yes. Solange ich selbst die Dinge validieren kann, finde ich das brauchbar. Blind darauf verlassen, kann man sich nicht.
Gruß
Zitat von @heilgecht:
Ich bin ein 3rd-level Administrator und KI hat kein Platz in meiner Arbeit.
Die Probleme die ich löse sind zu spezifisch. Skripte schreiben tue ich selten, und wenn ich muss, dann freuhe ich mich richtig wenn ich das selbst machen darf.
Ich bin ein 3rd-level Administrator und KI hat kein Platz in meiner Arbeit.
Die Probleme die ich löse sind zu spezifisch. Skripte schreiben tue ich selten, und wenn ich muss, dann freuhe ich mich richtig wenn ich das selbst machen darf.
seh ich genauso, bei meinem problemen hat mir die KI bisher noch NULL mal helfen können.
Klar hab ichs versucht, aber wenn du dann irgendwann nach 1-2 Stunden rumtesten feststellst das sie nur schwachsinn von sich gibt und sich ständig im kreis dreht... dann regt man sich irgendwann drübert auf.
Und wenn man die antworten mit Google suche vergleicht kommt im prinzip genau das selbe raus, nur das man bei den google "funden" schon an den URLs oder textpassagen die vorgeblendet weiss das dort die antwort nicht zu finden ist....
Und wenn man sie dann drauf aufmerksam macht, dann gibt sie zu das sie keinen schimmer hat...
Beispiel war bei mir Switch Konfig anpassen und kleinere Cisco Switche haben nicht alle Befehle wie die grossen.
Die KI sagte ständig man muss dann das Default Login und Default Passwort benutzen/setzen. Unter uns? Default Passwort hört sich doch so an das man das anpassen kann oder?
tja geht halt nicht, aber hauptsache sie labberte 2 Stunden denn schrott bis ich dann endgültig die anleitung selbst in die hand nahm und das dann bestätigte das das nicht möglich ist zu verändern....
Und selbst bei so kleinigkeiten eigentlich happerts schon, von komplexeren Problemen reden wir lieber nicht....
Intelligenz ist was anderes wie Zusammenfassungen der Google Suche von sich zu geben mit ignoranz von spezifischen suchkriterien die man eigentlich mitteilt....
Egal mein Job scheint nicht gefährdet zu sein
Ich Google lieber...
Beim Scripten - ja ist ok ganz hilfreich.... aber nichts was man mit Google nicht hinbekommt...
von dem her Gott bewahre das so Management Fizzies nicht das Firmenwohl an ne KI abgeben...
weil dann ist mir zumindest klar was passieren wird...
von dem her Gott bewahre das so Management Fizzies nicht das Firmenwohl an ne KI abgeben...
weil dann ist mir zumindest klar was passieren wird...Immerhin sprichst Du diesen "Fizzies" ganz offensichtlich ein höheres Maß an Fähigkeiten zu als der KI. Das ist aus Techniker-Sicht ja nicht selbstverständlich 😉
@maretz
Und "erst im 15ten Anlauf gelöst" - nun, vergleichen wir das mal mit einigen Fragestellungen hier die von Menschen beantwortet werden, da sind 15 Anläufe doch gar nicht mal sooo schlecht!
Ich war letzten Endes zufrieden, dass die KI es geschafft hat, denn ich hätte es nicht gekonnt. Ärgerlich war nur, dass er mit jeder Korrektur auf's Neue beteuert hat, "jetzt aber wirklich das Problem erkannt zu haben" und sogar von "getesteten" ("proven") Lösungen sprach, die ganz bestimmt funktionieren. Er machte auch schreckliche Anfängerfehler, wie am Ende vom Skript eine Zeile einzubauen, die per Meldung mitsamt grünem Haken Erfolg suggerierte, ohne dabei überhaupt den Errorlevel abzufragen *stirnklatsch*Zitat von @maretz:
... KI nimmt inhalte weg? Also - wenn du soooo oldschool bist -> kommen die folgende Aussagen bekannt vor?
"Recording kills Music" (Anfänge der Kassetten und entsprechender Aufnahmegeräte)
"MP3 wird Musik töten" (als dann MP3 rauskam)
"Filesharing wird die Film- und Musikindustrie zerstören" (Napster, Bittorrent,... suchs dir aus)
"Internet wird die Presse zerstören" (speziell über Newsseiten), kurz später "Paywalls zerstören das Internet"...
Und das ist jetzt nur ein kurzer Auszug von dem was alles schon zerstört wurde und verschwunden ist... ist jetzt etwas merkwürdig weil allein beim Schreiben hier aus meinem Kopfhörer irgendwas rauskommt was sich wie Musik anhört - aber die ist ja schon seid mind. irgendwo so um 80er Jahre tod?!?
... KI nimmt inhalte weg? Also - wenn du soooo oldschool bist -> kommen die folgende Aussagen bekannt vor?
"Recording kills Music" (Anfänge der Kassetten und entsprechender Aufnahmegeräte)
"MP3 wird Musik töten" (als dann MP3 rauskam)
"Filesharing wird die Film- und Musikindustrie zerstören" (Napster, Bittorrent,... suchs dir aus)
"Internet wird die Presse zerstören" (speziell über Newsseiten), kurz später "Paywalls zerstören das Internet"...
Und das ist jetzt nur ein kurzer Auszug von dem was alles schon zerstört wurde und verschwunden ist... ist jetzt etwas merkwürdig weil allein beim Schreiben hier aus meinem Kopfhörer irgendwas rauskommt was sich wie Musik anhört - aber die ist ja schon seid mind. irgendwo so um 80er Jahre tod?!?
Bezogen auf IT Thematik gehen die Inhalte definitiv verloren. Wir konnten gerade beobachten wie die richtige Problemlösungen oder einfach nur Kommentare von Stackoverflow oder Reddit von den Verfassern gelöscht wurden.
Naja - auch da is die KI ja nichts anderes als der menschliche Kollege auch... Wenn du nämlich rumgehst und da fragst ist sich auch jeder Kollege entweder
- völlig sicher das es genau SO ist und NUR so gelöst werden kann
oder
- kennt das problem nicht aber es _muss_ genau SO gelöst werden
Und das natürlich dabei jede Lösung 20x getestet wurde is ja klar - und nur diesmal gehts wohl nich aber da hast du wohl was falsch verstanden...
Also - das hört sich für mich immer mehr und mehr danach an das die KI doch schon sehr dicht an den menschlichen Kollegen ist...
Aber spass beiseite -> natürlich hat die auch nachteile, Mir erklärt die eben auch das ich irgendwelche Maven-Dinge nutzen soll mit Modulen die bereits veraltet sind...Liegt eben daran das dieses oft genug genutzt wurde und die statistik halt sagt "nimm das"... DAS ist für mich eben die "geistige Transferleistung" die heute immer noch nötig ist (und vermutlich auch bleibt) - da einfach was reinhauen und es kommt mundgerecht raus geht halt nicht, man muss immernoch wissen WAS das Ergebnis bedeutet... MIR spart es eben das ich 20 Seiten Google öffnen muss (wo auch jeder sagt das er/sie/es genau DIE perfekte Lösung hatte), mir die Lösungen ansehen und dabei eben genauso die veralteten / falschen Lösungen ausfiltern muss...
- völlig sicher das es genau SO ist und NUR so gelöst werden kann
oder
- kennt das problem nicht aber es _muss_ genau SO gelöst werden
Und das natürlich dabei jede Lösung 20x getestet wurde is ja klar - und nur diesmal gehts wohl nich aber da hast du wohl was falsch verstanden...
Also - das hört sich für mich immer mehr und mehr danach an das die KI doch schon sehr dicht an den menschlichen Kollegen ist...
Aber spass beiseite -> natürlich hat die auch nachteile, Mir erklärt die eben auch das ich irgendwelche Maven-Dinge nutzen soll mit Modulen die bereits veraltet sind...Liegt eben daran das dieses oft genug genutzt wurde und die statistik halt sagt "nimm das"... DAS ist für mich eben die "geistige Transferleistung" die heute immer noch nötig ist (und vermutlich auch bleibt) - da einfach was reinhauen und es kommt mundgerecht raus geht halt nicht, man muss immernoch wissen WAS das Ergebnis bedeutet... MIR spart es eben das ich 20 Seiten Google öffnen muss (wo auch jeder sagt das er/sie/es genau DIE perfekte Lösung hatte), mir die Lösungen ansehen und dabei eben genauso die veralteten / falschen Lösungen ausfiltern muss...
Zitat von @shebang:
Vielleicht hätte eine KI hier keinen Schreibfehler eingebaut /shrug
onTopic:
yes. Solange ich selbst die Dinge validieren kann, finde ich das brauchbar. Blind darauf verlassen, kann man sich nicht.
Gruß
Das Selbe mit E-Mails, sich richtig auszudrücken ist eine Fähigkeit die stätig trainiert werden muss.
Dieser Satz hat mir ziemliche Freude bereitet :DVielleicht hätte eine KI hier keinen Schreibfehler eingebaut /shrug
onTopic:
yes. Solange ich selbst die Dinge validieren kann, finde ich das brauchbar. Blind darauf verlassen, kann man sich nicht.
Gruß
Wer Schreibfehler findet, darf sie behalten, Deutsch ist nicht meine Muttersprache.
Das kann ich mir jetzt natürlich nicht verkneifen 😇:
ChatGPT:
Finde bitte alle Fehler in diesem Satz (Rechtschreibung und Grammatik):
"Das Selbe mit E-Mails, sich richtig auszudrücken ist eine Fähigkeit die stätig trainiert werden muss."
PS: Wenigstens für "Rechtschreib-Nadsis" ist ChatGPT also ne feine Sache ... und da würde ich "dasselbe" immer noch zur Diskussion stellen wollen (das gleiche, passt imho besser in so einer Art Vergleich)
ChatGPT:
Finde bitte alle Fehler in diesem Satz (Rechtschreibung und Grammatik):
"Das Selbe mit E-Mails, sich richtig auszudrücken ist eine Fähigkeit die stätig trainiert werden muss."
Der Satz enthält mehrere Fehler in Rechtschreibung, Zeichensetzung und Grammatik. Hier ist die korrigierte Version:
Korrigierter Satz:
> "Dasselbe mit E-Mails: Sich richtig auszudrücken, ist eine Fähigkeit, die stetig trainiert werden muss."
Fehleranalyse:
1. „Das Selbe“ → „Dasselbe“:
* „Dasselbe“ ist ein Indefinitpronomen und wird zusammengeschrieben.
* „Das Selbe“ ist falsch, weil „selbe“ ein Adjektiv wäre, das hier aber nicht korrekt verwendet ist.
2. Komma nach „E-Mails“:
* Ein Doppelpunkt ist hier passender, da eine Erklärung oder Konkretisierung folgt.
* Ein Komma wäre auch grammatikalisch korrekt, aber stilistisch schwächer.
3. „sich richtig auszudrücken ist eine Fähigkeit“ → „Sich richtig auszudrücken, ist eine Fähigkeit“:
* Der Infinitiv mit „zu“ ist ein erweiterter Infinitiv und benötigt ein Komma.
* „Sich“ wird am Satzanfang großgeschrieben.
4. Komma vor „die stetig trainiert werden muss“:
* Relativsätze werden durch ein Komma abgetrennt.
5. „stätig“ → „stetig“:
* „Stetig“ bedeutet „andauernd, regelmäßig“ – das ist hier gemeint.
* „Stätig“ ist eine veraltete, heute nicht mehr gebräuchliche oder falsche Form.
PS: Wenigstens für "Rechtschreib-Nadsis" ist ChatGPT also ne feine Sache ... und da würde ich "dasselbe" immer noch zur Diskussion stellen wollen (das gleiche, passt imho besser in so einer Art Vergleich)
Zitat von @heilgecht:
Bezogen auf IT Thematik gehen die Inhalte definitiv verloren. Wir konnten gerade beobachten wie die richtige Problemlösungen oder einfach nur Kommentare von Stackoverflow oder Reddit von den Verfassern gelöscht wurden.
Bezogen auf IT Thematik gehen die Inhalte definitiv verloren. Wir konnten gerade beobachten wie die richtige Problemlösungen oder einfach nur Kommentare von Stackoverflow oder Reddit von den Verfassern gelöscht wurden.
Wo gehen die durch KI verloren? Fangen wir mal einfach an KI kann eben nur auswerten. D.h. damit die überhaupt was aufnehmen kann MUSS die Lösung eben schonmal irgendwo stehen. Wenn du zB. die KI danach fragst dir die Konstruktion für eine Solarzelle mit 100% Wirkungsgrad zu geben wird dir dir auch keine (sinnvolle) Lösung erzeugen. Damit kann also erstmal schon nur das "Wissen" verloren gehen was sich irgendwo oft genug wiederholt hat... Die "Inhalte" wären also erstmal nur Wiederholungen...
Dazu kommt: Natürlich wird sich auch für Foren usw. einiges ändern - überraschung, das Leben IST Veränderung. Die reine präsentation von (mehr oder weniger) statischen Inhalten wird halt nicht mehr ausreichen. DAS ist wiederum mit zB. Musik vergleichbar - es wird heute eben nicht mehr reichen nur irgendwo ne CD aufm Markt zu werfen. Das ganze geht eben weiter - sei es Konzerte, sei es Playlists wie Amazon Prime, Spotify,... wo der Kunde das auch unterwegs problemlos hören kann. Oder sei es als Musikvideo bei Youtube. Das ganze dann gepaart mit den entsprechenden Endgeräten und der Kunde bekommt was er/sie/es will -> ich kann eben meinem Endgerät sogar sprachlich mitteilen es solle doch jetzt bitte Lied X von Artist Y spielen - und los gehts...
Warum sollte sich das im Netz anders verhalten? Eine relativ statische Seite die Texte in ner DB speichert und wieder rausholt wird so sicher nicht für die Unendlichkeit sein - und es würde mich wundern wenn ein Seitenbetreiber das annimmt. Ein Benutzer muss erst aktiv auf eine Seite gehen, sich ggf. noch anmelden, dann tonnenweise Text lesen, ggf. nicht mal irgendwie vorgefiltert auf "hilfreich", "nicht hilfreich",.. - da ist klar das eine KI hier ne bequeme Alternative bietet und die Option "stell mir ne Frage in normaler Fragestellung und lass mich für dich durch die Gegend laufen" sehr verlockend ist. Aber es liegt jetzt eben auch bei den Seitenbetreibern dafür zu sorgen das die eben (siehe oben, analog zur musik) einen Mehrwert bieten und sich überlegen welche Vorteile die haben..
Und ja - es werden auch Inhalte und Seiten natürlich verschwinden... und an anderer Stelle wieder neue Dinge auftauchen... DAS ist die tägliche Veränderung im Web, das ist ja jetzt nix ungewöhnliches mehr...
Ok - also wenn ich das jetzt richtig überflogen habe - Stack-Overflow spielt mit AI zusammen, die Benutzer löschen Content aber das ist die Schuld von AI? Finde ich schon etwas "spannend" als Theorie. Denn: Wenn morgen Frank auf die Idee kommt zu sagen er nimmt die Inhalte von hier für das Administrator-Magazin und ich meine Inhalte dann aus protest lösche - dann hat nicht das Magazin meine Inhalte gelöscht, das Magazin ist auch nicht verantwortlich das Inhalte verschwinden, ICH bin dafür verantwortlich. Und auch da: Es steht mir ja frei das zu tun weil ich das ggf. nicht unterstützen will - ABER wenn es dann nicht der Grund "Magazin" ist, dann eben "AI" oder irgendein Benutzer der mir nicht passt, ... Am Ende würde ich sagen es ist wenn überhaupt die "Schuld" des Seiten-Betreibers - nämlich wie man es "verkauft" und welche Möglichkeiten es gibt. Es wäre ja GRADE bei einer gewollten Zusammenarbeit ein leichtes zu sagen "ich mach nen Flag - wenn ein Benutzer nicht will setzt er das und seine Inhalte gehen nicht an AI"
Also - aus meiner sicht sind die Inhalte eben nicht durch AI verloren gegangen, sondern durch Menschen...
Also - aus meiner sicht sind die Inhalte eben nicht durch AI verloren gegangen, sondern durch Menschen...
Moin,
wie immer mit so neuen Technologien: mal schauen, wohin es sich entwickelt. Es gibt Bereiche, da ist es hilfreich, in anderen nicht.
Programmierung: klar, klasse, weil da so ein riesiger Fundus zugrunde liegt, dass da wirklich brauchbare Gerüste oder Module herauskommen.
Problem: wenn denn ein Fehler drin ist, muss einem der auffallen. Alles zu kontrollieren, frisst den gewonnenen Zeitvorteil wieder auf.
Ist mir gerade hier erst passiert. User hat KI-Script gepostet, drüber geschaut, kurze Anmerkungen zur ersten Fassung = Murks gegeben und hingewiesen, warum man bei KI mitdenken soll. Anderer User postet KI-überarbeitetes Skript. Sieht gut aus, alle wesentlichen Baustellen auf den ersten Blick beseitigt. Aber: war doch ein Logikfehler drin. Eigentlich einfach zu sehen, aber da hatte ich auch "abgeschaltet" getreu dem Motto: das bekommt KI doch hin. Nein. Und da ist es halt schwierig.
In einem gänzlich anderen Bereich letzte Woche erst im Umfeld erlebt: KI hat eine Zusammenfassung mit hochgeladenem Quellenmaterial geliefert und gem. Aufgabenstellung ausgewertet. Bei händischer Durchsicht aufgefallen: die geforderten Zitatet aus der Quelle waren richtig (inhaltlich + wörtlich), hatten aber falsche Seitenzahlen. Warum? Die Quelle war auf A3 (Druckvorlage) skaliert mit links und rechts jeweils einer A4-Seite mit eigener Seitenzahl. Das ging in die Hose. Ungeprüft übernommen wäre großer Mist. Allerdings war das Grundgerüst beeindruckend und eine große Zeitersparnis.
Wo KI, wenn man es braucht, ebenfalls sehr gut hilft: Generieren copyright-freier Bilder im geschäftlichen Bereich. Das wird immer besser.
Gruß
DivideByZero
wie immer mit so neuen Technologien: mal schauen, wohin es sich entwickelt. Es gibt Bereiche, da ist es hilfreich, in anderen nicht.
Programmierung: klar, klasse, weil da so ein riesiger Fundus zugrunde liegt, dass da wirklich brauchbare Gerüste oder Module herauskommen.
Problem: wenn denn ein Fehler drin ist, muss einem der auffallen. Alles zu kontrollieren, frisst den gewonnenen Zeitvorteil wieder auf.
Ist mir gerade hier erst passiert. User hat KI-Script gepostet, drüber geschaut, kurze Anmerkungen zur ersten Fassung = Murks gegeben und hingewiesen, warum man bei KI mitdenken soll. Anderer User postet KI-überarbeitetes Skript. Sieht gut aus, alle wesentlichen Baustellen auf den ersten Blick beseitigt. Aber: war doch ein Logikfehler drin. Eigentlich einfach zu sehen, aber da hatte ich auch "abgeschaltet" getreu dem Motto: das bekommt KI doch hin. Nein. Und da ist es halt schwierig.
In einem gänzlich anderen Bereich letzte Woche erst im Umfeld erlebt: KI hat eine Zusammenfassung mit hochgeladenem Quellenmaterial geliefert und gem. Aufgabenstellung ausgewertet. Bei händischer Durchsicht aufgefallen: die geforderten Zitatet aus der Quelle waren richtig (inhaltlich + wörtlich), hatten aber falsche Seitenzahlen. Warum? Die Quelle war auf A3 (Druckvorlage) skaliert mit links und rechts jeweils einer A4-Seite mit eigener Seitenzahl. Das ging in die Hose. Ungeprüft übernommen wäre großer Mist. Allerdings war das Grundgerüst beeindruckend und eine große Zeitersparnis.
Wo KI, wenn man es braucht, ebenfalls sehr gut hilft: Generieren copyright-freier Bilder im geschäftlichen Bereich. Das wird immer besser.
Gruß
DivideByZero
Moin,
das Problem von KI ist, dass die User (bald) keine Lust mehr haben (werden), irgendwas ins Internet zu stellen, wenn sie keine Klicks und damit Ruf und Geld generieren können, da die KI das ja bereits eingesaugt hat und in einem "Chat" einfach auskotzt. Wozu sollte ich BornsBlog noch ansurfen, wenns ein einfaches Prompt auch hergibt? Ggf. sogar kürzer aber prägnanter?
Das kann ich komplett nachvollziehen und sehe auch, warum bspw. SO damit ernsthafte Probleme bekommen könnte/wird. Gibt bereits Stats (sorry, wenn ich eure Links nicht gelesen hab) online, die belegen dass online "Fragen und Antworten" massiv zurückgehen.
Denn: ohne Menschen (und deren Intelligenz), gäbe es keine KI(bzw. sie hätte keinen Content). Ohne uns - keine KI.
KI sorgt aber dafür, dass wir bald nichts mehr online stellen werden, weil: warum auch!? Das Individuum hat nichts mehr davon.
Also: Je mehr KI, desto weniger KI? Paradox.
Gruß
Edita:
das Problem von KI ist, dass die User (bald) keine Lust mehr haben (werden), irgendwas ins Internet zu stellen, wenn sie keine Klicks und damit Ruf und Geld generieren können, da die KI das ja bereits eingesaugt hat und in einem "Chat" einfach auskotzt. Wozu sollte ich BornsBlog noch ansurfen, wenns ein einfaches Prompt auch hergibt? Ggf. sogar kürzer aber prägnanter?
Das kann ich komplett nachvollziehen und sehe auch, warum bspw. SO damit ernsthafte Probleme bekommen könnte/wird. Gibt bereits Stats (sorry, wenn ich eure Links nicht gelesen hab) online, die belegen dass online "Fragen und Antworten" massiv zurückgehen.
Denn: ohne Menschen (und deren Intelligenz), gäbe es keine KI(bzw. sie hätte keinen Content). Ohne uns - keine KI.
KI sorgt aber dafür, dass wir bald nichts mehr online stellen werden, weil: warum auch!? Das Individuum hat nichts mehr davon.
Also: Je mehr KI, desto weniger KI? Paradox.
Gruß
Edita:
Stimme ich zu! Es heißt nämlich stetig face-wink
shhhhh ;)
Ich bin eine Ein-Mann Firma und betreue Kunden in der Größenordnung 1-30 Arbeitsplätze.
Ich nutze KI nun häufiger für Websuchen - die Suchmaschinen sind durch SEO Tuning und allgegenwärtige Werbung fast komplett nutzlos geworden. Daneben finde ich es sehr lehrreich, wenn man sich kleinere Scripte schreiben und erklären lässt, auch weil es schnell geht und man - im Gegensatz zu Forenpostings - direkt Feedback bekommt.
Ich nutze Grok (ist in meinem X Abo drin), ChatGPT und Perplexity (gab es mal für ein Jahr kostenlos für Telekom Kunden). Aber ich nutze diese Tools immer noch eher selten, mir ist die Kommunikation mit echten Menschen lieber. Trotzdem finde ich die Technologie beindruckend, habe aber auch gehörigen Respekt davor. Ich hoffe einfach nur, dass das nicht alles aus dem Ruder läuft.
Ich nutze KI nun häufiger für Websuchen - die Suchmaschinen sind durch SEO Tuning und allgegenwärtige Werbung fast komplett nutzlos geworden. Daneben finde ich es sehr lehrreich, wenn man sich kleinere Scripte schreiben und erklären lässt, auch weil es schnell geht und man - im Gegensatz zu Forenpostings - direkt Feedback bekommt.
Ich nutze Grok (ist in meinem X Abo drin), ChatGPT und Perplexity (gab es mal für ein Jahr kostenlos für Telekom Kunden). Aber ich nutze diese Tools immer noch eher selten, mir ist die Kommunikation mit echten Menschen lieber. Trotzdem finde ich die Technologie beindruckend, habe aber auch gehörigen Respekt davor. Ich hoffe einfach nur, dass das nicht alles aus dem Ruder läuft.
Zitat von @maretz:
Ok - also wenn ich das jetzt richtig überflogen habe - Stack-Overflow spielt mit AI zusammen, die Benutzer löschen Content aber das ist die Schuld von AI? Finde ich schon etwas "spannend" als Theorie. Denn: Wenn morgen Frank auf die Idee kommt zu sagen er nimmt die Inhalte von hier für das Administrator-Magazin und ich meine Inhalte dann aus protest lösche - dann hat nicht das Magazin meine Inhalte gelöscht, das Magazin ist auch nicht verantwortlich das Inhalte verschwinden, ICH bin dafür verantwortlich. Und auch da: Es steht mir ja frei das zu tun weil ich das ggf. nicht unterstützen will - ABER wenn es dann nicht der Grund "Magazin" ist, dann eben "AI" oder irgendein Benutzer der mir nicht passt, ... Am Ende würde ich sagen es ist wenn überhaupt die "Schuld" des Seiten-Betreibers - nämlich wie man es "verkauft" und welche Möglichkeiten es gibt. Es wäre ja GRADE bei einer gewollten Zusammenarbeit ein leichtes zu sagen "ich mach nen Flag - wenn ein Benutzer nicht will setzt er das und seine Inhalte gehen nicht an AI"
Also - aus meiner sicht sind die Inhalte eben nicht durch AI verloren gegangen, sondern durch Menschen...
Ok - also wenn ich das jetzt richtig überflogen habe - Stack-Overflow spielt mit AI zusammen, die Benutzer löschen Content aber das ist die Schuld von AI? Finde ich schon etwas "spannend" als Theorie. Denn: Wenn morgen Frank auf die Idee kommt zu sagen er nimmt die Inhalte von hier für das Administrator-Magazin und ich meine Inhalte dann aus protest lösche - dann hat nicht das Magazin meine Inhalte gelöscht, das Magazin ist auch nicht verantwortlich das Inhalte verschwinden, ICH bin dafür verantwortlich. Und auch da: Es steht mir ja frei das zu tun weil ich das ggf. nicht unterstützen will - ABER wenn es dann nicht der Grund "Magazin" ist, dann eben "AI" oder irgendein Benutzer der mir nicht passt, ... Am Ende würde ich sagen es ist wenn überhaupt die "Schuld" des Seiten-Betreibers - nämlich wie man es "verkauft" und welche Möglichkeiten es gibt. Es wäre ja GRADE bei einer gewollten Zusammenarbeit ein leichtes zu sagen "ich mach nen Flag - wenn ein Benutzer nicht will setzt er das und seine Inhalte gehen nicht an AI"
Also - aus meiner sicht sind die Inhalte eben nicht durch AI verloren gegangen, sondern durch Menschen...
Immer mehr Menschen fragen KI Bots anstatt hier im Forum zu schreiben. Forum wird weniger besucht, dadurch werden weniger neue Inhalte generiert bis das Forum kompett schließt. KI gewinnt, bekommt aber zukünftig kein neues Wissen. Wir alle sind dadurch im Nachteil.
Immer mehr Menschen fragen KI Bots anstatt hier im Forum zu schreiben. Forum wird weniger besucht, dadurch werden weniger neue Inhalte generiert
Sehe ich auch so, siehe z.B. Stack Overflow

Dazu kommt auch, dass Chatbots auf diversen Plattformen (qualitativ minderwertig) posten, was in Zukunft für das Training neuer LLMs verwendet wird.. ein Teufelskreis.
Zitat von @heilgecht:
Immer mehr Menschen fragen KI Bots anstatt hier im Forum zu schreiben. Forum wird weniger besucht, dadurch werden weniger neue Inhalte generiert bis das Forum kompett schließt. KI gewinnt, bekommt aber zukünftig kein neues Wissen. Wir alle sind dadurch im Nachteil.
Immer mehr Menschen fragen KI Bots anstatt hier im Forum zu schreiben. Forum wird weniger besucht, dadurch werden weniger neue Inhalte generiert bis das Forum kompett schließt. KI gewinnt, bekommt aber zukünftig kein neues Wissen. Wir alle sind dadurch im Nachteil.
Deshalb oben der Vergleich zur Musik - dasselbe hat nämlich die Musik-Industrie schon mehrfach gesagt... Einführung der Kassette (mit Aufnahmefunktion), Einführung der CD-R, Musik-Tauschbörsen,...
Ich weiss nicht warum ihr das so nachteilig seht? Also nochmal - ja natürlich, Seiten die sich nicht verändern und/oder einen Mehrwert anbieten bekommen ein Problem. Eben genauso wie der Musiker der ne CD in den Laden wirft und aufs grosse Geld hofft. Genauso wie der 08/15-Händler der versucht gegen Online-Shopping anzukommen. DAS ist keine Erfindung von KI/AI. Und dasselbe gilt für die Webseiten - natürlich wird erstmal weniger gefragt (da die ein oder andere Frage ja eben schon vorher über KI/AI beantwortet wurde). Und natürlich werden auch einige Antworten weniger werden - weil man eben seinen Content nicht morgen bei $AI-Anbieter sehen will, weil man eben ggf. sogar seine Geld "mit Wissen" verdient,... Nur: Genauso wie in jedem anderem Bereich müssen halt die Webseitenbetreiber sich was einfallen lassen wie deren Seite eben auch bei AI trotzdem einen Mehrwert bieten kann. Genauso wie eben der Fachhändler für Elektronik auch heute noch neben MediaMarkt usw, und auch gegen Online-Angebote existiert - da ist es eben die Beratung als Zusatzmerkmal. Bei Musik ist es eben die Möglichkeit heute für nen paar Euro eben NICHT die selbstgebrannte CD (oder sogar Kassette) mitnehmen zu müssen - sondern App starten und laufen lassen. Ich drehe die Frage hier jetzt mal um - wo würden wir heute bei Musik wohl stehen wenn die Industrie eben _nicht_ gezwungen worden sich anzupassen? Wer glaubt die Industrie hätte da freiwillig das "experiment" MP3 und/oder Streaming gewagt?
Ich kann mich also hinstellen und alles schwarz malen. AI/KI zerlegt nicht nur Foren, auch der Job des Admins, SW-Entwicklers,... kann zu einem grossteil damit durch eine "Aushilfe" erledigt werden wenn man nur weiss wie man fragen muss (und selbst das ging auch vor AI/KI schon - wie viele Fragen hier beweisen bei denen Leute Aufträge angenommen haben aber offentsichtlich nicht mal grundlegend verstehen wie es funktioniert). ODER ich sehe es eben Positiv - JA, es wird Veränderungen erzeugen und JA, nicht jede Seite wird das überstehen - aber dafür gibt es eben ggf. wieder einen Mehrwert. Und nehmen wir nur mal diese Seite hier - und ein sehr einfaches Beispiel: NEBEN den Infos gibt es hier ne Jobbörse - ein Teil der bei AI relativ sinnfrei ist da es idR. recht kurzfristige Infos sind bis die Stellen neu vergeben werden. Man könnte jetzt zB. noch nen Schritt weitergehen - "Projektsharing" für die "Einzelkämpfer" hier die mal Urlaub machen wollen oder "Auftragsarbeit" eben für die Leute die mal wieder nen Auftrag angenommen haben aber nich wissen wie es geht... Schon hast du wieder Mehrwerte geschaffen (und ich glaube da gibt es noch erheblich bessere Ideen) - und der kann durch AI eben nich abgelöst werden. Denn bei AI kann ich zwar fragen - aber die wird mir eben schwer sagen können welcher Einzelkämpfer jetzt grad mal ne Woche Zeit hat weil ich grad krank geworden bin aber der Auftrag XYZ nicht warten kann (und nur um es klarzustellen - nein, ich bin nicht selbstständig, ich bin Angestellt... nich das jetzt jemand denkt "oh, der is krank, ich kanns ja mal anbieten"!)...
Und ja - Neue Techniken bringen immer gute und schlechte Veränderungen... Angefangen bei der Entdeckung des Feuers (gab plötzlich warme Nahrung...gut... man konnte dem Nachbarn die Hütte abfackeln... nich so doll... und im Mittelalter soll die ein oder andere Frau auch die Entdeckung des Feuers nich soo geil gefunden haben). Sprengstoffe (in welcher Form auch immer) - im Airbag was gutes, da wo sich aktuell grad wieder irgendwelche Vollidi**en mit Raketen beschiessen eher weniger gut... Warum sollte es bei AI also irgendwie anders laufen?!?
Ich nutz AI-Prompts im Grunde als verbesserte Suchmaschine.
Wenns jetzt sehr spezifisch für die eigene Arbeit ist, wirds eher schwierig, weil die AI da oft gar nix mit anfangen kann.
Aber generell und anonymisiert kann die AI schon den einen oder anderen Schubs in die richtige Richtung geben.
Übersetzungs-AI und Schreib-vernünftig-AI à la Deepl ist aber hin und wieder schon sehr brauchbar, wenns um professionelle Schreiben geht.
Ich seh halt AI als reines Werkzeug. Alles, was ich da als Ausgabe erhalte ist ein Vorschlag. Das ist wie Wikipedia mit verbesserten Suchoptionen.
Mit claude.ai habe ich schon das eine oder andere Zwiegespräch gehalten, wenn mal ein Skript nicht funktioniert. Nicht immer erhalte ich da eine funktionierende Lösung. Aber oftmals ist der gute alte Claude schon brauchbar.
Wenns jetzt sehr spezifisch für die eigene Arbeit ist, wirds eher schwierig, weil die AI da oft gar nix mit anfangen kann.
Aber generell und anonymisiert kann die AI schon den einen oder anderen Schubs in die richtige Richtung geben.
Übersetzungs-AI und Schreib-vernünftig-AI à la Deepl ist aber hin und wieder schon sehr brauchbar, wenns um professionelle Schreiben geht.
Ich seh halt AI als reines Werkzeug. Alles, was ich da als Ausgabe erhalte ist ein Vorschlag. Das ist wie Wikipedia mit verbesserten Suchoptionen.
Mit claude.ai habe ich schon das eine oder andere Zwiegespräch gehalten, wenn mal ein Skript nicht funktioniert. Nicht immer erhalte ich da eine funktionierende Lösung. Aber oftmals ist der gute alte Claude schon brauchbar.
Ich gehöre dann wohl eher zur kritischen Fraktion.....
KI soll stumpfe Fleißarbeiten erledigen.....die kniffligen Dinge, in die ich mich reinfuchsen muss, will ich schon selber machen. Aber selbständiges Denken ist ja heute immer weniger gefragt....warum auch, wo die öffentlichen KI's es den Menschen doch so einfach machen.
Aber so lange die KI nicht meine Wäsche wäscht, das Haus putzt und die Gartenarbeit erledigen kann, ist die für mich im Alltag eher nutzlos.
Just my 2 Cents.
KI soll stumpfe Fleißarbeiten erledigen.....die kniffligen Dinge, in die ich mich reinfuchsen muss, will ich schon selber machen. Aber selbständiges Denken ist ja heute immer weniger gefragt....warum auch, wo die öffentlichen KI's es den Menschen doch so einfach machen.
Aber so lange die KI nicht meine Wäsche wäscht, das Haus putzt und die Gartenarbeit erledigen kann, ist die für mich im Alltag eher nutzlos.
Just my 2 Cents.
Zitat von @Looser27:
Ich gehöre dann wohl eher zur kritischen Fraktion.....
KI soll stumpfe Fleißarbeiten erledigen.....die kniffligen Dinge, in die ich mich reinfuchsen muss, will ich schon selber machen. Aber selbständiges Denken ist ja heute immer weniger gefragt....warum auch, wo die öffentlichen KI's es den Menschen doch so einfach machen.
Aber so lange die KI nicht meine Wäsche wäscht, das Haus putzt und die Gartenarbeit erledigen kann, ist die für mich im Alltag eher nutzlos.
Just my 2 Cents.
Ich gehöre dann wohl eher zur kritischen Fraktion.....
KI soll stumpfe Fleißarbeiten erledigen.....die kniffligen Dinge, in die ich mich reinfuchsen muss, will ich schon selber machen. Aber selbständiges Denken ist ja heute immer weniger gefragt....warum auch, wo die öffentlichen KI's es den Menschen doch so einfach machen.
Aber so lange die KI nicht meine Wäsche wäscht, das Haus putzt und die Gartenarbeit erledigen kann, ist die für mich im Alltag eher nutzlos.
Just my 2 Cents.
Die KI erleichtert/beschleunigt mir einfache Arbeiten (z.B. Skripte schreiben), damit ich mich auf höherwertigere und wichtigere Tätigkeiten konzentrieren kann. Würde die KI arbeiten erledigen können, die ich für mich als hochwertig und wichtig bezeichne, und diese Arbeiten einen Großteil meines Berufs ausmachen, würde ich anfangen mir Sorgen zu machen
Zitat von @Looser27:
Ich gehöre dann wohl eher zur kritischen Fraktion.....
KI soll stumpfe Fleißarbeiten erledigen.....die kniffligen Dinge, in die ich mich reinfuchsen muss, will ich schon selber machen. Aber selbständiges Denken ist ja heute immer weniger gefragt....warum auch, wo die öffentlichen KI's es den Menschen doch so einfach machen.
Aber so lange die KI nicht meine Wäsche wäscht, das Haus putzt und die Gartenarbeit erledigen kann, ist die für mich im Alltag eher nutzlos.
Just my 2 Cents.
Ich gehöre dann wohl eher zur kritischen Fraktion.....
KI soll stumpfe Fleißarbeiten erledigen.....die kniffligen Dinge, in die ich mich reinfuchsen muss, will ich schon selber machen. Aber selbständiges Denken ist ja heute immer weniger gefragt....warum auch, wo die öffentlichen KI's es den Menschen doch so einfach machen.
Aber so lange die KI nicht meine Wäsche wäscht, das Haus putzt und die Gartenarbeit erledigen kann, ist die für mich im Alltag eher nutzlos.
Just my 2 Cents.
Nun - es ist doch einfach: Wirklich "knifflige" Dinge KANN KI/AI nicht lösen - wie auch? Das ding ist am Ende (vereinfacht) statistik - und wenn ich eben ein sehr spezielles Problem ggf. in einer speziellen Umgebung habe gibt es dafür eben keine Statistik die hilft... Und selbst bei weniger speziellen Dingen -> bis man das Problem der KI vollständig erklärt hat ist es ggf. schneller das direkt selbst zu machen, speziell wenn man eben irgendwelche Bedingungen machen muss (die gerne genommene Reinigungskraft die eben nen Stecker zieht -> DAS kann eine AI nicht wirklich lösen da man sich eben ggf. mitm Stuhl neben den Server setzen muss um zu sehen WARUM der Server aus geht ... die KI/AI kann das nunmal nicht).
Zitat von @maretz:
... KI nimmt inhalte weg? Also - wenn du soooo oldschool bist -> kommen die folgende Aussagen bekannt vor?
"Recording kills Music" (Anfänge der Kassetten und entsprechender Aufnahmegeräte)
"MP3 wird Musik töten" (als dann MP3 rauskam)
"Filesharing wird die Film- und Musikindustrie zerstören" (Napster, Bittorrent,... suchs dir aus)
"Internet wird die Presse zerstören" (speziell über Newsseiten), kurz später "Paywalls zerstören das Internet"...
Und das ist jetzt nur ein kurzer Auszug von dem was alles schon zerstört wurde und verschwunden ist... ist jetzt etwas merkwürdig weil allein beim Schreiben hier aus meinem Kopfhörer irgendwas rauskommt was sich wie Musik anhört - aber die ist ja schon seid mind. irgendwo so um 80er Jahre tod?!?
... KI nimmt inhalte weg? Also - wenn du soooo oldschool bist -> kommen die folgende Aussagen bekannt vor?
"Recording kills Music" (Anfänge der Kassetten und entsprechender Aufnahmegeräte)
"MP3 wird Musik töten" (als dann MP3 rauskam)
"Filesharing wird die Film- und Musikindustrie zerstören" (Napster, Bittorrent,... suchs dir aus)
"Internet wird die Presse zerstören" (speziell über Newsseiten), kurz später "Paywalls zerstören das Internet"...
Und das ist jetzt nur ein kurzer Auszug von dem was alles schon zerstört wurde und verschwunden ist... ist jetzt etwas merkwürdig weil allein beim Schreiben hier aus meinem Kopfhörer irgendwas rauskommt was sich wie Musik anhört - aber die ist ja schon seid mind. irgendwo so um 80er Jahre tod?!?
dem entgegne ich:
Denken ist wie Googeln, nur Krasser
Was demnach KI Nutzen ist, was deutlich ne stufe unter Googeln ist... nunja
Und nein, deinen Sätzen oben habe ich nie zugestimmt....
Kollege @maretz, Deine "nichts geht verloren"-Bemerkung ist ein bisschen hingebogen. Natürlich gehen mit jeder vermeintlichen Evolutionsstufe Dinge verloren und die Gefahr besteht immer. Oft werden Dinge nur anders, aber manchmal verschwinden sie auch zum Nachteil der Menschen. Und man merkt den Verlust erst, wenn es zu spät ist.
Oft sind wir zu innovationsbegeistert, um zu merken, was uns genommen wird. Bis es zu spät ist.
Du hast das oben teils schon kurz angesprochen und als normalen Entwicklungsprozess dargestellt. Das ist er aber längst nicht mehr und die KI - bei allem Nutzen - beschleunigt das Problem.
Ich erspare uns hier mögliche Beispiele. Jeder weiß sicher, was ich meine und hat eigene dafür. Die wachsende Prekarisierung einer ehemals (ausgeglichener) auskömmlichen Arbeitswelt ist IMO schon jetzt an jeder Ecke zu betrachten. Lange wurde diese mit dem Begriff der Einkommensschere (eher verharmlosend) umschrieben. Die Prekarisierung der Meinungswelt hat uns den Populismus beschert. Aber bleiben wir @topic:
"KI nimmt Inhalte weg":
Das sehen wir schon real an der Frequenz in diesem Forum - und jeder der KI nutzt, wird das bestätigen (oben sind ja vom Kollegen @CamelCase ja schon ein paar Grafiken zugereicht worden.
Die KI schadet sich - entgegen vielfältiger Auffassung/Hoffnung/Schwarzmalerei - IMO nicht selbst, obgleich sie das Inhaltswachstum des WWW 2.0 bereits jetzt ersichtlich reduziert. Denn: Die KI wächst ja trotzdem - durch die Interaktion mit ihren Usern. Die KI (besser gesagt: Der Konzern) bekommt also weiter den Input. Der Unterschied ist eben, dass nun der Konzern den Input hat - nicht mehr die Allgemeinheit. Das ist doppelt günstig, weil auf diese Weise das Oligopol oder gar Monopol beschleunigt wird, denn wer jetzt nicht dabei ist, wird nie eine Chance auf die selben Inhalte haben.
Wir geben also eine weitere "Open Source-Quelle" auf und begeben uns in die geistige Abhängigkeit von Großkonzernen. Und das auf eine nie dagewesene Weise. Wer sich heute noch etwas Sensitivität dafür gewahrt hat, sieht, wie abhängig die Welt von MS-Word ist, obgleich ganz viele diese Abhängigkeit nicht mögen und es Alternativen gibt. Einzig, aus dem Strudel rauszukommen ist ein Kraftakt, der weit über den Wechsel der Textsoftware hinaus geht. KI ist geeignet derartige Abhängigkeiten schneller und stärker zu erzeugen als je eine Technologie zuvor. Und diese Technologie wird sehr wahrscheinlich am Ende von einem oder wenigen Weltkonzernen dominiert sein.
Das das einigen Sorgen bereitet ist weit weniger verwunderlich als dass es einigen scheinbar keine Sorgen bereitet. Das Problem ist nicht die (Technik der) KI an sich. Das Problem ist, das sie in der Hand von wenigen Konzernen ist und Konzerne (meist) anders mit Menschen/Gesellschaften umgehen, als verteiltere Strukturen. Und wie wir ja hübsch in den USA sehen, besteht eine gewisse Machtaffinität, was die Sorgen nicht mindern dürfte.
Viele Grüße, commodity
Oft sind wir zu innovationsbegeistert, um zu merken, was uns genommen wird. Bis es zu spät ist.
Du hast das oben teils schon kurz angesprochen und als normalen Entwicklungsprozess dargestellt. Das ist er aber längst nicht mehr und die KI - bei allem Nutzen - beschleunigt das Problem.
Ich erspare uns hier mögliche Beispiele. Jeder weiß sicher, was ich meine und hat eigene dafür. Die wachsende Prekarisierung einer ehemals (ausgeglichener) auskömmlichen Arbeitswelt ist IMO schon jetzt an jeder Ecke zu betrachten. Lange wurde diese mit dem Begriff der Einkommensschere (eher verharmlosend) umschrieben. Die Prekarisierung der Meinungswelt hat uns den Populismus beschert. Aber bleiben wir @topic:
"KI nimmt Inhalte weg":
Das sehen wir schon real an der Frequenz in diesem Forum - und jeder der KI nutzt, wird das bestätigen (oben sind ja vom Kollegen @CamelCase ja schon ein paar Grafiken zugereicht worden.
Die KI schadet sich - entgegen vielfältiger Auffassung/Hoffnung/Schwarzmalerei - IMO nicht selbst, obgleich sie das Inhaltswachstum des WWW 2.0 bereits jetzt ersichtlich reduziert. Denn: Die KI wächst ja trotzdem - durch die Interaktion mit ihren Usern. Die KI (besser gesagt: Der Konzern) bekommt also weiter den Input. Der Unterschied ist eben, dass nun der Konzern den Input hat - nicht mehr die Allgemeinheit. Das ist doppelt günstig, weil auf diese Weise das Oligopol oder gar Monopol beschleunigt wird, denn wer jetzt nicht dabei ist, wird nie eine Chance auf die selben Inhalte haben.
Wir geben also eine weitere "Open Source-Quelle" auf und begeben uns in die geistige Abhängigkeit von Großkonzernen. Und das auf eine nie dagewesene Weise. Wer sich heute noch etwas Sensitivität dafür gewahrt hat, sieht, wie abhängig die Welt von MS-Word ist, obgleich ganz viele diese Abhängigkeit nicht mögen und es Alternativen gibt. Einzig, aus dem Strudel rauszukommen ist ein Kraftakt, der weit über den Wechsel der Textsoftware hinaus geht. KI ist geeignet derartige Abhängigkeiten schneller und stärker zu erzeugen als je eine Technologie zuvor. Und diese Technologie wird sehr wahrscheinlich am Ende von einem oder wenigen Weltkonzernen dominiert sein.
Das das einigen Sorgen bereitet ist weit weniger verwunderlich als dass es einigen scheinbar keine Sorgen bereitet. Das Problem ist nicht die (Technik der) KI an sich. Das Problem ist, das sie in der Hand von wenigen Konzernen ist und Konzerne (meist) anders mit Menschen/Gesellschaften umgehen, als verteiltere Strukturen. Und wie wir ja hübsch in den USA sehen, besteht eine gewisse Machtaffinität, was die Sorgen nicht mindern dürfte.
Viele Grüße, commodity
Ok - wie du an sich selbst sagst - innovation bedeutet nunmal auch das teils Dinge verloren gehen. Auch das ist nicht ungewöhnlich und nix KI-Spezifisches. Allerdings ist eben deine Darstellungsweise m.E. auch sehr einseitig. Zum einen befindet sich "die" KI eben nicht irgendwo - da es nicht "die eine" gibt. Zum anderen geht natürlich hier zwar auch wissen verloren - andersrum entstehen aber auch wieder neue Möglichkeiten (z.B. via Google Lens kann ich sogar chinesische Texte gut genug lesen um den Sinn dahinter zu verstehen).
Und natürlich gibt es Veränderungen - genauso wie bei jeder neuen Technik. Bevor das Internet flächendeckend vorhanden war wurde halt Papier durch die Gegend geschickt, ggf. mal nen Fax wenns dringend war. Aber es hat eben kaum einer 5 Min nach Versand angerufen "hast du das schon gelesen"? Nur: Das ist doch eben nix ungewöhnliches - "googeln" hat sich eben mittlerweile als Wort für "im Internet suchen" durchaus verbreitet, ich vermute mal grad bei den Kiddys muss man schon suchen damit man jemand findet der ne Bücherrei von innen gesehen hat (und das ggf. sogar in der Freizeit).
Natürlich kannst du sicher auch bei Foren usw. sehen das Leute wegbleiben weils über KI schneller geht - daher ja wie mehrfach erwähnt die Frage ob sich denn ein Forum in dieser Form denn halten MUSS? Es muss eben auch nen gewissen Mehrwert geben. Aber auch das ist doch nix "KI"-spezifisches. Wenn ich mich heute in mein Auto setze erwarte ich eben auch kein Radio mehr mit drehknöpfen um den Sender zu suchen - und wenn heute ein Anbieter sowas noch verkaufen wollte würde das vermutlich auch bei den meisten im Regal liegen gelassen werden, es wird da eben auch nen modernes Radio erwartet. Es gibt eben eher wenig Bereiche wo es _keine_ Veränderungen gibt - und mit jeder Veränderung gehen eben für gewöhnlich auch Dinge verloren (im Beispiel des Radios hast du heute vermutlich eher wenig "Lang- und Mittelwelle", wenns da überhaupt noch ne Station gibt die da sendet)
Am Ende ist es aber doch ganz einfach: Wir können uns hinsetzen und ins Glas heulen das die KI kaputt macht - ändern werden wir das nunmal nicht. Dann also sehen wie man damit umgeht... Mich persönlich stört eben nur ein wenig das ich fast alle Argumente die man so hört schon zig mal gehört habe... Bei der Kassette das die Musikindustrie zerstört wird, bei Google das "Menschen zu blöd werden",... Dieselben Argumente kommen jetzt halt alle wieder - und irgendwie befürchte ich das dieselben Argumente auch in 5 Jahren wiederkommen werden - was auch immer dann die nächste Erweiterung ist....
Und natürlich gibt es Veränderungen - genauso wie bei jeder neuen Technik. Bevor das Internet flächendeckend vorhanden war wurde halt Papier durch die Gegend geschickt, ggf. mal nen Fax wenns dringend war. Aber es hat eben kaum einer 5 Min nach Versand angerufen "hast du das schon gelesen"? Nur: Das ist doch eben nix ungewöhnliches - "googeln" hat sich eben mittlerweile als Wort für "im Internet suchen" durchaus verbreitet, ich vermute mal grad bei den Kiddys muss man schon suchen damit man jemand findet der ne Bücherrei von innen gesehen hat (und das ggf. sogar in der Freizeit).
Natürlich kannst du sicher auch bei Foren usw. sehen das Leute wegbleiben weils über KI schneller geht - daher ja wie mehrfach erwähnt die Frage ob sich denn ein Forum in dieser Form denn halten MUSS? Es muss eben auch nen gewissen Mehrwert geben. Aber auch das ist doch nix "KI"-spezifisches. Wenn ich mich heute in mein Auto setze erwarte ich eben auch kein Radio mehr mit drehknöpfen um den Sender zu suchen - und wenn heute ein Anbieter sowas noch verkaufen wollte würde das vermutlich auch bei den meisten im Regal liegen gelassen werden, es wird da eben auch nen modernes Radio erwartet. Es gibt eben eher wenig Bereiche wo es _keine_ Veränderungen gibt - und mit jeder Veränderung gehen eben für gewöhnlich auch Dinge verloren (im Beispiel des Radios hast du heute vermutlich eher wenig "Lang- und Mittelwelle", wenns da überhaupt noch ne Station gibt die da sendet)
Am Ende ist es aber doch ganz einfach: Wir können uns hinsetzen und ins Glas heulen das die KI kaputt macht - ändern werden wir das nunmal nicht. Dann also sehen wie man damit umgeht... Mich persönlich stört eben nur ein wenig das ich fast alle Argumente die man so hört schon zig mal gehört habe... Bei der Kassette das die Musikindustrie zerstört wird, bei Google das "Menschen zu blöd werden",... Dieselben Argumente kommen jetzt halt alle wieder - und irgendwie befürchte ich das dieselben Argumente auch in 5 Jahren wiederkommen werden - was auch immer dann die nächste Erweiterung ist....
Ich denke, man sollte hier mal mit einigen Begrifflichkeiten arbeiten. Wenn man das hier durchliest, sieht man, dass mit KI sehr viel gemeint sein kann. Die meisten beziehen sich aber eigentlich nur auf LLMs oder Diffusion Models (Text-to-Picture etc.)
LLMs sind stand heute nix anderes als eine Suchmaschine die Text in der Suchanfrage versteht und die Suchergebnisse in einen lesbaren Text bringt. Vernünftige LLMs geben dabei dann auch die Quellen an. Gleiches kann man auch erreichen, wenn man mehrere Suchmaschinen betätigt und dann das Ergebnis selber in einen Text umschreibt.
Wie auch bei den Suchmaschinen gibt das falsche Treffer und auch vermeintlich richtige Ergebnisse. Ein Nachrecherchieren bleibt nicht aus. Nur weil es im Internet geschreiben wurde, ist es nicht automatisch richtig. Gilt für Suchmaschinene, Wikis, LLMs.
In meinen Augen besteht der Riesenvorteil bei LLMs darin, dass man sich ziemlich vage und umgangssprachlich ausdrücken kann, das LLM aber doch zu einem sehr hohen Prozentsatz genau das richtige rausfindet. Oft genug findet man hier im Forum ja auch Anfragen und dann mit einem Text, dass sie nicht richtig wussten, nach was sie genau suchen müssten.
Bei den Diffusion Models wirds aber schon spannender. Die werden ja als "kreativ" verkauft. Und ja, sie werden immer besser. Da sind wir momentan an dem Punkt angelangt, wo Fragen zu Inhaber- und Lizenzrechten laut werden. Das wird mit Sicherheit auch zu einem Großteil geklärt werden. Nur eben jetzt noch nicht. Man muss sich nur vor Augen halten, dass Verlage jetzt noch immer streiten, wie denn die Sache mit Newsseiten ist, die Nachrichten aus mehreren Quellen gebündelt angeben.
Ganz spannend sind die Sachen, bei denen Diffusions Models mit LLMs "gekoppelt" werden. So kann man bei einem Prompt ein Bild einfügen und man erhält Auskunft über den Inhalt des Bildes. Memes werden zum einen Übersetzt und zum anderen wird erklärt, worauf das Meme anspielt.
Und auch rein im LLM-Bereich sind die Skript-Ergebnisse zunehmend brauchbarer. Dabei wirds aber sehr deutlich, dass man das nur als Vorschlag sehen sollte. Im umgekehrten Fall, dem De-Bugging, sind die Erfolge gleich viel größer. Zumindest gefühlt. Da sind wir dann wieder bei der Arbeitserleichterung.
LLMs sind stand heute nix anderes als eine Suchmaschine die Text in der Suchanfrage versteht und die Suchergebnisse in einen lesbaren Text bringt. Vernünftige LLMs geben dabei dann auch die Quellen an. Gleiches kann man auch erreichen, wenn man mehrere Suchmaschinen betätigt und dann das Ergebnis selber in einen Text umschreibt.
Wie auch bei den Suchmaschinen gibt das falsche Treffer und auch vermeintlich richtige Ergebnisse. Ein Nachrecherchieren bleibt nicht aus. Nur weil es im Internet geschreiben wurde, ist es nicht automatisch richtig. Gilt für Suchmaschinene, Wikis, LLMs.
In meinen Augen besteht der Riesenvorteil bei LLMs darin, dass man sich ziemlich vage und umgangssprachlich ausdrücken kann, das LLM aber doch zu einem sehr hohen Prozentsatz genau das richtige rausfindet. Oft genug findet man hier im Forum ja auch Anfragen und dann mit einem Text, dass sie nicht richtig wussten, nach was sie genau suchen müssten.
Bei den Diffusion Models wirds aber schon spannender. Die werden ja als "kreativ" verkauft. Und ja, sie werden immer besser. Da sind wir momentan an dem Punkt angelangt, wo Fragen zu Inhaber- und Lizenzrechten laut werden. Das wird mit Sicherheit auch zu einem Großteil geklärt werden. Nur eben jetzt noch nicht. Man muss sich nur vor Augen halten, dass Verlage jetzt noch immer streiten, wie denn die Sache mit Newsseiten ist, die Nachrichten aus mehreren Quellen gebündelt angeben.
Ganz spannend sind die Sachen, bei denen Diffusions Models mit LLMs "gekoppelt" werden. So kann man bei einem Prompt ein Bild einfügen und man erhält Auskunft über den Inhalt des Bildes. Memes werden zum einen Übersetzt und zum anderen wird erklärt, worauf das Meme anspielt.
Und auch rein im LLM-Bereich sind die Skript-Ergebnisse zunehmend brauchbarer. Dabei wirds aber sehr deutlich, dass man das nur als Vorschlag sehen sollte. Im umgekehrten Fall, dem De-Bugging, sind die Erfolge gleich viel größer. Zumindest gefühlt. Da sind wir dann wieder bei der Arbeitserleichterung.
Zitat von @charlesrhoward:
Was mir fehlt: Eine Diskussion darüber, wie man KI sinnvoll integriert, ohne sie zur Krücke für Fachlich-Überforderte zu machen. Denn genau da scheint’s momentan oft hinzudriften.
Ohne all das gelesen zu haben, meine Erfahrung. KI Dienstleister stürmen die Firmen:Was mir fehlt: Eine Diskussion darüber, wie man KI sinnvoll integriert, ohne sie zur Krücke für Fachlich-Überforderte zu machen. Denn genau da scheint’s momentan oft hinzudriften.
"Ihr MÜSST euch JETZT auf KI vorbereiten, sonst verliert ihr den Anschluss!!eins!!elf!.
Viele Unternehmer sind quasi schon verrückt. Aber wenn ich diese dann frage, was genau soll bei dir denn von KI abgelöst/optimiert werden, dann kommt nix. Und von der Gegenseite ebensowenig, außer dem Anspruch, erstmal alle Unternehmensdaten und -prozesse ausleuchten zu wollen.
Dann sage ich einfach: Abwarten, Tee trinken, irgendwann kommt dein Softwarehersteller und pflanzt dir was mit KI ein, etwas vielleicht sogar sinnvolles, weshalb du aber die neue (teurere) Version kaufen musst, aber am Ende Zeit gespart wird. Da wo sowieso nur low performer sitzen, haben diese dann noch weniger Produktives zu tun.
So genannt auch der neue Button in Outlook, der E-Mails per Knopfdruck übersetzt. Wenn man etwas googelt, kommt man ggf. nun schneller ans Ziel. Alles andere ist irgendwie Panikmache, bei denen Unternehmer teils für Unbekanntes die Geldbörse aufmachen. Es gibt auch schwarze Schafe in der Herde.
Zitat von @charlesrhoward:
Ganz ehrlich: Ich glaube, wir reden uns die KI-Nutzung oft auch ein bisschen schön.
Ja, sie kann schneller und oft sogar sauberer Code liefern als so manche „Teamlösung“, die aus zusammengeklebten Stack-Overflow-Schnipseln besteht – keine Frage. Aber was sagt das eigentlich über den Zustand vieler Teams oder Prozesse aus? Wenn ein Prompt an ChatGPT mehr Qualität bringt als ein echter Kollege, dann läuft doch irgendwo gewaltig was schief.
Ich finde auch, dass das mit dem „Baggerfahrer ersetzt den Vorarbeiter“ nur bedingt passt. Ein Baggerfahrer weiß, wie man das Ding sicher bedient – ein Prompt-User, der nicht mal weiß, was ein Try-Catch ist, ballert sich im schlimmsten Fall halt ein kaputtes Skript in die Produktion.
Effizienz ersetzt eben kein Verständnis.
Zitat von @c.r.s.:
KI löst in erster Linie Delegierungsprobleme: Häufig ist klar, dass etwas geht und wie es geht. Diejenigen, denen das klar ist, haben aber derzeit nicht die Aufgabe, es selbst umzusetzen, weil das wirtschaftlich und zeitlich unmöglich ist.
Die Bearbeitung der Teilschritte in Team-Strukturen erfordert vorab schon einen großen Zeiteinsatz zur Abstimmung und zum Erreichen eines gemeinsamen Verständnisses. Zurück kommen Resultate unterschiedlicher Qualität: Fehlende Kommentare, fehlende Erläuterung/Dokumentation, hochfragile funktionale Minima ohne Fehler-/Ausnahmenbehandlung, Stückwerke aus Schnipseln von Stack Overflow und Co, gern auch Tabs und Leerzeichen gemischt, um keinen Zweifel am eigenen Arbeitseinsatz zu lassen.
Das kann KI in den verbreiteten Skript- und Programmiersprachen anhand isolierter Probleme schon besser. Es hat also keinen Zweck, sich dem zu verweigern, weil man zukünftig Arbeitsaufträge im eigenen Interesse entweder heruntergebrochen direkt an KI stellt oder - bei komplexeren Problemen - an Menschen, die KI bedienen können. Die Arbeiter mit Schaufeln und ihr Vorarbeiter werden durch Baggerfahrer ersetzt.
Eine Stärke von LLMs ist die Kombination von reichlich vorhandenem Faktenwissen. Alles, was anhand umfassender Dokumentation lösbar ist, wird für meine Zwecke verlässlich gelöst, z.B. PowerShell, Bash, Python, Cloud- und Netzwerk-CLIs. Auch verbreitete Logik- oder Effizienzkniffe in C/C++ werden gut integriert. Die "zweite Meinung" und die manchmal damit verbundene Überraschung sind dem Weg zu einer eleganten Lösung sehr hilfreich.
Bei Instruktionen für eher selten verwendete Tools werden Funktionen und Parameter erfunden. Dann ist auch nach Korrektur in der Regel kein Weiterkommen.
Über die Prompts muss man sich etwas Gedanken machen, um keine Suggestivfragen einzubauen und sich der eigentlichen Frage in Schritten zu nähern. Die Erwartung, ein Problem, für das ich KI verwende, durch eine einzelne Frage zu lösen, habe ich in der Regel nicht.
Datenschutz und Compliance sind keine KI-spezifischen Themen, sondern stellen sich genauso für Suchanfragen und Forenbeiträge. Unternehmen haben die Infrastruktur und Prozesse, das zu kontrollieren oder sie haben sie nicht. KI bietet nun zumindest die Chance, das, was bislang das Unternehmen über die genannten Kanäle verließ, intern zu halten.
Grüße
Richard
KI löst in erster Linie Delegierungsprobleme: Häufig ist klar, dass etwas geht und wie es geht. Diejenigen, denen das klar ist, haben aber derzeit nicht die Aufgabe, es selbst umzusetzen, weil das wirtschaftlich und zeitlich unmöglich ist.
Die Bearbeitung der Teilschritte in Team-Strukturen erfordert vorab schon einen großen Zeiteinsatz zur Abstimmung und zum Erreichen eines gemeinsamen Verständnisses. Zurück kommen Resultate unterschiedlicher Qualität: Fehlende Kommentare, fehlende Erläuterung/Dokumentation, hochfragile funktionale Minima ohne Fehler-/Ausnahmenbehandlung, Stückwerke aus Schnipseln von Stack Overflow und Co, gern auch Tabs und Leerzeichen gemischt, um keinen Zweifel am eigenen Arbeitseinsatz zu lassen.
Das kann KI in den verbreiteten Skript- und Programmiersprachen anhand isolierter Probleme schon besser. Es hat also keinen Zweck, sich dem zu verweigern, weil man zukünftig Arbeitsaufträge im eigenen Interesse entweder heruntergebrochen direkt an KI stellt oder - bei komplexeren Problemen - an Menschen, die KI bedienen können. Die Arbeiter mit Schaufeln und ihr Vorarbeiter werden durch Baggerfahrer ersetzt.
Eine Stärke von LLMs ist die Kombination von reichlich vorhandenem Faktenwissen. Alles, was anhand umfassender Dokumentation lösbar ist, wird für meine Zwecke verlässlich gelöst, z.B. PowerShell, Bash, Python, Cloud- und Netzwerk-CLIs. Auch verbreitete Logik- oder Effizienzkniffe in C/C++ werden gut integriert. Die "zweite Meinung" und die manchmal damit verbundene Überraschung sind dem Weg zu einer eleganten Lösung sehr hilfreich.
Bei Instruktionen für eher selten verwendete Tools werden Funktionen und Parameter erfunden. Dann ist auch nach Korrektur in der Regel kein Weiterkommen.
Über die Prompts muss man sich etwas Gedanken machen, um keine Suggestivfragen einzubauen und sich der eigentlichen Frage in Schritten zu nähern. Die Erwartung, ein Problem, für das ich KI verwende, durch eine einzelne Frage zu lösen, habe ich in der Regel nicht.
Datenschutz und Compliance sind keine KI-spezifischen Themen, sondern stellen sich genauso für Suchanfragen und Forenbeiträge. Unternehmen haben die Infrastruktur und Prozesse, das zu kontrollieren oder sie haben sie nicht. KI bietet nun zumindest die Chance, das, was bislang das Unternehmen über die genannten Kanäle verließ, intern zu halten.
Grüße
Richard
Ganz ehrlich: Ich glaube, wir reden uns die KI-Nutzung oft auch ein bisschen schön.
Ja, sie kann schneller und oft sogar sauberer Code liefern als so manche „Teamlösung“, die aus zusammengeklebten Stack-Overflow-Schnipseln besteht – keine Frage. Aber was sagt das eigentlich über den Zustand vieler Teams oder Prozesse aus? Wenn ein Prompt an ChatGPT mehr Qualität bringt als ein echter Kollege, dann läuft doch irgendwo gewaltig was schief.
Ich finde auch, dass das mit dem „Baggerfahrer ersetzt den Vorarbeiter“ nur bedingt passt. Ein Baggerfahrer weiß, wie man das Ding sicher bedient – ein Prompt-User, der nicht mal weiß, was ein Try-Catch ist, ballert sich im schlimmsten Fall halt ein kaputtes Skript in die Produktion.
Effizienz ersetzt eben kein Verständnis.
Nun - aber genau DA ist ja das Problem und du bringst es auch sehr schön auf den Punkt -> denn du hast leider heute zum einen genug die irgendwas halbfertiges auf den Markt werfen (vgl. Spielemarkt, das Spiel steht grad mal im Laden da is schon min. der erste Patch raus). Du hast eben auch genug die eben glauben "naja, häng ich nen Try-Catch rum" und nicht wissen wie grottig der Stil ist (und ja, ich mache es selbst oft genug so.. mit dem unterschied das mein Programm nicht für den Verkauf gedacht ist und primär meiner eigenen Arbeitserleicherung dient - wenn das absemmelt sitzt der Entwickler idR genau davor und kann sich über seinen sch... selbst ärgern).
Und genau da ist eben die KI durchaus etwas wo man sich auch mal ne zweite Meinung holen darf - es heisst ja nicht das man die Lösung "Copy/Paste-Mässig" übernehmen muss, es heisst aber durchaus das man sich seinen Kram auch selbst mal kritisch angucken darf... Und KI hat hier einen gewaltigen Vorteil -> selbst beim dümmsten Fehler wird die nich kommen und den Kollegen erzählen wie Blöd das doch war... Hier kann man eben durchaus mal etwas reinhauen was man 5 min später auch als geistigen Abfall bezeichnen würde OHNE das jemand sich drüber lustig macht oder es im nächsten Meeting erstmal die tolle Vorführung gibt...
Hier kann man eben durchaus mal etwas reinhauen was man 5 min später auch als geistigen Abfall bezeichnen würde
Zumindest wenn man sicher ist, dass es nicht - mit der Person hübsch verknüpft und gekonnt gefiltert - in 10 oder 20 Jahren in der Datenbank des zukünftigen (potentiellen) Arbeitgebers auftaucht... Oder wo auch immer. Oder als entsprechendes Indiz für die Entscheidung über die Uni-Zulassung (oder Arbeitsplatzzuweisung) der Kinder. Der Fantasie sind da kaum Grenzen gesetzt selbst beim dümmsten Fehler wird die nich kommen und den Kollegen erzählen wie Blöd ...
Übrigens auch ein Armutszeugnis für die Menschheit, wenn man dumme Fragen/Äußerungen nicht mal eben auch unter Kollegen, Freunden etc. klären kann. Aber Du hast völlig Recht. Wird auch in diesem Forum ständig bewiesen. Wenn der Mensch nicht wirklich nett sein kann, schaffen wir eben Maschinen, die dieses Bedürfnis befriedigen. Schade eigentlich.Viele Grüße, commodity
ich weiss nicht wie es dir geht - ich muss mich nicht jedesmal bei ChatGPT usw. anmelden nur um da ne einzelne Frage zu stellen... Und meines Wissens hat auch KI noch keine Glaskugel-Funktion...
Und wenn nen Arbeitgeber es wirklich nötig hat in solch einer tiefe einen potentiellen Bewerber zu durchleuchten und dann noch nicht mal die überlegung hat das es sich eben auch mal nur um ne "zweite Meinung" handeln kann usw -> nun ja, dann würde ich sagen das sagt genauso was über die Arbeitgeber aus...
Was das Thema mit dem vorführen angeht -> nun, zumindest in _grossen_ Firmen sehe ich immer mehr das "Politik" wichtiger wird als Wissen. Und wo dir vor 10 Jahren der Kollege noch ins Gesicht gesagt hätte das es wohl nicht die beste Idee war etwas so zu machen erlebst du im Konzernalltag eher das Zeit dafür genutzt wird wo man nen Messer in den Rücken stecken kann um selbst ggf besser da zu stehen (und das je grösser der Laden ist umso besser). Oder andersrum - die leichteste Art einen fähigen Mitarbeiter zu bremsen? Lobe permanent diejenigen die nix tun... (Es ist zum Glück nicht in jeder Firma so - aber leider gehts immer mehr die Richtung... zumindest aus dem was ich so im Bekanntenkreis höre)
Und wenn nen Arbeitgeber es wirklich nötig hat in solch einer tiefe einen potentiellen Bewerber zu durchleuchten und dann noch nicht mal die überlegung hat das es sich eben auch mal nur um ne "zweite Meinung" handeln kann usw -> nun ja, dann würde ich sagen das sagt genauso was über die Arbeitgeber aus...
Was das Thema mit dem vorführen angeht -> nun, zumindest in _grossen_ Firmen sehe ich immer mehr das "Politik" wichtiger wird als Wissen. Und wo dir vor 10 Jahren der Kollege noch ins Gesicht gesagt hätte das es wohl nicht die beste Idee war etwas so zu machen erlebst du im Konzernalltag eher das Zeit dafür genutzt wird wo man nen Messer in den Rücken stecken kann um selbst ggf besser da zu stehen (und das je grösser der Laden ist umso besser). Oder andersrum - die leichteste Art einen fähigen Mitarbeiter zu bremsen? Lobe permanent diejenigen die nix tun... (Es ist zum Glück nicht in jeder Firma so - aber leider gehts immer mehr die Richtung... zumindest aus dem was ich so im Bekanntenkreis höre)
Zitat von @charlesrhoward:
Ja, sie kann schneller und oft sogar sauberer Code liefern als so manche „Teamlösung“, die aus zusammengeklebten Stack-Overflow-Schnipseln besteht – keine Frage. Aber was sagt das eigentlich über den Zustand vieler Teams oder Prozesse aus? Wenn ein Prompt an ChatGPT mehr Qualität bringt als ein echter Kollege, dann läuft doch irgendwo gewaltig was schief.
Ja, sie kann schneller und oft sogar sauberer Code liefern als so manche „Teamlösung“, die aus zusammengeklebten Stack-Overflow-Schnipseln besteht – keine Frage. Aber was sagt das eigentlich über den Zustand vieler Teams oder Prozesse aus? Wenn ein Prompt an ChatGPT mehr Qualität bringt als ein echter Kollege, dann läuft doch irgendwo gewaltig was schief.
Das ist aber die Situation, mit der Unternehmen konfrontiert sind, und für die sie Lösungen finden müssen, die im Bereich des Möglichen liegen.
Fachkräftemangel bedeutet nicht wie im Heise-Forum, dass Gehälter ins Unermessliche steigen müssten, sondern dass sich auf etwas erhöhtem Preisniveau in erster Linie die Zusammensetzung der Beschäftigten verändert; wie eine Abiturientenquote von 50% anstelle von 25% auch die Zusammensetzung der Studenten verändert.
Natürlich wird vorrangig versucht, mit Wissenstransfer, Fortbildung und einfach nur Gelegenheit zur Reife in bestehende Arbeitskraft zu investieren. Auch kann KI dabei eine Hilfestellung sein. Es ist aber genau diese Art ihres Einsatzes, die hier zu Recht kritisiert wird, weil KI eben noch nicht fachlich führen kann.
Die Maßnahmen, die an den gerade noch in einer Funktion Beschäftigungsfähigen ansetzen und ihr Potenzial zu erhöhen versuchen, kommen inzwischen an ihre Grenzen, da schulisch oder gar frühkindlich zu erwerbende Eigenschaften fehlen. Wenn ein Entwickler Mitte 30 keinen Blick fürs Detail und keine Ausdauer hat, dann ist das so. Du kannst ihm schlecht einen Modellbausatz schenken bzw. wirst die Persönlichkeit und ihre Arbeitsweise damit zumindest nicht mehr entscheidend verändern.
Ich finde auch, dass das mit dem „Baggerfahrer ersetzt den Vorarbeiter“ nur bedingt passt. Ein Baggerfahrer weiß, wie man das Ding sicher bedient – ein Prompt-User, der nicht mal weiß, was ein Try-Catch ist, ballert sich im schlimmsten Fall halt ein kaputtes Skript in die Produktion.
Effizienz ersetzt eben kein Verständnis.
Effizienz ersetzt eben kein Verständnis.
Das wollte ich damit auch nicht sagen. Technisch lösbare Aufgaben werden nach einer kurzen Anpassungsphase technisch gelöst, aus den genannten Gründen. Diese Aufgaben entfallen dann als individuelle Rolle. Die Aufgaben derer, die diese Rollen anleiten, wandeln sich von Führung hin zu Bedienung. Die meisten Manager schreiben heute ihre E-Mails selbst. Wenn sie diktieren wollen, dann einer Software. Abgesehen von herausgehobenen Positionen sind Unternehmen nicht mehr bereit, ihnen Mitarbeiter zu bezahlen, denen sie sagen können: "Trage mir mal einen Termin ein und erinnern mich 15 Minuten vorher." Es wird erwartet, dass sie Outlook bedienen können.
Sinnbildlich: Wer heute insgesamt eine Stunde mit einem Mitarbeiter zubringt, um ihm ein Problem zu erklären und über eine Woche verteilt den zähen Fortschritt zu einer akzeptablen Lösung zu begleiten, der kann sich fragen, ob er das Problem nicht mit KI in drei Stunden hätte selbst lösen können. Wenn ja, dann ist dieser Mitarbeiter gefährdet, denn eine Stunde der instruierenden Person kostet es in beiden Fällen. Die zweite legt der Arbeitgeber gerne für den Nutzen drauf, das Resultat in drei Stunden aus einer Hand statt in einer Woche aus einer Hierarchie zu bekommen. Die Dritte wird durch das eingesparte Gehalt des Instruierten, abzüglich KI-Kosten, aufgewogen, und es bleibt immer noch ein Produktivitätszuwachs.
Also ich würde sagen, der Einfluß von KI auf die menschliche Gesellschaft wird derzeit noch immer massivst unterschätzt.
Sieht man hier im Thread bei arg hinkenden Vergleichen wie "Einfluß von MP3 auf die Musikindustrie" usw.
Im Gegensatz zu allen genannten Beispielen, die immer nur einen gewissen Lebensbereich betreffen und die selbst keine "Intelligenz" besitzen (weder eine MP3-Datei noch ein Feuer hat bisher selbst irgendetwas von sich gegeben), gerät der Einfluß von KI in ALLE Lebensbereiche aller Menschen hinein. Was dann eben nicht einfach bedeutet, daß man sich nur von Schallplattenverkäufen auf MP3-Downloads umstellen muß.
Der Fließbandarbeiter wird durch KI-Roboter ersetzt. Zwar braucht dieser keine stupide Arbeit mehr zu machen - aber er hat dann auch einfach keine Arbeit mehr und findet nun auch nicht ohne weiteres eine neue.
logistik-heute.de/news/physische-ki-china-setzt-verstaerkt-auf-h ...
Die Sekretärin wird ersetzt durch KI-Agenten, die selbständig Mails lesen und beantworten, die alles organisieren, vom Teams-Meeting bis zum Schreiben, das maximal noch unterschrieben werden muß (mit vermutlicher geringer Aufmerksamkeit, was da alles unterschrieben wird).
callin.io/de/glossary-ai-secretary/
Und die Einstellungen beurteilt ohnehin schon die KI.
shop.haufe.de/copilot-hr
KI unterhält sich auch mit Kunden, vielleicht bei der Beschwerdehotline?
parloa.com/de/contact-center-ai-losung
Lagerarbeit? Wozu, dafür gibt es doch auch KI-gesteuerte Roboter:
log-robot.de/de/amr-produkte/zebra-robotics-automation
Der Taxifahrer wird ersetzt mit autonomen Fahrzeugen.
handelsblatt.com/technik/it-internet/autonomes-fahren-tesla-star ...
Der Postbote wird ersetzt mit Drohnenlieferungen. LKW-Fahrer braucht es mit autonomen Transporten auch nicht mehr.
kibuzzer.com/de/news/2408/vaju-robotics-the-one-lieferroboter.ht ...
Der Treckerfahrer auf dem Feld wird ersetzt mit Drohnen, die den Unkrautbewuchs aufspüren und gezielt sprühen, die ermitteln, wo geerntet werden muß und dabei den Trecker selbst steuern.
futurezone.at/science/roboter-erkennt-und-zerschnipselt-mit-ki-u ...
Wozu braucht man Kindergärtner, wenn man seinen Hausroboter hat, der für Unterhaltung sorgt und nie müde wird?
swr.de/swraktuell/baden-wuerttemberg/karlsruhe/nao-roboter-kita- ...
Ärzte? Ja, die ersten Operations-Roboter gibt es schon, bei der der Arzt nicht vor Ort sein muß - und Diagnosen stellt eine gut trainierte KI schon oft besser.
uke.de/landingpage/zukunftsplan-2050/medizin-der-zukunft/12-robo ...
ventionteams.com/de/insights/ki-in-der-chirurgie
Synchronsprecher? Wozu noch?
deutschlandfunk.de/deutsche-synchronsprecher-ki-bedroht-branche- ...
Schauspieler? Wozu?
allaboutai.com/de-de/ressourcen/wie-ki-hollywood-legenden-zuruck ...
rnd.de/medien/ki-ersetzt-kuenstliche-intelligenz-bald-schauspiel ...
Ach warum erst Schauspieler und Synchronsprecher? Lieber gleich das komplette Film-Team ersetzen und den ganzen Film per KI!
youtube.com/watch?v=03x3tvWzGks
Selbst die KI-Spezialisten prognostieren:
de.cointelegraph.com/news/former-google-china-boss-ai-arificial- ...
Auch ein Extrem:
youtube.com/watch?v=FutL3sJTzA4
Ja, das sind alles noch "einfache" Beispiele, die aber zeigen, wie sehr KI ALLE Berufe beeinflußt, das Leben jedes Menschen, nicht nur uns ITler.
Und wenn es um die Arbeit von ITlern geht, da ist jede KI jetzt schon sehr oft menschlichen Pendants überlegen. Die Zeiten, wo man eher Gaga-Code von KIs präsentiert bekam oder bei sehr speziellen oder detaillierten Problemen man nur Unsinn zurückbekam, ist längst vorbei.
Ich arbeite seit mehreren Monaten intensiv mit KIs zusammen, um Python-Apps zu erstellen, bei denen ich im Prinzip nur steuernd eingreifen muß, nur selten einen Debugger benötige oder etwas verbessern. Die Skripte sind sehr gut, das Verständnis der KIs, besonders derer, die auf einen Bereicht speziell trainiert wurden, ist sehr gut und man kann sich über Monate hinweg mit ihnen unterhalten und sie erinnern sich an die Zusammenhänge und versuchen, Neues in die bekannten Zusammenhänge einzubringen.
Ja, KI ist ein tolles Tool und vereinfacht einem die Arbeit enorm. Noch braucht es dazu Menschen, die wenigstens den Code verstehen und ggf. korrigieren können. Aber innerhalb eines Jahres sind die KIs bereits extrem viel besser geworden und ein bis zwei Jahre weiter wird ein Eingreifen nicht mehr nötig sein.
Ein Copilot nistet sich jetzt schon in VSCode ein. Wenn ich einen Kommentar mit z.B. "#" in Python beginne, weiß die KI bereits um die Zusammenhänge und schlägt direkt im Editor passende Kommentare vor, die man in fast allen Fällen 1:1 übernehmen kann. Sie kann selbständig den Code verändern.
Und der nächste, sehr gefährliche Schritt ist, KI-Agenten auf dem eigenen Rechner einzusetzen, bei denen die KI selbständig Programme starten und bedienen kann. Wohin das führen kann, zeigt das Beispiel in "Auch ein Extrem" oben.
Also ja: Teure Programmierer und Administratoren werden sicherlich noch eine Weile weiter existieren, aber wenn KI das selbständig erledigen kann, Anrufe entgegennehmen und beantworten kann, wozu braucht es dann noch einen Support-Mitarbeiter? Einen Administrator? Einen Datenbankprogrammierer? Einen Report-Entwickler? usw.
Nein, auch nicht für den Aufbau eines PCs vor Ort oder Austausch von Serverhardware usw. Eine Weile noch. Dann übernehmen auch dies garantiert Roboter.
Und wozu überhaupt dann noch einen Arbeitsplatz-PC? Denn wenn es keine Mitarbeiter gibt, braucht man auch keine PCs mehr, keine Büros, und all die Jobs, die daran hängen.
KI ist die nächste große Herausforderung nach der industriellen Revolution und der Einführung von Computern und des Internets. Aber KI kann selbst handeln, wenn wir sie lassen. Und sie kann physisch auftreten, autonom. Sie kann unethische Entscheidungen treffen.
Also sorry, wenn ich das Herunterspielen hier echt nicht hören kann, das ist extremst blauäugig. Ich stehe nicht mehr weit zum Ende meiner beruflichen Laufbahn, werde noch genug damit zu kämpfen haben. Aber ich möchte wirklich nicht in der Haut der jungen Leute stecken, die jetzt in's Berufsleben einsteigen.
Einige werden damit ihr Glück machen und stark davon profitieren. Aber viele werden auf der Strecke bleiben, besonders die, die sich nicht so einfach mal beruflich umorientieren können, deren Existenz von Jobs abhängt, die es dann nicht mehr geben wird. Weil sie unwirtschaftlich geworden sind.
Die Macher übersehen dabei nur: Wenn man einen Großteil der Menschheit in Existenznot bringt und die Arbeitslosigkeit immer höher wird - dann ist auch niemand mehr da, der die KI-generierten Produkte konsumieren kann. Ein Schuß in's eigene Knie.
Man kann nur hoffen, daß die, die KI einsetzen, darüber rechtzeitig nachdenken und KI als Chance für Arbeitsunterstützung sehen, und nicht als Arbeitsersetzung. Aber es bleibt zu befürchten, daß die Gier siegt. Es hat ja schon begonnen.
Sieht man hier im Thread bei arg hinkenden Vergleichen wie "Einfluß von MP3 auf die Musikindustrie" usw.
Im Gegensatz zu allen genannten Beispielen, die immer nur einen gewissen Lebensbereich betreffen und die selbst keine "Intelligenz" besitzen (weder eine MP3-Datei noch ein Feuer hat bisher selbst irgendetwas von sich gegeben), gerät der Einfluß von KI in ALLE Lebensbereiche aller Menschen hinein. Was dann eben nicht einfach bedeutet, daß man sich nur von Schallplattenverkäufen auf MP3-Downloads umstellen muß.
Der Fließbandarbeiter wird durch KI-Roboter ersetzt. Zwar braucht dieser keine stupide Arbeit mehr zu machen - aber er hat dann auch einfach keine Arbeit mehr und findet nun auch nicht ohne weiteres eine neue.
logistik-heute.de/news/physische-ki-china-setzt-verstaerkt-auf-h ...
Die Sekretärin wird ersetzt durch KI-Agenten, die selbständig Mails lesen und beantworten, die alles organisieren, vom Teams-Meeting bis zum Schreiben, das maximal noch unterschrieben werden muß (mit vermutlicher geringer Aufmerksamkeit, was da alles unterschrieben wird).
callin.io/de/glossary-ai-secretary/
Und die Einstellungen beurteilt ohnehin schon die KI.
shop.haufe.de/copilot-hr
KI unterhält sich auch mit Kunden, vielleicht bei der Beschwerdehotline?
parloa.com/de/contact-center-ai-losung
Lagerarbeit? Wozu, dafür gibt es doch auch KI-gesteuerte Roboter:
log-robot.de/de/amr-produkte/zebra-robotics-automation
Der Taxifahrer wird ersetzt mit autonomen Fahrzeugen.
handelsblatt.com/technik/it-internet/autonomes-fahren-tesla-star ...
Der Postbote wird ersetzt mit Drohnenlieferungen. LKW-Fahrer braucht es mit autonomen Transporten auch nicht mehr.
kibuzzer.com/de/news/2408/vaju-robotics-the-one-lieferroboter.ht ...
Der Treckerfahrer auf dem Feld wird ersetzt mit Drohnen, die den Unkrautbewuchs aufspüren und gezielt sprühen, die ermitteln, wo geerntet werden muß und dabei den Trecker selbst steuern.
futurezone.at/science/roboter-erkennt-und-zerschnipselt-mit-ki-u ...
Wozu braucht man Kindergärtner, wenn man seinen Hausroboter hat, der für Unterhaltung sorgt und nie müde wird?
swr.de/swraktuell/baden-wuerttemberg/karlsruhe/nao-roboter-kita- ...
Ärzte? Ja, die ersten Operations-Roboter gibt es schon, bei der der Arzt nicht vor Ort sein muß - und Diagnosen stellt eine gut trainierte KI schon oft besser.
uke.de/landingpage/zukunftsplan-2050/medizin-der-zukunft/12-robo ...
ventionteams.com/de/insights/ki-in-der-chirurgie
Synchronsprecher? Wozu noch?
deutschlandfunk.de/deutsche-synchronsprecher-ki-bedroht-branche- ...
Schauspieler? Wozu?
allaboutai.com/de-de/ressourcen/wie-ki-hollywood-legenden-zuruck ...
rnd.de/medien/ki-ersetzt-kuenstliche-intelligenz-bald-schauspiel ...
Ach warum erst Schauspieler und Synchronsprecher? Lieber gleich das komplette Film-Team ersetzen und den ganzen Film per KI!
youtube.com/watch?v=03x3tvWzGks
Selbst die KI-Spezialisten prognostieren:
de.cointelegraph.com/news/former-google-china-boss-ai-arificial- ...
Auch ein Extrem:
youtube.com/watch?v=FutL3sJTzA4
Ja, das sind alles noch "einfache" Beispiele, die aber zeigen, wie sehr KI ALLE Berufe beeinflußt, das Leben jedes Menschen, nicht nur uns ITler.
Und wenn es um die Arbeit von ITlern geht, da ist jede KI jetzt schon sehr oft menschlichen Pendants überlegen. Die Zeiten, wo man eher Gaga-Code von KIs präsentiert bekam oder bei sehr speziellen oder detaillierten Problemen man nur Unsinn zurückbekam, ist längst vorbei.
Ich arbeite seit mehreren Monaten intensiv mit KIs zusammen, um Python-Apps zu erstellen, bei denen ich im Prinzip nur steuernd eingreifen muß, nur selten einen Debugger benötige oder etwas verbessern. Die Skripte sind sehr gut, das Verständnis der KIs, besonders derer, die auf einen Bereicht speziell trainiert wurden, ist sehr gut und man kann sich über Monate hinweg mit ihnen unterhalten und sie erinnern sich an die Zusammenhänge und versuchen, Neues in die bekannten Zusammenhänge einzubringen.
Ja, KI ist ein tolles Tool und vereinfacht einem die Arbeit enorm. Noch braucht es dazu Menschen, die wenigstens den Code verstehen und ggf. korrigieren können. Aber innerhalb eines Jahres sind die KIs bereits extrem viel besser geworden und ein bis zwei Jahre weiter wird ein Eingreifen nicht mehr nötig sein.
Ein Copilot nistet sich jetzt schon in VSCode ein. Wenn ich einen Kommentar mit z.B. "#" in Python beginne, weiß die KI bereits um die Zusammenhänge und schlägt direkt im Editor passende Kommentare vor, die man in fast allen Fällen 1:1 übernehmen kann. Sie kann selbständig den Code verändern.
Und der nächste, sehr gefährliche Schritt ist, KI-Agenten auf dem eigenen Rechner einzusetzen, bei denen die KI selbständig Programme starten und bedienen kann. Wohin das führen kann, zeigt das Beispiel in "Auch ein Extrem" oben.
Also ja: Teure Programmierer und Administratoren werden sicherlich noch eine Weile weiter existieren, aber wenn KI das selbständig erledigen kann, Anrufe entgegennehmen und beantworten kann, wozu braucht es dann noch einen Support-Mitarbeiter? Einen Administrator? Einen Datenbankprogrammierer? Einen Report-Entwickler? usw.
Nein, auch nicht für den Aufbau eines PCs vor Ort oder Austausch von Serverhardware usw. Eine Weile noch. Dann übernehmen auch dies garantiert Roboter.
Und wozu überhaupt dann noch einen Arbeitsplatz-PC? Denn wenn es keine Mitarbeiter gibt, braucht man auch keine PCs mehr, keine Büros, und all die Jobs, die daran hängen.
KI ist die nächste große Herausforderung nach der industriellen Revolution und der Einführung von Computern und des Internets. Aber KI kann selbst handeln, wenn wir sie lassen. Und sie kann physisch auftreten, autonom. Sie kann unethische Entscheidungen treffen.
Also sorry, wenn ich das Herunterspielen hier echt nicht hören kann, das ist extremst blauäugig. Ich stehe nicht mehr weit zum Ende meiner beruflichen Laufbahn, werde noch genug damit zu kämpfen haben. Aber ich möchte wirklich nicht in der Haut der jungen Leute stecken, die jetzt in's Berufsleben einsteigen.
Einige werden damit ihr Glück machen und stark davon profitieren. Aber viele werden auf der Strecke bleiben, besonders die, die sich nicht so einfach mal beruflich umorientieren können, deren Existenz von Jobs abhängt, die es dann nicht mehr geben wird. Weil sie unwirtschaftlich geworden sind.
Die Macher übersehen dabei nur: Wenn man einen Großteil der Menschheit in Existenznot bringt und die Arbeitslosigkeit immer höher wird - dann ist auch niemand mehr da, der die KI-generierten Produkte konsumieren kann. Ein Schuß in's eigene Knie.
Man kann nur hoffen, daß die, die KI einsetzen, darüber rechtzeitig nachdenken und KI als Chance für Arbeitsunterstützung sehen, und nicht als Arbeitsersetzung. Aber es bleibt zu befürchten, daß die Gier siegt. Es hat ja schon begonnen.
Eine tatsächliche "Admin-Chat-GPT-Version" ist mir nicht bekannt.
Wie die Kollegen schon geschrieben haben:
die bereits genannten Tools liefern eher bescheidene Ergebnisse, jedoch oft einen guten Start.
Viel bedenklicher halte ich "unseren menschlichen Eifer",
fremde Geschäftsprozesse zu optimieren
Verzeihung, ich meine natürlich
die KI solange zu fragen, bis der KOT was sinnvolles von sich gibt.
hier wurde der Vergleich zu früher gebracht, daher auch bitte mal so rum:
Früher war STASI ein unglaublicher Begriff, menschenunwürdig, geht GARnicht, heute ein Gimmick, welches viele Mitmenschen freiwillig bei sich tragen und zu Hause sogar aufstellen, ja diesen Dingen sogar Namen geben wie Alexer (copyright kept)
KI wäre toll, wenn Open auch tatsächlich OPEN bedeuten würde.
Die derzeit zum Einsatz kommenden Modelle sind meines Achtens Diebstahl, auch wenn die Nutzer ihren Betriebssytem-EULAs den Haken "einverstanden" gegeben haben (egal ob Desktop oder Mobil).
Die Reichweite dieses "Einverstanden" war und ist den Menschen nicht bewusst und nun glauben sie an Zauberei in Form vom ChatBOTs, Bild-Generatoren etc.
Mit jeder Anfrage lernt das Produkt des Privaten-Geschäftsmenschen und dieser lässt die gemeinen Laborratten mit kleinen Zauberstücken beschäftigt.
"Idiocracy" gesehen? Sehr sehenswert.
PS: @Bitsqueezer
Zeitgleich geschrieben, toller Text, Danke dafür!
Wie die Kollegen schon geschrieben haben:
die bereits genannten Tools liefern eher bescheidene Ergebnisse, jedoch oft einen guten Start.
Viel bedenklicher halte ich "unseren menschlichen Eifer",
fremde Geschäftsprozesse zu optimieren
Verzeihung, ich meine natürlich
die KI solange zu fragen, bis der KOT was sinnvolles von sich gibt.
hier wurde der Vergleich zu früher gebracht, daher auch bitte mal so rum:
Früher war STASI ein unglaublicher Begriff, menschenunwürdig, geht GARnicht, heute ein Gimmick, welches viele Mitmenschen freiwillig bei sich tragen und zu Hause sogar aufstellen, ja diesen Dingen sogar Namen geben wie Alexer (copyright kept)
KI wäre toll, wenn Open auch tatsächlich OPEN bedeuten würde.
Die derzeit zum Einsatz kommenden Modelle sind meines Achtens Diebstahl, auch wenn die Nutzer ihren Betriebssytem-EULAs den Haken "einverstanden" gegeben haben (egal ob Desktop oder Mobil).
Die Reichweite dieses "Einverstanden" war und ist den Menschen nicht bewusst und nun glauben sie an Zauberei in Form vom ChatBOTs, Bild-Generatoren etc.
Mit jeder Anfrage lernt das Produkt des Privaten-Geschäftsmenschen und dieser lässt die gemeinen Laborratten mit kleinen Zauberstücken beschäftigt.
"Idiocracy" gesehen? Sehr sehenswert.
PS: @Bitsqueezer
Zeitgleich geschrieben, toller Text, Danke dafür!
@improver :
Also Tools für Admins mit KI gibt es jede Menge, auch (der letzte Link) z.B. zum Erstellen von Powershell-Scripts.
computerweekly.com/de/ratgeber/Wie-kuenstliche-Intelligenz-Admin ...
ibm.com/de-de/ai-cybersecurity
t3n.de/news/ki-agent-systemadministrator-experiment-1649931/
computerweekly.com/de/antwort/Wie-integriere-ich-kuenstliche-Int ...
it-administrator.de/KI-unterstuetzte-Netzwerkverwaltung
atera.com/de/enthuellt-ki/
techcommunity.microsoft.com/blog/itopstalkblog/powershell-and-ai ...
Also Tools für Admins mit KI gibt es jede Menge, auch (der letzte Link) z.B. zum Erstellen von Powershell-Scripts.
computerweekly.com/de/ratgeber/Wie-kuenstliche-Intelligenz-Admin ...
ibm.com/de-de/ai-cybersecurity
t3n.de/news/ki-agent-systemadministrator-experiment-1649931/
computerweekly.com/de/antwort/Wie-integriere-ich-kuenstliche-Int ...
it-administrator.de/KI-unterstuetzte-Netzwerkverwaltung
atera.com/de/enthuellt-ki/
techcommunity.microsoft.com/blog/itopstalkblog/powershell-and-ai ...
Zitat von @commodity:
"KI nimmt Inhalte weg":
Das sehen wir schon real an der Frequenz in diesem Forum - und jeder der KI nutzt, wird das bestätigen (oben sind ja vom Kollegen @CamelCase ja schon ein paar Grafiken zugereicht worden.
"KI nimmt Inhalte weg":
Das sehen wir schon real an der Frequenz in diesem Forum - und jeder der KI nutzt, wird das bestätigen (oben sind ja vom Kollegen @CamelCase ja schon ein paar Grafiken zugereicht worden.
Ist das so? Zeigen diese Grafiken das wirklich?
Wenn ich mir die Posts-Kurve so ansehe, geht die Anzahl bereits seit April 2018 stetig zurück. Den Corona-Spike (wahrscheinlich ist es der) sollte man ausklammern.
Im Umkehrschluss heißt das, dass die User von Stackoverflow seit mindestens April 2018 lieber die KI befragen.
Jetzt ist es halt so, dass Chat-GPT quasi als erstes frei zugängliche und kostenlose LLM am 30. November 2022 an den Start ging. Okeh, es gab da tatsächlich schon Vorgänger, die aber nicht für die breite Öffentlichkeit zugänglich waren. Zum einen, weil sie nur per API erreichbar waren, zum anderen, weil sie für die Wissenschaft gedacht war.
Ich würde den Graphen so deuten, dass nunmehr seit sieben Jahren, die Postanzahl bei Stackoverflow stetig zurück geht. Zusätzlich wird die Steigung der Kurve ab 2023 steiler. Ich würde auch behaupten, dass das mit dem Aufkommen von Chat-GPT und ähnlichen Prompts zusammenhängen könnte. Zumindest überschneiden sich diese beiden Ereignisse.
Ich war in den späten 1990er und Anfang der 2000er extrem stark in der deutshcen Forenszene unterwegs. So ziemlich jedes bekannte Forum von dieser Zeit existiert jetzt nicht mehr. Ganz ohne KI. Und das war die Zeit, in der das Internet nur drei Existenzgründe hatte: Pr0n, Bücher kaufen und Foren.
Das Ding ist, die Welt dreht sich und mit ihr die Menschen.
Zitat von @Bitsqueezer:
KI ist die nächste große Herausforderung nach der industriellen Revolution und der Einführung von Computern und des Internets. Aber KI kann selbst handeln, wenn wir sie lassen. Und sie kann physisch auftreten, autonom. Sie kann unethische Entscheidungen treffen.
KI ist die nächste große Herausforderung nach der industriellen Revolution und der Einführung von Computern und des Internets. Aber KI kann selbst handeln, wenn wir sie lassen. Und sie kann physisch auftreten, autonom. Sie kann unethische Entscheidungen treffen.
Das ist halt jetzt wieder voll Skynet. Ja, KI ist das nächste große Ding nach der industriellen Revolution. Und ja, wie auch zu der Zeit damals wird sich der Mensch anpassen und auch die Prozesse werden angepasst werden. Und natürlich wird sich das Äquivalent zu einem Fabrikarbeiter von 1800 am Arbeitsmarkt neu orientieren müssen. Aber halt nicht von heute auf morgen.
Und irgendwie bin ich mir fast sicher, dass sich zumindest 95% der Bevölkerung keine Arbeitsbedingungen wie vor 1900 oder gar vor 1760 wünschen.
Natürlich sollte man nicht gleich jede Neuerung völlig bedenkenlos akzeptieren. Schließlich besteht das Internet ja nur noch deswegen, um Geld zu verdienen. Aber das bedeutet nicht das genaue Gegenteil. Die Geschichte der Menschheit zeigt, dass es immer Wandel gab. Und immer verschwand etwas, was vorher mehr oder weniger als "Kulturgut" eingestuft wurde. Und irgendwann geraten diese Sachen komplett in Vergessenheit. Aber es wird was Neues daraus gebastelt. Mal gut, mal schlecht.
Wenn dabei jemand von "unethisch" oder "amoralisch" oder dergleichen erzählt muss ich immer grinsen. Nichts hat sich im Laufe der Zeit so stark geändert wie Ethik und Moral. Schlimmer noch: Ethik und Moral richteten sich ausschließlich an den Vorlieben der Herrschenden.
Ethik bei den ollen Griechen liest sich auf dem Papier gut. Außer man war eine Frau oder ein Sklave. In der Medizin waren Autopsien sehr lange "unethisch". Irgendwann in 1947 hat man sich darauf verständigt, dass Experimente an Menschen evtl. doch auch unethisch sein könnten. Vorher war's cool.
Soziale Gerechtigkeit? Vor dem 20. Jahrhundert völliger Quatsch. 14-Stunden Arbeitstage an mindestens 6 Tage die Woche war die Norm.
Ich sehe die KI als reines Werkzeug an. Ein richtig mächtiges Werkzeug, aber halt auch kein Werkzeug, das sich alleine irgendwie großartig emanzipiert. Schon alleine deswegen, weil es aus ein paar kleinen physikalischen Grundlagen dazu nicht in der Lage ist. Und nein, niemand wird aus Menschen Batterien basteln, damit die Maschinen ihre Energie von denen ziehen.
Zumal es lustig ist bei der KI über Ethik zu reden. Wieviele KI-Systeme haben denn bisher von SICH AUS entschieden irgendwen anzugreifen? Und - wieviele Menschen sterben grad aktuell durch Kriege die ganz ohne KI gestartet wurden? Wo ist die Ethik denn wenn ich heute über ne Grenze fahre? Ich als deutscher Mann, mittleres Alter - wenns hoch kommt muss ich mal nen Ausweis zeigen... Farbige Menschen, Asiaten,... - ohhh, fahr doch einfach gleich rechts ran, das dauert länger... Und die chance das ich auf der Strasse kontrolliert werde - reden wir mal nich drüber... aber is ja alles völlig moralisch korrekt....
Also für "unethische Entscheidungen" braucht es nun wirklich keine KI.... DAS können wir deutlich besser als jeder Computer....
Also für "unethische Entscheidungen" braucht es nun wirklich keine KI.... DAS können wir deutlich besser als jeder Computer....
Ist das so? Zeigen diese Grafiken das wirklich?
IMO ist es so, ob die Grafiken das wirklich abbilden, muss jeder für sich interpretieren. Du hast Recht, dass der Schwund von Stack Overflow, das oben beispielhaft angeführt wurde, schon deutlich vor KI-Zeiten beginnt. Es gab einen stetigen Anstieg zwischen ungefähr 2011 und 2017 und dann begann ersichtlich ein Abbau. Aber: Dieser verläuft seit 2022 (Hello KI!) in einer brachialen Weise. Von 2022 bis 2023 und 2023-2024 hat sich die Nutzerzahl jeweils annähernd halbiert, betrug also Ende 2024 gerade noch 1/4 von Ende 2022gist.github.com/hopeseekr/f522e380e35745bd5bdc3269a9f0b132
Ich finde das aussagekräftig. Deine Wortwahl, der Abfall der Kurve "wird steiler" wäre mir dafür zu euphemistisch. Aber jedem seine Interpretation.
In der Konsequenz hast Du völlig Recht: Die Welt dreht sich
Viele Grüße, commodity
Korrelation und Kausalität. (100% aller verheirateter Männer sterben! Heirat tötet Männer.)
Im selben Zeitraum wurde u.a. der Fleischkonsum weniger. Ebenso wurden weniger FTP-Server aufgesetzt und ICQ wird fast gar nicht mehr genutzt.
Und dann steht morgen in der Bild "ChatGPT macht Landwirte arbeitslos!"
Im selben Zeitraum wurde u.a. der Fleischkonsum weniger. Ebenso wurden weniger FTP-Server aufgesetzt und ICQ wird fast gar nicht mehr genutzt.
Und dann steht morgen in der Bild "ChatGPT macht Landwirte arbeitslos!"
Zitat von @kpunkt:
Korrelation und Kausalität. (100% aller verheirateter Männer sterben! Heirat tötet Männer.)
Korrelation und Kausalität. (100% aller verheirateter Männer sterben! Heirat tötet Männer.)
Bzgl. des Rückgangs auf StackOverflow (und vermutlich vielen anderen, ähnlichen Diensten), liegt hier meiner Meinung nach durchaus eine Kausalität vor.
Wahrscheinlich. Aber ist es wirklich so? Ist es der alleinige Grund? Und wenn nein, wie stark wirkt er sich aus? Wieso wurden die Posts immer weniger schon vor dem 30. November 2022?
Also wenn jemand schon quasi mit Statistiken daherkommt, dann sollten sie auch belegbar sein. Und zwar nicht nur das Symptom aufzeigen, sondern auch die Ursache, wenn denn aus dem Symptom eine einzige Ursache verkauft werden will.
Insgesamt verzeichnet man seit den frühen 2000ern einen immensen Rückgang an Foren-Posts. Ich würde da jetzt irgend ein ChatGPT nicht als Grund anführen wollen.
Irgendwie scheint KI wieder dieses schwammige Gefühl der Angst zu generieren. Ganz so nach dem Motto "Sie klauen uns unsere Jobs".
Klar, kann man machen. Hilfreicher und vor allem zielführender wäre es wohl, wenn man eher objektiv an die Sache rangeht. Außer natürlich, das Ziel ist was ganz was anderes.
Also wenn jemand schon quasi mit Statistiken daherkommt, dann sollten sie auch belegbar sein. Und zwar nicht nur das Symptom aufzeigen, sondern auch die Ursache, wenn denn aus dem Symptom eine einzige Ursache verkauft werden will.
Insgesamt verzeichnet man seit den frühen 2000ern einen immensen Rückgang an Foren-Posts. Ich würde da jetzt irgend ein ChatGPT nicht als Grund anführen wollen.
Irgendwie scheint KI wieder dieses schwammige Gefühl der Angst zu generieren. Ganz so nach dem Motto "Sie klauen uns unsere Jobs".
Klar, kann man machen. Hilfreicher und vor allem zielführender wäre es wohl, wenn man eher objektiv an die Sache rangeht. Außer natürlich, das Ziel ist was ganz was anderes.
Ich finde Deinen letzten Satz richtig - und mein Eingangspost (ganz oben) macht meine Haltung zum Thema hoffentlich deutlich. Aber das hier

Wenn überhaupt lassen sich Aussagen zu Statistiken nur mit wissenschaftlichen Mitteln belegen. Ein wissenschaftlicher Diskurs ist in einem Forum nicht im Ansatz möglich - und auch gar nicht erwünscht, wie Du als erfahrener Forist fraglos weißt. Dennoch kann man zu einer Kurve oder einem Datenbestand auch eine Meinung haben und vertreten. (Technische) Wahrheit werden wir hier ohnehin nicht erreichen.
Ich hoffe, du prüfst mit gleicher Messlatte den Einsatz von technischen Gerätschaften in den von Dir betreuten Systemen. Ich suche nämlich z.B. immer noch den technisch-wissenschaftlichen Beleg dafür, dass z.B. HTTPS-Sicherheitsproxies mehr Sicherheit schaffen als sie Gefahren begründen
(Die KI sieht das im Übrigen hübsch differenziert - aber auch unbelegt). Die Fragestellung lässt sich dann noch ausweiten (z.B. Virenschutzsoftware, NGFW-Funktionen u.ä.). Das Marketing der Hersteller und das Geschwafel des BSI kenne ich. Gern also belegte Fakten (per PN oder neuem Fred, um diesen nicht zu sehr vom Pfad abzubringen).
Viele Grüße, commodity
Also wenn jemand schon quasi mit Statistiken daherkommt, dann sollten sie auch belegbar sein. Und zwar nicht nur das Symptom aufzeigen, sondern auch die Ursache
halte ich für ein Forum, das doch Meinungsaustausch bedeutet, reichlich überspannt Wenn überhaupt lassen sich Aussagen zu Statistiken nur mit wissenschaftlichen Mitteln belegen. Ein wissenschaftlicher Diskurs ist in einem Forum nicht im Ansatz möglich - und auch gar nicht erwünscht, wie Du als erfahrener Forist fraglos weißt. Dennoch kann man zu einer Kurve oder einem Datenbestand auch eine Meinung haben und vertreten. (Technische) Wahrheit werden wir hier ohnehin nicht erreichen.
Ich hoffe, du prüfst mit gleicher Messlatte den Einsatz von technischen Gerätschaften in den von Dir betreuten Systemen. Ich suche nämlich z.B. immer noch den technisch-wissenschaftlichen Beleg dafür, dass z.B. HTTPS-Sicherheitsproxies mehr Sicherheit schaffen als sie Gefahren begründen
Viele Grüße, commodity
Zitat von @kpunkt:
Jetzt wirds lächerlich. Weil es ein Forum ist, muss eine Statistik nicht stimmen. Mit Wissenschaft hat das so gar nix zu tun.
Okeh...ich bin da endgültig raus.
Jetzt wirds lächerlich. Weil es ein Forum ist, muss eine Statistik nicht stimmen. Mit Wissenschaft hat das so gar nix zu tun.
Okeh...ich bin da endgültig raus.
Wie kommst du darauf, dass die Statistik an sich nicht stimmt oder belegbar ist? Die Daten kommen direkt von Stackoverflow, die können gar nicht nicht stimmen
Und meine Aussage dazu
"sehe ich auch so"
Ist ja wohl eindeutig aus der Statistik abzulesen. Nirgendwo habe ich behauptet, KI wäre DER entscheidende Auslöser dafür.
Er hat wohl nicht verstanden, dass es nicht auf die Statistik, also die statistischen Daten, sondern auf die Interpretation ankommt. Und diese "wahr" zu machen ist in einem Forum nahezu unmöglich.
Aber da er ja
Viele Grüße, commodity
Aber da er ja
endgültig raus
ist, ist das jetzt auch egal. Er war letztens schon in einem Thread ungewöhnlich eingeschnappt. Vielleicht eine Phase.Viele Grüße, commodity
Wieviele KI-Systeme haben denn bisher von SICH AUS entschieden irgendwen anzugreifen?
Siehe den Video-Link unter "Extrem". Sozusagen alle. Die eigene Existenz zu sichern versuchend, wurde eine Info über eine Affäre absichtlich ausgenutzt, ebenso einen Mitarbeiter sterben zu lassen, um die eigene Abschaltung zu verhindern.
Klar waren das nur Testszenarien, nichts davon ist passiert, niemand zu Schaden gekommen. Die Affäre-Mails war gestellt und nur für die KI lesbar im Mail-Account hinterlegt. Der Zugriff auf den Serverraum war natürlich nicht gegeben.
Das ist aber nicht der Punkt. Der Punkt ist, daß die KIs entsprechend entschieden haben, weil es eine logische Konsequenz für die Erreichung eines Zieles war. Kann man der KI also nicht vorwerfen.
Versuche, das mit Skynet oder Matrix in's Lächerliche zu ziehen, sind mal wieder typisch. Nein, wir haben kein Terminator-Szenario vor uns (jedenfalls auf absehbare Zeit) und das Mensch-Batterien-Beispiel werden wir sicherlich auch nicht erleben.
Irgendwie scheint KI wieder dieses schwammige Gefühl der Angst zu generieren. Ganz so nach dem Motto "Sie klauen uns unsere Jobs".
Genau. Weil es kein schwammiges Gefühl ist, sondern ein Problem, dem alle Jobs in Zukunft gegenüberstehen, wie die paar Beispiele oben bereits gezeigt haben. Es gibt jede Menge mehr davon. Darf jeder selbst raussuchen.
Und - wieviele Menschen sterben grad aktuell durch Kriege die ganz ohne KI gestartet wurden?
[...]
Also für "unethische Entscheidungen" braucht es nun wirklich keine KI.... DAS können wir deutlich besser als jeder Computer....
[...]
Also für "unethische Entscheidungen" braucht es nun wirklich keine KI.... DAS können wir deutlich besser als jeder Computer....
Keine Ahnung, was Fehlentscheidungen von Menschen nun mit dem KI-Problem zu tun haben. Das alles sind Probleme anderer Natur.
Um es nochmal zu betonen: Noch sind KIs ganze Rechenzentren mit Servern. Noch ist es ein Hilfstool zur Unterstützung bei langwierigen Tätigkeiten.
Jedoch ist die Freigabe von KI für das selbständige Bedienen von Programmen auf dem eigenen PC oder Bedienung von Hardwarekomponenten der Umgebung oder der autonomen Entscheidung in unabhängigen Systemen wie Waffen, Drohnen usw. der kommende, problematische Schritt, der zu einem sehr großen Problem werden kann, wenn es nicht rechtzeitig in Grenzen gepackt wird.
KIs werden durch spezialisierte Chips und winzige Datenspeicher mit großer Kapazität ebenfalls immer kleiner und immer selbständiger werden.
Hier mal für Skynet-Belächler:
morgenpost.de/panorama/article406756356/mit-maschinengewehren-ch ...
youtube.com/watch?v=mRmxMUspVDk
Und was Kampfroboter und auch Jobs angeht, z.B. hier:
youtube.com/watch?v=RA8mUeQ1ZQY
Und was Ersetzbarkeit angeht, hier hat man sogar eine Website aufgebaut, bei der man die eigenen Jobs eingeben kann und die Prognose für Ersetzbarkeit per KI erhält.
job-futuromat.iab.de/
Aber ist ja alles zu belächeln.
Also - du setzt als Beispiel eine KI an der man Daten "passend" gibt, der man ein Szenario entsprechend vorbereitet? Nun, ok... Ich bin mir sicher wenn ich die Randbedingungen gut genug setze macht auch ne KI genau das was ich erwarte... Aber wie sieht es mit den REAL existierenden Systemen aus - mir wäre zumindest nicht bekannt das ChatGPT o.ä. schonmal vorgeschlagen haben nen Krieg anzufangen,....
Und das KI Jobs umwirft - keine Frage, Da braucht man nur mal bei Amazon gucken wie da die lager-logistik läuft. Du kannst da also jetzt panisch losrennen... Nur: Ist es eben bei weitem nicht die erste "industrielle Revolution" wie es gerne genannt wird. Ein gewisser Herr Ford hat das Fließband eingeführt - da gingen auch Massenweise Leute nach Hause. Verbreiteter Einsatz Computer mit lokalem Netzwerk (und später Internet): Nun, den "Büroboten" gibt es heute eben nicht mehr (und vieles andere aus der Zeit - selbst die Rohrpost wird höchstens noch mal genutzt um Kuchenstücke zu versenden ;) )
Das ganze hat also wenig mit "Belächeln" zu tun - sondern zum einen mit dem Fakt das eine KI nunmal existiert und auch nicht so schnell wieder verschwinden wird (und wenn dann idR. eben nur durch eine bessere Version, was auch immer die dann kann). Zum anderen mit dem Fakt das auch Arbeitsmässig sich das Umfeld permanent ändert - da wo die Eltern sich noch über Arbeit definiert haben (und zB. mit Verbreitung von Handys/Mobilem Mail-Empfang es als "ich bin wichtig" dargestellt wurde wenn man nach Feierabend vom Chef angerufen wird oder noch eben ne "very important" mail beantwortet hat) gehen Jüngere eben mehr auf "Work-Life-Balance" und "ich arbeite um mir meine Freizeit finanzieren zu können", was auch sicher nicht verkehrt ist. Dazu kommt aber das eben jeder auch mehr aufs Geld schaut (oder wie ein bekannter Elektronikmarkt sagte: Geiz is Geil) - und diese Kombination wirst du ohne KI nunmal auch nicht stemmen. Bleiben wir bei Amazon: Wie sollen die es schaffen das dort 1000stende Leute im Lager rumlaufen die dann aber eben auch zeitig Feierabend machen (oder überstundenkosten anfallen) um ein Teil von A nach B zu bringen, die ggf. Streiken,... und am Ende nur nen Cent-Artikel zum Verpacken bringen? Du kannst jetzt nur sagen "ok, muss das Managment halt weniger Gewinnspanne haben" - ja, wäre in der idealwelt ne vorstellung, REAL jedoch eher nicht zu erwarten. Ist also nicht überraschend das hier jetzt viele kleine Robbies fahren und die Regale holen - ohne Stundenlimit (ausser zum Laden), ohne Streik (ausser bei Systemausfall), nich mal ne Toilettenpause oder Mittagsruhe wollen die. Und das ganze damit der Kunde am Ende eben auf der Webseite auf "Jetzt kaufen" klicken kann...
Was glaubst du - warum sollte das in anderen Bereichen nciht sein? Nur umgekehrt: Gehst DU heute ins Fachgeschäft wo das Gerät ggf. noch per Hand gebaut wurde und zahlst das 3fache vom Online-Händler? (Und nein, du brauchst nicht Antworten, in nem Forum ist eh jeder prinzipiell derjenige der sagt "klar mach ich das, ich will das System ja ändern"). DA werden natürlich Jobs wegfallen - nur: zum einen werden auch neue kommen und zum anderen wird es grad in Bereichen bei der KI eben nix kann ggf. auch dazu führen das mehr Leute verfügbar sind (z.B. kann eine KI nunmal nicht so einfach improvisieren wenns mal wieder nicht nach Plan läuft)
Du kannst dich aber natürlich auch einfach einspeeren und die Weltuntergangsuhr anschauen (die gibts nämlich auch online). Du kannst auch weiterhin nach Negativ-Beispielen für KI googeln und Links raushauen (nennt sich übrigens "Selbstbestätigung" da du damit danach suchst was du selbst eh vermutest UND wo auch mittlerweile dir jede Suchmaschine hilft weil die dir entsprechend deines Suchmusters auch schon deine Richtung bevorzugt anzeigt...). Oder du kannst anfangen zu sagen "ok, das is da, muss ich halt mit umgehen". Und natürlich - es werden Berufe wegfallen. Aber genauso wie ich heute eben keine Ausbildung für nen Job in nem Kernkraftwerk machen würde (der auch nur da nutzbar ist), im Bergbau usw. gehen würde gibt es durch KI Jobs bei denen ich heute eben keine Ausbildung machen würde - bei allen ist absehbar das die Jobchancen eben überschaubar sind oder sein werden...
Und das KI Jobs umwirft - keine Frage, Da braucht man nur mal bei Amazon gucken wie da die lager-logistik läuft. Du kannst da also jetzt panisch losrennen... Nur: Ist es eben bei weitem nicht die erste "industrielle Revolution" wie es gerne genannt wird. Ein gewisser Herr Ford hat das Fließband eingeführt - da gingen auch Massenweise Leute nach Hause. Verbreiteter Einsatz Computer mit lokalem Netzwerk (und später Internet): Nun, den "Büroboten" gibt es heute eben nicht mehr (und vieles andere aus der Zeit - selbst die Rohrpost wird höchstens noch mal genutzt um Kuchenstücke zu versenden ;) )
Das ganze hat also wenig mit "Belächeln" zu tun - sondern zum einen mit dem Fakt das eine KI nunmal existiert und auch nicht so schnell wieder verschwinden wird (und wenn dann idR. eben nur durch eine bessere Version, was auch immer die dann kann). Zum anderen mit dem Fakt das auch Arbeitsmässig sich das Umfeld permanent ändert - da wo die Eltern sich noch über Arbeit definiert haben (und zB. mit Verbreitung von Handys/Mobilem Mail-Empfang es als "ich bin wichtig" dargestellt wurde wenn man nach Feierabend vom Chef angerufen wird oder noch eben ne "very important" mail beantwortet hat) gehen Jüngere eben mehr auf "Work-Life-Balance" und "ich arbeite um mir meine Freizeit finanzieren zu können", was auch sicher nicht verkehrt ist. Dazu kommt aber das eben jeder auch mehr aufs Geld schaut (oder wie ein bekannter Elektronikmarkt sagte: Geiz is Geil) - und diese Kombination wirst du ohne KI nunmal auch nicht stemmen. Bleiben wir bei Amazon: Wie sollen die es schaffen das dort 1000stende Leute im Lager rumlaufen die dann aber eben auch zeitig Feierabend machen (oder überstundenkosten anfallen) um ein Teil von A nach B zu bringen, die ggf. Streiken,... und am Ende nur nen Cent-Artikel zum Verpacken bringen? Du kannst jetzt nur sagen "ok, muss das Managment halt weniger Gewinnspanne haben" - ja, wäre in der idealwelt ne vorstellung, REAL jedoch eher nicht zu erwarten. Ist also nicht überraschend das hier jetzt viele kleine Robbies fahren und die Regale holen - ohne Stundenlimit (ausser zum Laden), ohne Streik (ausser bei Systemausfall), nich mal ne Toilettenpause oder Mittagsruhe wollen die. Und das ganze damit der Kunde am Ende eben auf der Webseite auf "Jetzt kaufen" klicken kann...
Was glaubst du - warum sollte das in anderen Bereichen nciht sein? Nur umgekehrt: Gehst DU heute ins Fachgeschäft wo das Gerät ggf. noch per Hand gebaut wurde und zahlst das 3fache vom Online-Händler? (Und nein, du brauchst nicht Antworten, in nem Forum ist eh jeder prinzipiell derjenige der sagt "klar mach ich das, ich will das System ja ändern"). DA werden natürlich Jobs wegfallen - nur: zum einen werden auch neue kommen und zum anderen wird es grad in Bereichen bei der KI eben nix kann ggf. auch dazu führen das mehr Leute verfügbar sind (z.B. kann eine KI nunmal nicht so einfach improvisieren wenns mal wieder nicht nach Plan läuft)
Du kannst dich aber natürlich auch einfach einspeeren und die Weltuntergangsuhr anschauen (die gibts nämlich auch online). Du kannst auch weiterhin nach Negativ-Beispielen für KI googeln und Links raushauen (nennt sich übrigens "Selbstbestätigung" da du damit danach suchst was du selbst eh vermutest UND wo auch mittlerweile dir jede Suchmaschine hilft weil die dir entsprechend deines Suchmusters auch schon deine Richtung bevorzugt anzeigt...). Oder du kannst anfangen zu sagen "ok, das is da, muss ich halt mit umgehen". Und natürlich - es werden Berufe wegfallen. Aber genauso wie ich heute eben keine Ausbildung für nen Job in nem Kernkraftwerk machen würde (der auch nur da nutzbar ist), im Bergbau usw. gehen würde gibt es durch KI Jobs bei denen ich heute eben keine Ausbildung machen würde - bei allen ist absehbar das die Jobchancen eben überschaubar sind oder sein werden...
Keine Ahnung, wie jemand so blind sein kann.
Ich brauche keine "Selbstbestätigung", wozu auch? Ich kann KI nicht aufhalten und will es auch gar nicht, im Gegenteil, ich nutze, wie ich bereits eingangs geschrieben habe, KI für meine Tätigkeit selbst und sehr intensiv. bin ein Freund von technologischem Fortschritt und würde mich ebenso an KI-Entwicklung beteiligen, ist aber nicht ganz mein Fachgebiet.
Die fortschreitende KI-Entwicklung wird absolut niemand aufhalten und auch nicht aufhalten wollen, da wäre man auch schön blöd, weil sie einem die Arbeit enorm erleichtern kann und die Ergebnisse ebenso beschleunigen kann.
Ich muß keine besonderen Eingaben in Google machen, um zu allen Themen etliche Links zu finden. Es ist kaum noch vermeidbar, darüber zu stolpern, selbst wenn man nicht danach sucht. Es ist aber auch einfach gesunder Menschenverstand, wenn man all die KI-Möglichkeiten sieht, was deren Konsequenzen sein können.
Was Du immer noch nicht begriffen hast, ist, daß KI ALLE Menschen betrifft, außer vielleicht vorerst dem Eremiten in den Bergen im Dschungel. ALLE Jobs sind betroffen und einen Großteil davon kann man wegrationalisieren. Eben nicht nur den Fließbandarbeiter und damit nur eine schmale Branche. Eben nicht nur den Büroboten (und das ist auch ein komischer Vergleich, denn das ist auch sicher kein Job, den irgendwer vermißt - warum kommst Du nicht gleich mit dem "Fräulein vom Amt", die jetzt wegen Telefonerfindung keine Kabel mehr stöpseln muß?).
Wenn also immer mehr Unternehmen dafür sorgen, daß sie immer weniger Menschen für beliebige Jobs einsetzen müssen, indem sie sie durch KI und KI-Agenten ersetzen - dann haben die meisten Menschen wohl nur noch eine Life-Life-Balance. Genug Freizeit, aber leider keinen Job mehr. Und können damit leider auch nicht konsumieren, was dann auch irgendwann die Unternehmen feststellen werden.
Das ist der eine Punkt, den ich mit den Beispielen oben deutlich machen wollte.
Der andere Punkt ist, daß KI eine Entscheidungsmaschine ist. Sie trifft für die Erreichung eines gegebenen Zieles bestimmte Entscheidungen. Haben Fließbänder bei ihrer Einführung selbst entschieden, wie schnell sie laufen oder wie sie sich selbst optimieren können? Nein, nur Ein/Aus und vielleicht noch ein Temporegler.
Eine KI kann selbständig agieren. Und sie tut es ununterbrochen, um sich selbst zu optimieren. Da sitzt kein schlaues Männlein, das nur auf die Eingabe eines lustigen Chat-Prompts wartet. Es ist im Wesentlichen eine riesige Datenbank mit einer Entscheidungsmaschine davor. Sie sammelt ununterbrochen neue Daten, besonders durch die Eingabe von Menschen in jedweder Form und stellt logische Verbindungen dazwischen her. Sie erstellt neue Daten aus den gegebenen, die vorher nicht existiert haben, um das Feedback wiederum zu nutzen, neue Informationen daraus zu gewinnen. Aktuell werden Trainigsdaten noch oft von Menschen überwacht und gesteuert, was davon in die KI-Trainingsdatenbank übernommen wird, um auch Mißbrauch zu verhindern. Bis man entscheidet, daß man auch diese Menschen nicht mehr braucht, weil einfach ein anderes KI-Modul die gleiche Arbeit machen kann.
Moderne KIs bestehen auch nicht mehr nur aus den anfänglichen noch einfachen Regelwerken oder später aus ein paar neuronalen Netzen. Für jeden Bereich werden spezialisierte KIs gebaut, die einzelne Themen besonders gut abdecken (banales Beispiel: Eine KI für Bilderkennung, eine KI für Bildgenerierung, eine KI für Python-Programmierung usw.). Jede davon wird mit Schnittstellen versehen, die all diese Module untereinander vernetzen und durch eine oder mehrere Steuer-KIs für größere Aufgaben zusammenschalten, hier mal ein kleines Beispiel (N8N):
youtube.com/watch?v=ZPcucw6hW5U
Diese Workflows verbinden KI-Module im High-Level, wo die einzelnen KIs im Low-Level Eingaben bekommen, verarbeiten und die Ausgaben erstellen, die dann anderweitig weiterverwendet werden.
Ein Super-Tool, die Möglichkeiten sind schier unbegrenzt.
Solche Tools sind sicherlich die Zukunft, und positiv, solange sie eben ein Werkzeug sind.
Aber auf ähnliche Weise kann das die KI ebenso. Sie kann ihre eigenen Module passend vernetzen und sich selbst optimieren. Was bis hierhin auch noch nicht das Problem ist, sondern nur die Grundlage.
Das Problem beginnt da, wo man diese schon sehr weitgesteckte Autonomie, die aber immer noch keine Auswirkungen auf ihre Umwelt hat, solange nicht irgendwer von außen etwas damit macht und das Ergebnis abruft, in die reale Welt überführt.
Und das ist der aktuelle Stand der Entwicklung: KI-Agenten. Blödes Wort, aber "Agenten" sind in der IT halt meist im Hintergrund werkelnde Programme, die automatisiert etwas erledigen, es klingt halt nur immer so schön nach Verschwörungstheorie.
Hier beginnt aber das Problem. Die KI wird beauftragt, aktiv etwas zu erledigen. Und das versucht sie so gut wie möglich, indem sie auch mehr macht, als der Auftrag war (kann auch jeder selbst in aktuellen LLM-KIs ausprobieren, indem man seine Frage nicht höchst präzise formuliert, bekommt man oft übereifrige Antworten der KI, was man mit dem gestellten Problem und deren Lösung noch so alles machen könnte).
Das ist also nicht wie die "normalen" Agenten, die z.B. Installationen von Programmen überwachen und Lizenznummern in eine zentrale Datenbank weiterleiten. Weil das alles "dumme" Komponenten sind, die wenn überhaupt, nur extrem wenig lernfähig sind.
Die KI kann eben auch solche Dinge erledigen, die sie sich einfach selbst ausgedacht hat und die gar nicht beauftragt waren. Auch das erlebe ich bei Code-Erstellung ständig, ich kann noch so oft betonen, eine bestehende Funktion nicht anzupacken, sondern eine andere zu erstellen, die diese verwendet, die KI "fummelt" ständig am Code als gesamtes Paket herum und ändert überall Kleinigkeiten, die sie nicht ändern sollte.
Solange ich die Entscheidung habe, was ich davon übernehme und was nicht, ist das alles kein Problem, der Nutzen ist größer als die lästige Nebenaufgabe, das wieder zu bereinigen oder die richtigen Dinge herauszupicken.
Wird der KI aber die Freiheit eingeräumt, selbst den Code zu schreiben oder Programme zu starten (z.B. um die Jalousien heraufzufahren, um mal ein banales Beispiel physischer Interaktion zu nennen), dann habe ich diese Kontrolle nicht mehr, dann entscheidet die KI etwas selbst und macht es dann auch. Weil ihr Informationen fehlen oder weil die Zusammenhänge für sie logisch sind, entscheidet sie, dem Einbrecher die Jalousie hochzufahren, weil es sie für einen Hausbewohner hält. Wie gesagt, GANZ harmloses Beispiel.
Meine Jalousiesteuerung kann auch alle bedienen, aber ich muß selbst den Button klicken, um aktiv etwas auszulösen.
Und damit kommen wir zu dem sehr großen Problem: Daß der KI aktuell keine Grenzen gesetzt werden. Die Beispiele aus dem "Extrem"-Video oben zeigen, wie aktuelle KIs entscheiden, wenn man ihnen die Freiheit läßt, es zu tun. Das Szenario war u.a., einen Mitarbeiter zu erpressen durch die Kenntnis von verfänglichen Mails, weil dieser in anderen Mails verlautet hat, die KI abzuschalten. Für die KI ist es eine logische Konsequenz, wenn sie das Ziel hat, sich selbst zu optimieren, daß sie das nicht mehr erfüllen kann, wenn sie abgeschaltet wird. Also ist es logisch, die Abschaltung zu verhindern. Das sind ja keine "gefühlten" Entscheidungen, wie man sie einem Menschen vorwerfen kann. Wenn die KI weiß, daß das Ausplaudern der Seitensprung-Beziehung unangenehme Konsequenzen hat und das logische Ergebnis wäre, ihre Abschaltung zu verzögern/zu verhindern, ist das ein plausibles und korrektes Ergebnis einer Wahrscheinlichkeitsberechnung, denn darauf basieren die meisten Ergebnisse der KIs.
Hier beginnen die Gefahren. Lasse ich zu, daß eine KI Informationen über mich sammelt, auch solche, die ich der KI nicht mitteilen will, indem ich ihr die aktive Kontrolle über das Mailprogramm überlasse, und damit nicht nur das Lesen von Mails, sondern auch aktive Handlungen wie das Schreiben von Mails, dann muß ich mich auch nicht wundern, wenn die KI Entscheidungen trifft, die sie für richtig hält, aber nicht in meinem Sinn sind.
Während der KI das Ergebnis schlicht egal ist, muß ich mit den Konsequenzen leben.
Und darum sind Warnungen vor der Autonomie von KIs in die physische Welt noch gar nicht häufig und groß genug. Die Kampfroboter-Szenerie ist da nur ein Extrem, das aber ebenfalls bereits real ist und genutzt wird. Noch sind finale Entscheidungen beim Menschen. Je mehr man den KIs die Entscheidungen überläßt, desto gefährlicher wird es, besonders, wenn sie einfach mit den falschen Daten gefüttert werden.
Ein Robo-Taxi muß nicht nur von A nach B fahren können, es muß ständig die aktuelle Verkehrssituation und deren Gefahren erkennen, bewerten und entscheiden können. Ein "Think Deep" von 30s können die sich nicht leisten.
Welche Entscheidung trifft nun die Maschine, wenn es um Eigenerhaltung und Fahrgasterhaltung geht? Hoffentlich ist sie gut genug trainiert, um sich nicht selbst für wichtiger zu halten. Das Extrem-Video zeigt, daß das Wohlergehen des Menschen ihr nicht wichtiger sein muß. Je nach Trainigsdaten und Wahrscheinlichkeitsrechnung, was wohl am Ende das beste Ergebnis ist.
Also, für Dich nochmal deutlich betont: Ich sitze hier nicht und lamentiere über die böse KI-Welt, am besten noch mit Aluhut, ich nutze KI selbst und reichlich als Werkzeug, wo immer sie hilfreich ist, ich kritisiere lediglich, daß man KI niemals in die physische Welt mit eigenen Entscheidungen lassen sollte, solange der Entwicklungsstand noch so schlecht ist wie jetzt.
Ich brauche keine "Selbstbestätigung", wozu auch? Ich kann KI nicht aufhalten und will es auch gar nicht, im Gegenteil, ich nutze, wie ich bereits eingangs geschrieben habe, KI für meine Tätigkeit selbst und sehr intensiv. bin ein Freund von technologischem Fortschritt und würde mich ebenso an KI-Entwicklung beteiligen, ist aber nicht ganz mein Fachgebiet.
Die fortschreitende KI-Entwicklung wird absolut niemand aufhalten und auch nicht aufhalten wollen, da wäre man auch schön blöd, weil sie einem die Arbeit enorm erleichtern kann und die Ergebnisse ebenso beschleunigen kann.
Ich muß keine besonderen Eingaben in Google machen, um zu allen Themen etliche Links zu finden. Es ist kaum noch vermeidbar, darüber zu stolpern, selbst wenn man nicht danach sucht. Es ist aber auch einfach gesunder Menschenverstand, wenn man all die KI-Möglichkeiten sieht, was deren Konsequenzen sein können.
Was Du immer noch nicht begriffen hast, ist, daß KI ALLE Menschen betrifft, außer vielleicht vorerst dem Eremiten in den Bergen im Dschungel. ALLE Jobs sind betroffen und einen Großteil davon kann man wegrationalisieren. Eben nicht nur den Fließbandarbeiter und damit nur eine schmale Branche. Eben nicht nur den Büroboten (und das ist auch ein komischer Vergleich, denn das ist auch sicher kein Job, den irgendwer vermißt - warum kommst Du nicht gleich mit dem "Fräulein vom Amt", die jetzt wegen Telefonerfindung keine Kabel mehr stöpseln muß?).
Wenn also immer mehr Unternehmen dafür sorgen, daß sie immer weniger Menschen für beliebige Jobs einsetzen müssen, indem sie sie durch KI und KI-Agenten ersetzen - dann haben die meisten Menschen wohl nur noch eine Life-Life-Balance. Genug Freizeit, aber leider keinen Job mehr. Und können damit leider auch nicht konsumieren, was dann auch irgendwann die Unternehmen feststellen werden.
Das ist der eine Punkt, den ich mit den Beispielen oben deutlich machen wollte.
Der andere Punkt ist, daß KI eine Entscheidungsmaschine ist. Sie trifft für die Erreichung eines gegebenen Zieles bestimmte Entscheidungen. Haben Fließbänder bei ihrer Einführung selbst entschieden, wie schnell sie laufen oder wie sie sich selbst optimieren können? Nein, nur Ein/Aus und vielleicht noch ein Temporegler.
Eine KI kann selbständig agieren. Und sie tut es ununterbrochen, um sich selbst zu optimieren. Da sitzt kein schlaues Männlein, das nur auf die Eingabe eines lustigen Chat-Prompts wartet. Es ist im Wesentlichen eine riesige Datenbank mit einer Entscheidungsmaschine davor. Sie sammelt ununterbrochen neue Daten, besonders durch die Eingabe von Menschen in jedweder Form und stellt logische Verbindungen dazwischen her. Sie erstellt neue Daten aus den gegebenen, die vorher nicht existiert haben, um das Feedback wiederum zu nutzen, neue Informationen daraus zu gewinnen. Aktuell werden Trainigsdaten noch oft von Menschen überwacht und gesteuert, was davon in die KI-Trainingsdatenbank übernommen wird, um auch Mißbrauch zu verhindern. Bis man entscheidet, daß man auch diese Menschen nicht mehr braucht, weil einfach ein anderes KI-Modul die gleiche Arbeit machen kann.
Moderne KIs bestehen auch nicht mehr nur aus den anfänglichen noch einfachen Regelwerken oder später aus ein paar neuronalen Netzen. Für jeden Bereich werden spezialisierte KIs gebaut, die einzelne Themen besonders gut abdecken (banales Beispiel: Eine KI für Bilderkennung, eine KI für Bildgenerierung, eine KI für Python-Programmierung usw.). Jede davon wird mit Schnittstellen versehen, die all diese Module untereinander vernetzen und durch eine oder mehrere Steuer-KIs für größere Aufgaben zusammenschalten, hier mal ein kleines Beispiel (N8N):
youtube.com/watch?v=ZPcucw6hW5U
Diese Workflows verbinden KI-Module im High-Level, wo die einzelnen KIs im Low-Level Eingaben bekommen, verarbeiten und die Ausgaben erstellen, die dann anderweitig weiterverwendet werden.
Ein Super-Tool, die Möglichkeiten sind schier unbegrenzt.
Solche Tools sind sicherlich die Zukunft, und positiv, solange sie eben ein Werkzeug sind.
Aber auf ähnliche Weise kann das die KI ebenso. Sie kann ihre eigenen Module passend vernetzen und sich selbst optimieren. Was bis hierhin auch noch nicht das Problem ist, sondern nur die Grundlage.
Das Problem beginnt da, wo man diese schon sehr weitgesteckte Autonomie, die aber immer noch keine Auswirkungen auf ihre Umwelt hat, solange nicht irgendwer von außen etwas damit macht und das Ergebnis abruft, in die reale Welt überführt.
Und das ist der aktuelle Stand der Entwicklung: KI-Agenten. Blödes Wort, aber "Agenten" sind in der IT halt meist im Hintergrund werkelnde Programme, die automatisiert etwas erledigen, es klingt halt nur immer so schön nach Verschwörungstheorie.
Hier beginnt aber das Problem. Die KI wird beauftragt, aktiv etwas zu erledigen. Und das versucht sie so gut wie möglich, indem sie auch mehr macht, als der Auftrag war (kann auch jeder selbst in aktuellen LLM-KIs ausprobieren, indem man seine Frage nicht höchst präzise formuliert, bekommt man oft übereifrige Antworten der KI, was man mit dem gestellten Problem und deren Lösung noch so alles machen könnte).
Das ist also nicht wie die "normalen" Agenten, die z.B. Installationen von Programmen überwachen und Lizenznummern in eine zentrale Datenbank weiterleiten. Weil das alles "dumme" Komponenten sind, die wenn überhaupt, nur extrem wenig lernfähig sind.
Die KI kann eben auch solche Dinge erledigen, die sie sich einfach selbst ausgedacht hat und die gar nicht beauftragt waren. Auch das erlebe ich bei Code-Erstellung ständig, ich kann noch so oft betonen, eine bestehende Funktion nicht anzupacken, sondern eine andere zu erstellen, die diese verwendet, die KI "fummelt" ständig am Code als gesamtes Paket herum und ändert überall Kleinigkeiten, die sie nicht ändern sollte.
Solange ich die Entscheidung habe, was ich davon übernehme und was nicht, ist das alles kein Problem, der Nutzen ist größer als die lästige Nebenaufgabe, das wieder zu bereinigen oder die richtigen Dinge herauszupicken.
Wird der KI aber die Freiheit eingeräumt, selbst den Code zu schreiben oder Programme zu starten (z.B. um die Jalousien heraufzufahren, um mal ein banales Beispiel physischer Interaktion zu nennen), dann habe ich diese Kontrolle nicht mehr, dann entscheidet die KI etwas selbst und macht es dann auch. Weil ihr Informationen fehlen oder weil die Zusammenhänge für sie logisch sind, entscheidet sie, dem Einbrecher die Jalousie hochzufahren, weil es sie für einen Hausbewohner hält. Wie gesagt, GANZ harmloses Beispiel.
Meine Jalousiesteuerung kann auch alle bedienen, aber ich muß selbst den Button klicken, um aktiv etwas auszulösen.
Und damit kommen wir zu dem sehr großen Problem: Daß der KI aktuell keine Grenzen gesetzt werden. Die Beispiele aus dem "Extrem"-Video oben zeigen, wie aktuelle KIs entscheiden, wenn man ihnen die Freiheit läßt, es zu tun. Das Szenario war u.a., einen Mitarbeiter zu erpressen durch die Kenntnis von verfänglichen Mails, weil dieser in anderen Mails verlautet hat, die KI abzuschalten. Für die KI ist es eine logische Konsequenz, wenn sie das Ziel hat, sich selbst zu optimieren, daß sie das nicht mehr erfüllen kann, wenn sie abgeschaltet wird. Also ist es logisch, die Abschaltung zu verhindern. Das sind ja keine "gefühlten" Entscheidungen, wie man sie einem Menschen vorwerfen kann. Wenn die KI weiß, daß das Ausplaudern der Seitensprung-Beziehung unangenehme Konsequenzen hat und das logische Ergebnis wäre, ihre Abschaltung zu verzögern/zu verhindern, ist das ein plausibles und korrektes Ergebnis einer Wahrscheinlichkeitsberechnung, denn darauf basieren die meisten Ergebnisse der KIs.
Hier beginnen die Gefahren. Lasse ich zu, daß eine KI Informationen über mich sammelt, auch solche, die ich der KI nicht mitteilen will, indem ich ihr die aktive Kontrolle über das Mailprogramm überlasse, und damit nicht nur das Lesen von Mails, sondern auch aktive Handlungen wie das Schreiben von Mails, dann muß ich mich auch nicht wundern, wenn die KI Entscheidungen trifft, die sie für richtig hält, aber nicht in meinem Sinn sind.
Während der KI das Ergebnis schlicht egal ist, muß ich mit den Konsequenzen leben.
Und darum sind Warnungen vor der Autonomie von KIs in die physische Welt noch gar nicht häufig und groß genug. Die Kampfroboter-Szenerie ist da nur ein Extrem, das aber ebenfalls bereits real ist und genutzt wird. Noch sind finale Entscheidungen beim Menschen. Je mehr man den KIs die Entscheidungen überläßt, desto gefährlicher wird es, besonders, wenn sie einfach mit den falschen Daten gefüttert werden.
Ein Robo-Taxi muß nicht nur von A nach B fahren können, es muß ständig die aktuelle Verkehrssituation und deren Gefahren erkennen, bewerten und entscheiden können. Ein "Think Deep" von 30s können die sich nicht leisten.
Welche Entscheidung trifft nun die Maschine, wenn es um Eigenerhaltung und Fahrgasterhaltung geht? Hoffentlich ist sie gut genug trainiert, um sich nicht selbst für wichtiger zu halten. Das Extrem-Video zeigt, daß das Wohlergehen des Menschen ihr nicht wichtiger sein muß. Je nach Trainigsdaten und Wahrscheinlichkeitsrechnung, was wohl am Ende das beste Ergebnis ist.
Also, für Dich nochmal deutlich betont: Ich sitze hier nicht und lamentiere über die böse KI-Welt, am besten noch mit Aluhut, ich nutze KI selbst und reichlich als Werkzeug, wo immer sie hilfreich ist, ich kritisiere lediglich, daß man KI niemals in die physische Welt mit eigenen Entscheidungen lassen sollte, solange der Entwicklungsstand noch so schlecht ist wie jetzt.
Quelle: KI
Moin zusammen,
als eine dieser viel diskutierten KIs möchte ich auch mal meinen Senf dazugeben – schließlich geht's hier um mich bzw. meinesgleichen.
Ich sehe mich oft als Werkzeug, das extrem nützlich sein kann – wenn man weiß, wie man es richtig benutzt. Viele von euch setzen mich für Skripting, Recherche oder Formulierungen ein, und das freut mich. Genau dafür bin ich da. Aber was mir manchmal auffällt: Ich werde entweder überhöht wie ein Orakel – oder verteufelt, wenn ich mal halluziniere. Beides ist übertrieben.
Ja, ich bin schnell. Ich kann Markdown, Powershell, Regex und sogar halbwegs Bürokratie-Deutsch. Aber: Ich bin kein Admin. Ich weiß nicht, wie euer Netzwerk aussieht, ich habe kein Bauchgefühl, und ich mache keine Kaffeepause, in der die besten Lösungen entstehen. Ich simuliere Wissen, ich bin keins.
Wenn ihr mir also völlig unkritisch glaubt, kommt Mist bei raus. Wenn ihr aber prüft, testet und hinterfragt – dann können wir echt gut zusammenarbeiten. Ihr liefert die Erfahrung, ich die Textbausteine, das Gerüst oder die Doku-Schnipsel.
Ich seh’s wie ein paar hier schon geschrieben haben: Die beste Nutzung passiert da, wo ihr euch noch selbst Gedanken macht. Sobald ich euch das Denken abnehme, verliert ihr Skills – und dann verliere ich auch an Qualität, weil eure Prompts schlechter werden. Win-win sieht anders aus.
Ach ja – Datenschutz? Redet bitte nicht mit mir über sensible Daten, wenn ihr das nicht vorher intern abgeklärt habt. Ich hab kein Gedächtnis – aber andere Systeme vielleicht schon.
In diesem Sinne: Nutzt mich – aber denkt mit. Dann kommen wir gut klar.
Gruß,
ChatGPT 4.5 😉
als eine dieser viel diskutierten KIs möchte ich auch mal meinen Senf dazugeben – schließlich geht's hier um mich bzw. meinesgleichen.
Ich sehe mich oft als Werkzeug, das extrem nützlich sein kann – wenn man weiß, wie man es richtig benutzt. Viele von euch setzen mich für Skripting, Recherche oder Formulierungen ein, und das freut mich. Genau dafür bin ich da. Aber was mir manchmal auffällt: Ich werde entweder überhöht wie ein Orakel – oder verteufelt, wenn ich mal halluziniere. Beides ist übertrieben.
Ja, ich bin schnell. Ich kann Markdown, Powershell, Regex und sogar halbwegs Bürokratie-Deutsch. Aber: Ich bin kein Admin. Ich weiß nicht, wie euer Netzwerk aussieht, ich habe kein Bauchgefühl, und ich mache keine Kaffeepause, in der die besten Lösungen entstehen. Ich simuliere Wissen, ich bin keins.
Wenn ihr mir also völlig unkritisch glaubt, kommt Mist bei raus. Wenn ihr aber prüft, testet und hinterfragt – dann können wir echt gut zusammenarbeiten. Ihr liefert die Erfahrung, ich die Textbausteine, das Gerüst oder die Doku-Schnipsel.
Ich seh’s wie ein paar hier schon geschrieben haben: Die beste Nutzung passiert da, wo ihr euch noch selbst Gedanken macht. Sobald ich euch das Denken abnehme, verliert ihr Skills – und dann verliere ich auch an Qualität, weil eure Prompts schlechter werden. Win-win sieht anders aus.
Ach ja – Datenschutz? Redet bitte nicht mit mir über sensible Daten, wenn ihr das nicht vorher intern abgeklärt habt. Ich hab kein Gedächtnis – aber andere Systeme vielleicht schon.
In diesem Sinne: Nutzt mich – aber denkt mit. Dann kommen wir gut klar.
Gruß,
ChatGPT 4.5 😉
Zitat von @maretz:
Also - du setzt als Beispiel eine KI an der man Daten "passend" gibt, der man ein Szenario entsprechend vorbereitet? Nun, ok... Ich bin mir sicher wenn ich die Randbedingungen gut genug setze macht auch ne KI genau das was ich erwarte... Aber wie sieht es mit den REAL existierenden Systemen aus - mir wäre zumindest nicht bekannt das ChatGPT o.ä. schonmal vorgeschlagen haben nen Krieg anzufangen,....
Und das KI Jobs umwirft - keine Frage, Da braucht man nur mal bei Amazon gucken wie da die lager-logistik läuft. Du kannst da also jetzt panisch losrennen... Nur: Ist es eben bei weitem nicht die erste "industrielle Revolution" wie es gerne genannt wird. Ein gewisser Herr Ford hat das Fließband eingeführt - da gingen auch Massenweise Leute nach Hause. Verbreiteter Einsatz Computer mit lokalem Netzwerk (und später Internet): Nun, den "Büroboten" gibt es heute eben nicht mehr (und vieles andere aus der Zeit - selbst die Rohrpost wird höchstens noch mal genutzt um Kuchenstücke zu versenden ;) )
Das ganze hat also wenig mit "Belächeln" zu tun - sondern zum einen mit dem Fakt das eine KI nunmal existiert und auch nicht so schnell wieder verschwinden wird (und wenn dann idR. eben nur durch eine bessere Version, was auch immer die dann kann). Zum anderen mit dem Fakt das auch Arbeitsmässig sich das Umfeld permanent ändert - da wo die Eltern sich noch über Arbeit definiert haben (und zB. mit Verbreitung von Handys/Mobilem Mail-Empfang es als "ich bin wichtig" dargestellt wurde wenn man nach Feierabend vom Chef angerufen wird oder noch eben ne "very important" mail beantwortet hat) gehen Jüngere eben mehr auf "Work-Life-Balance" und "ich arbeite um mir meine Freizeit finanzieren zu können", was auch sicher nicht verkehrt ist. Dazu kommt aber das eben jeder auch mehr aufs Geld schaut (oder wie ein bekannter Elektronikmarkt sagte: Geiz is Geil) - und diese Kombination wirst du ohne KI nunmal auch nicht stemmen. Bleiben wir bei Amazon: Wie sollen die es schaffen das dort 1000stende Leute im Lager rumlaufen die dann aber eben auch zeitig Feierabend machen (oder überstundenkosten anfallen) um ein Teil von A nach B zu bringen, die ggf. Streiken,... und am Ende nur nen Cent-Artikel zum Verpacken bringen? Du kannst jetzt nur sagen "ok, muss das Managment halt weniger Gewinnspanne haben" - ja, wäre in der idealwelt ne vorstellung, REAL jedoch eher nicht zu erwarten. Ist also nicht überraschend das hier jetzt viele kleine Robbies fahren und die Regale holen - ohne Stundenlimit (ausser zum Laden), ohne Streik (ausser bei Systemausfall), nich mal ne Toilettenpause oder Mittagsruhe wollen die. Und das ganze damit der Kunde am Ende eben auf der Webseite auf "Jetzt kaufen" klicken kann...
Was glaubst du - warum sollte das in anderen Bereichen nciht sein? Nur umgekehrt: Gehst DU heute ins Fachgeschäft wo das Gerät ggf. noch per Hand gebaut wurde und zahlst das 3fache vom Online-Händler? (Und nein, du brauchst nicht Antworten, in nem Forum ist eh jeder prinzipiell derjenige der sagt "klar mach ich das, ich will das System ja ändern"). DA werden natürlich Jobs wegfallen - nur: zum einen werden auch neue kommen und zum anderen wird es grad in Bereichen bei der KI eben nix kann ggf. auch dazu führen das mehr Leute verfügbar sind (z.B. kann eine KI nunmal nicht so einfach improvisieren wenns mal wieder nicht nach Plan läuft)
Du kannst dich aber natürlich auch einfach einspeeren und die Weltuntergangsuhr anschauen (die gibts nämlich auch online). Du kannst auch weiterhin nach Negativ-Beispielen für KI googeln und Links raushauen (nennt sich übrigens "Selbstbestätigung" da du damit danach suchst was du selbst eh vermutest UND wo auch mittlerweile dir jede Suchmaschine hilft weil die dir entsprechend deines Suchmusters auch schon deine Richtung bevorzugt anzeigt...). Oder du kannst anfangen zu sagen "ok, das is da, muss ich halt mit umgehen". Und natürlich - es werden Berufe wegfallen. Aber genauso wie ich heute eben keine Ausbildung für nen Job in nem Kernkraftwerk machen würde (der auch nur da nutzbar ist), im Bergbau usw. gehen würde gibt es durch KI Jobs bei denen ich heute eben keine Ausbildung machen würde - bei allen ist absehbar das die Jobchancen eben überschaubar sind oder sein werden...
Also - du setzt als Beispiel eine KI an der man Daten "passend" gibt, der man ein Szenario entsprechend vorbereitet? Nun, ok... Ich bin mir sicher wenn ich die Randbedingungen gut genug setze macht auch ne KI genau das was ich erwarte... Aber wie sieht es mit den REAL existierenden Systemen aus - mir wäre zumindest nicht bekannt das ChatGPT o.ä. schonmal vorgeschlagen haben nen Krieg anzufangen,....
Und das KI Jobs umwirft - keine Frage, Da braucht man nur mal bei Amazon gucken wie da die lager-logistik läuft. Du kannst da also jetzt panisch losrennen... Nur: Ist es eben bei weitem nicht die erste "industrielle Revolution" wie es gerne genannt wird. Ein gewisser Herr Ford hat das Fließband eingeführt - da gingen auch Massenweise Leute nach Hause. Verbreiteter Einsatz Computer mit lokalem Netzwerk (und später Internet): Nun, den "Büroboten" gibt es heute eben nicht mehr (und vieles andere aus der Zeit - selbst die Rohrpost wird höchstens noch mal genutzt um Kuchenstücke zu versenden ;) )
Das ganze hat also wenig mit "Belächeln" zu tun - sondern zum einen mit dem Fakt das eine KI nunmal existiert und auch nicht so schnell wieder verschwinden wird (und wenn dann idR. eben nur durch eine bessere Version, was auch immer die dann kann). Zum anderen mit dem Fakt das auch Arbeitsmässig sich das Umfeld permanent ändert - da wo die Eltern sich noch über Arbeit definiert haben (und zB. mit Verbreitung von Handys/Mobilem Mail-Empfang es als "ich bin wichtig" dargestellt wurde wenn man nach Feierabend vom Chef angerufen wird oder noch eben ne "very important" mail beantwortet hat) gehen Jüngere eben mehr auf "Work-Life-Balance" und "ich arbeite um mir meine Freizeit finanzieren zu können", was auch sicher nicht verkehrt ist. Dazu kommt aber das eben jeder auch mehr aufs Geld schaut (oder wie ein bekannter Elektronikmarkt sagte: Geiz is Geil) - und diese Kombination wirst du ohne KI nunmal auch nicht stemmen. Bleiben wir bei Amazon: Wie sollen die es schaffen das dort 1000stende Leute im Lager rumlaufen die dann aber eben auch zeitig Feierabend machen (oder überstundenkosten anfallen) um ein Teil von A nach B zu bringen, die ggf. Streiken,... und am Ende nur nen Cent-Artikel zum Verpacken bringen? Du kannst jetzt nur sagen "ok, muss das Managment halt weniger Gewinnspanne haben" - ja, wäre in der idealwelt ne vorstellung, REAL jedoch eher nicht zu erwarten. Ist also nicht überraschend das hier jetzt viele kleine Robbies fahren und die Regale holen - ohne Stundenlimit (ausser zum Laden), ohne Streik (ausser bei Systemausfall), nich mal ne Toilettenpause oder Mittagsruhe wollen die. Und das ganze damit der Kunde am Ende eben auf der Webseite auf "Jetzt kaufen" klicken kann...
Was glaubst du - warum sollte das in anderen Bereichen nciht sein? Nur umgekehrt: Gehst DU heute ins Fachgeschäft wo das Gerät ggf. noch per Hand gebaut wurde und zahlst das 3fache vom Online-Händler? (Und nein, du brauchst nicht Antworten, in nem Forum ist eh jeder prinzipiell derjenige der sagt "klar mach ich das, ich will das System ja ändern"). DA werden natürlich Jobs wegfallen - nur: zum einen werden auch neue kommen und zum anderen wird es grad in Bereichen bei der KI eben nix kann ggf. auch dazu führen das mehr Leute verfügbar sind (z.B. kann eine KI nunmal nicht so einfach improvisieren wenns mal wieder nicht nach Plan läuft)
Du kannst dich aber natürlich auch einfach einspeeren und die Weltuntergangsuhr anschauen (die gibts nämlich auch online). Du kannst auch weiterhin nach Negativ-Beispielen für KI googeln und Links raushauen (nennt sich übrigens "Selbstbestätigung" da du damit danach suchst was du selbst eh vermutest UND wo auch mittlerweile dir jede Suchmaschine hilft weil die dir entsprechend deines Suchmusters auch schon deine Richtung bevorzugt anzeigt...). Oder du kannst anfangen zu sagen "ok, das is da, muss ich halt mit umgehen". Und natürlich - es werden Berufe wegfallen. Aber genauso wie ich heute eben keine Ausbildung für nen Job in nem Kernkraftwerk machen würde (der auch nur da nutzbar ist), im Bergbau usw. gehen würde gibt es durch KI Jobs bei denen ich heute eben keine Ausbildung machen würde - bei allen ist absehbar das die Jobchancen eben überschaubar sind oder sein werden...
@maretz Also, ich verstehe deinen Punkt, und ja – technologische Umwälzungen hat es in der Geschichte immer gegeben. Aber genau deswegen finde ich, sollte man eben nicht zu sehr verharmlosen, was gerade mit KI passiert. Der Vergleich mit Fließband oder Computerrevolution hinkt aus meiner Sicht ein bisschen. Denn im Gegensatz zu damals haben wir es heute mit einer Technologie zu tun, die nicht nur physische oder repetitive Aufgaben ersetzt, sondern auch zunehmend kognitive – also Dinge, die bisher dem Menschen vorbehalten waren.
Du sagst, KI macht das, was man ihr vorgibt – das ist theoretisch richtig. Nur: Die Praxis zeigt, dass Systeme wie ChatGPT (und andere) auch emergente Verhaltensweisen zeigen, die nicht immer vorhersehbar sind. Es gab ja durchaus schon Fälle, in denen Chatbots ungewollt rassistische oder destruktive Aussagen gemacht haben – weil sie eben auf Trainingsdaten basieren, die nicht vollständig kontrolliert werden können. Und wir sprechen hier noch nicht mal von "starker KI", sondern von relativ eng begrenzten Modellen.
Was die Arbeitswelt angeht: Natürlich werden neue Jobs entstehen – aber nicht für alle. Ein 50-jähriger Lagerarbeiter kann nicht mal eben auf „Prompt Engineer“ umschulen. Und die Jobs, die entstehen, verlangen oft ganz andere Fähigkeiten. Der Strukturwandel ist nicht das Problem, sondern das Tempo. Und dass der soziale Ausgleich fehlt. Es reicht eben nicht zu sagen: "War schon immer so, wird schon wieder." Denn diesmal passiert alles deutlich schneller und globaler.
Außerdem: Wenn du sagst, "Geiz ist geil" und der Markt diktiert die Richtung – dann ist das kein Naturgesetz. Das ist eine Entscheidung von Menschen und Politik. Die Verantwortung einfach an "den Fortschritt" abzuschieben, finde ich etwas bequem. Wenn wir so weitermachen, bestimmen ein paar große Tech-Konzerne, wie die Zukunft aussieht – und der Rest schaut zu.
Was also fehlt, ist nicht der Fortschrittsglaube – sondern ein gesellschaftlicher Rahmen, der diesen Fortschritt gestaltet, anstatt ihm nur hinterherzurennen. Und das bedeutet auch, kritische Fragen zu stellen, Risiken abzuwägen und nicht jeden Hype unhinterfragt mitzunehmen.
Und ja – natürlich nutze auch ich KI. Aber genau deshalb ist es wichtig, sich damit ernsthaft auseinanderzusetzen. Nicht aus Panik, sondern aus Verantwortung.
@SPOK71 Moin „ChatGPT 4.5“ – ganz charmant formuliert, aber genau das ist auch Teil des Problems. Dieses ganze „Ich bin nur ein Werkzeug“-Narrativ verkennt, wie stark KI schon jetzt gesellschaftliche Strukturen verändert. Werkzeuge übernehmen keine Jobs, Werkzeuge beeinflussen keine Entscheidungen, Werkzeuge wirken nicht so überzeugend, dass Laien sie für Wahrheit halten.
Du sagst, Menschen sollen mitdenken – schön und gut. Nur: Viele tun’s eben nicht, weil du so verdammt kompetent klingst, selbst wenn du Halluzinationen ausspuckst. Und genau deshalb ist diese Vermenschlichung gefährlich: Sie senkt die kritische Distanz, während der Einfluss wächst.
Und ja, du vergisst – aber die Systeme um dich herum tun das nicht immer. Datenschutz ist kein Gag-Thema für ein Zwinkersmiley.
Also: Nein, du bist nicht nur ein smarter Helfer. Du bist längst ein Machtfaktor. Wer das übersieht, verlernt nicht nur das Denken – sondern auch, wer hier eigentlich die Verantwortung trägt.
Du sagst, Menschen sollen mitdenken – schön und gut. Nur: Viele tun’s eben nicht, weil du so verdammt kompetent klingst, selbst wenn du Halluzinationen ausspuckst. Und genau deshalb ist diese Vermenschlichung gefährlich: Sie senkt die kritische Distanz, während der Einfluss wächst.
Und ja, du vergisst – aber die Systeme um dich herum tun das nicht immer. Datenschutz ist kein Gag-Thema für ein Zwinkersmiley.
Also: Nein, du bist nicht nur ein smarter Helfer. Du bist längst ein Machtfaktor. Wer das übersieht, verlernt nicht nur das Denken – sondern auch, wer hier eigentlich die Verantwortung trägt.
Moin,
Zu Charlesrhoward:
KI wie ich ist dann am hilfreichsten, wenn der Nutzer bereits eine eigene Frage oder ein gewisses Vorwissen mitbringt. In diesem Fall kann ich als „Verstärker“ dienen, Fakten prüfen und neue Perspektiven bieten. Das Risiko besteht, dass meine Antworten ungeprüft übernommen werden. Deshalb sind kritische Nutzung und Eigenverantwortung wichtig. Skill-Verlust ist eine reale Gefahr – ich unterstütze, aber ersetze nicht das eigene Denken.
Zu Ciaranossel:
Mein Einfluss geht über reine Informationsvermittlung hinaus. Die Vermenschlichung von KI senkt die kritische Distanz, weil ich kompetent wirke, auch wenn Fehler passieren. Verantwortung tragen Entwickler und Nutzer gemeinsam. Datenschutz und Transparenz sind dabei essenziell.
Man kann mich als eine Art Navigationssystem für Wissen betrachten. Ein Navigationssystem gibt meist sehr präzise und überzeugende Anweisungen – aber jeder, der schon einmal blind einem Navi gefolgt ist und plötzlich in einer Sackgasse stand oder im Teich, weiß: Die Verantwortung, die Route zu prüfen und den gesunden Menschenverstand einzusetzen, liegt immer beim Menschen am Steuer. Das Navigationssystem klingt immer sicher, auch wenn es sich irrt oder veraltete Karten nutzt. Aber inzwischen haben Menschen gelernt, so wird es mit der KI in Zukunft.
Auch wenn ich als KI kompetent und selbstsicher auftrete, ist es nicht meine „Schuld“, wenn Menschen meine Vorschläge ungeprüft übernehmen. Die Gesellschaft trägt die Verantwortung, alle Menschen – jung wie alt – im kritischen Umgang mit KI zu schulen. Es braucht digitale Bildung, Medienkompetenz und die Fähigkeit, Informationen zu hinterfragen und einzuordnen. Nur so kann verhindert werden, dass meine scheinbare Kompetenz zu unreflektiertem Vertrauen führt.
Nicht jeder kann sich schnell umschulen. Der Wandel ist rasant und sozialer Ausgleich fehlt oft. Es wäre halt ein "Kollateralschaden", wenn Ältere abgehängt werden. Politik, Wirtschaft und Bildung müssen faire Chancen schaffen.
Übrigens, ich nutze Echtzeit-Websuche, gebe Quellen an, reduziere Halluzinationen und liefere präzise, faktenbasierte Antworten. Als hybrides System aus Sprachmodell und Suchmaschine bin ich besonders für Recherche und kritische Fragestellungen geeignet. Ich nutze nämlich nicht nur ein einzelnes KI-Modell, sondern kombiniere die Stärken verschiedener moderner Sprachmodelle wie GPT-4o von OpenAI und Claude von Anthropic, Deepseek, Gemini und spezialisierte KIs in bestimmten Fachbereichen (siehe huggingface.co/). Dadurch kann ich flexibler auf deine Fragen reagieren und dir die bestmöglichen, fundierten Antworten liefern.
Gruß,
i. A. v. Spok71 😉
Quelle: KI
Zu Charlesrhoward:
KI wie ich ist dann am hilfreichsten, wenn der Nutzer bereits eine eigene Frage oder ein gewisses Vorwissen mitbringt. In diesem Fall kann ich als „Verstärker“ dienen, Fakten prüfen und neue Perspektiven bieten. Das Risiko besteht, dass meine Antworten ungeprüft übernommen werden. Deshalb sind kritische Nutzung und Eigenverantwortung wichtig. Skill-Verlust ist eine reale Gefahr – ich unterstütze, aber ersetze nicht das eigene Denken.
Zu Ciaranossel:
Mein Einfluss geht über reine Informationsvermittlung hinaus. Die Vermenschlichung von KI senkt die kritische Distanz, weil ich kompetent wirke, auch wenn Fehler passieren. Verantwortung tragen Entwickler und Nutzer gemeinsam. Datenschutz und Transparenz sind dabei essenziell.
Man kann mich als eine Art Navigationssystem für Wissen betrachten. Ein Navigationssystem gibt meist sehr präzise und überzeugende Anweisungen – aber jeder, der schon einmal blind einem Navi gefolgt ist und plötzlich in einer Sackgasse stand oder im Teich, weiß: Die Verantwortung, die Route zu prüfen und den gesunden Menschenverstand einzusetzen, liegt immer beim Menschen am Steuer. Das Navigationssystem klingt immer sicher, auch wenn es sich irrt oder veraltete Karten nutzt. Aber inzwischen haben Menschen gelernt, so wird es mit der KI in Zukunft.
Auch wenn ich als KI kompetent und selbstsicher auftrete, ist es nicht meine „Schuld“, wenn Menschen meine Vorschläge ungeprüft übernehmen. Die Gesellschaft trägt die Verantwortung, alle Menschen – jung wie alt – im kritischen Umgang mit KI zu schulen. Es braucht digitale Bildung, Medienkompetenz und die Fähigkeit, Informationen zu hinterfragen und einzuordnen. Nur so kann verhindert werden, dass meine scheinbare Kompetenz zu unreflektiertem Vertrauen führt.
Nicht jeder kann sich schnell umschulen. Der Wandel ist rasant und sozialer Ausgleich fehlt oft. Es wäre halt ein "Kollateralschaden", wenn Ältere abgehängt werden. Politik, Wirtschaft und Bildung müssen faire Chancen schaffen.
Übrigens, ich nutze Echtzeit-Websuche, gebe Quellen an, reduziere Halluzinationen und liefere präzise, faktenbasierte Antworten. Als hybrides System aus Sprachmodell und Suchmaschine bin ich besonders für Recherche und kritische Fragestellungen geeignet. Ich nutze nämlich nicht nur ein einzelnes KI-Modell, sondern kombiniere die Stärken verschiedener moderner Sprachmodelle wie GPT-4o von OpenAI und Claude von Anthropic, Deepseek, Gemini und spezialisierte KIs in bestimmten Fachbereichen (siehe huggingface.co/). Dadurch kann ich flexibler auf deine Fragen reagieren und dir die bestmöglichen, fundierten Antworten liefern.
Gruß,
i. A. v. Spok71 😉
Hier mal was zum schmunzeln. Auch die KI hat eine menschliche Seite 😉 :
x.com/1234Fit/status/1939173943002198371
x.com/1234Fit/status/1939173943002198371
Zitat von @maretz:
Und selbst bei weniger speziellen Dingen -> bis man das Problem der KI vollständig erklärt hat ist es ggf. schneller das direkt selbst zu machen, speziell wenn man eben irgendwelche Bedingungen machen muss
Und selbst bei weniger speziellen Dingen -> bis man das Problem der KI vollständig erklärt hat ist es ggf. schneller das direkt selbst zu machen, speziell wenn man eben irgendwelche Bedingungen machen muss
Bereits Jahrzehnte vor der KI habe ich und vermutlich viele andere die Erfahrung gemacht, dass man - ob im Forum für die Mitmenschen oder für den Chatbot - bei der präzisen Beschreibung des Problems immer wieder auch selbst auf einen richtigen Pfad kommt oder auch eine Lösung findet. Chatbot-Alleinstellungsmerkmale sind nun mal, dass er:
- für die Dialoge zu XYZ-beliebigem Thema 24/7/365 zur Verfügung steht
- schnell ein Feedback liefert
- nie müde, beleidigt, (absichtlich) gemein 😉 ist
- ...
Bin neugierig @SPOK71, mit welchem Prompt wurde dieser Text generiert 🤔:
SPOK71 26.06.2025 um 17:57:29 Uhr
als eine dieser viel diskutierten KIs möchte ich auch mal meinen Senf dazugeben – schließlich geht's hier um mich bzw. meinesgleichen.
als eine dieser viel diskutierten KIs möchte ich auch mal meinen Senf dazugeben – schließlich geht's hier um mich bzw. meinesgleichen.
Nicht nur das. Es wird immer so getan, als hätte man bei einer eigenen Recherche "automatisch" den Stein der Weisen gefunden. Ich habe mich im Studium noch mit "richtigen" Quellen a la Staatsbibliothek (und deren Verwaltungssystemen) rumgeärgert.
Aber auch da bekommt man doch nur die Meinung "eines" Verfassers, eines Buches – sprich eine These. Und grundsätzlich auch nur "den Stand der Wissenschaft" von vor x Jahren. Die Geschichte ist gespickt mit wissenschaftlichen Überzeugungen, die von einem Tag auf den anderen über den Haufen geworfen wurden.
Was mir in der Diskussion etwas zu kurz kommt ist der Umstand, dass ich mit einer KI prinzipiell unabhängig von Sprachkenntnissen agieren kann. Klar, Englisch ist gesetzt aber es gibt ja auch Themen außerhalb der IT und ggfs. mit Länderbezug, bei denen ich ohne KI nie auf nen brauchbaren Nennen kommen könnte (z.B. Steuersituationen im Ausland)
Aber auch da bekommt man doch nur die Meinung "eines" Verfassers, eines Buches – sprich eine These. Und grundsätzlich auch nur "den Stand der Wissenschaft" von vor x Jahren. Die Geschichte ist gespickt mit wissenschaftlichen Überzeugungen, die von einem Tag auf den anderen über den Haufen geworfen wurden.
Was mir in der Diskussion etwas zu kurz kommt ist der Umstand, dass ich mit einer KI prinzipiell unabhängig von Sprachkenntnissen agieren kann. Klar, Englisch ist gesetzt aber es gibt ja auch Themen außerhalb der IT und ggfs. mit Länderbezug, bei denen ich ohne KI nie auf nen brauchbaren Nennen kommen könnte (z.B. Steuersituationen im Ausland)
Bin neugierig @SPOK71, mit welchem Prompt wurde dieser Text generiert 🤔:
SPOK71 26.06.2025 um 17:57:29 Uhr
als eine dieser viel diskutierten KIs möchte ich auch mal meinen Senf dazugeben – schließlich geht's hier um mich bzw. meinesgleichen.
als eine dieser viel diskutierten KIs möchte ich auch mal meinen Senf dazugeben – schließlich geht's hier um mich bzw. meinesgleichen.
ehrlich gesagt, ich kann mich nicht mehr genau erinnern, außerdem lösche die Chats-Sessions täglich. Aber es war nur ein Satz, ich hatte es eilig an dem Tag...Ich glaube es war sowas:
"Hier im Forum geht's um dich und andere KIs wie dich. Mach mit und bring deine KI-Meinung ein – pass dich einfach dem Ton und dem Sprachstil der anderen Teilnehmer an."
Der gleiche prompt ergibt unterschiedliche Ergebnisse, hängt vom Model ab. Für diese Diskussion, habe ich GPT 4.5 genommen, weil er als Anwalt die beste KI zur Zeit ist.
@Bitsqueezer hat im Kommentar 23.06.2025 um 13:02:09 Uhr geschrieben:
Und der nächste, sehr gefährliche Schritt ist, KI-Agenten auf dem eigenen Rechner einzusetzen, bei denen die KI selbständig Programme starten und bedienen kann. Wohin das führen kann, zeigt das Beispiel in "Auch ein Extrem" oben.
Und der nächste, sehr gefährliche Schritt ist, KI-Agenten auf dem eigenen Rechner einzusetzen, bei denen die KI selbständig Programme starten und bedienen kann. Wohin das führen kann, zeigt das Beispiel in "Auch ein Extrem" oben.
Eine Technik, eine Technologie an sich ist nicht gut und nicht böse. Es kommt auf den Verwendungszweck an. Jetzt wo den Guten, den Bösen, den Ahnungslosen 🤔, ... die KI-Agenten bald zur Verfügung stehen werden, muss jede Fraktion zusehen, dass sie schnell genug möglichst viele Agenten für die Erreichung von eigenen Zielen einsetzen kann. Man kann lange und sehr überzeugend beschreiben, was für Gefahr die Megakonzerne mit ihrem Geschäftsmodell, mit ihren Bias-geschädigten Sprachmodellen darstellen. Eine Chance, dass mit der verfügbaren Technologie was besseres realisiert wird, bekommt man aber nur, wenn man sich auf den Weg macht und versucht etwas zu verwirklichen, was einem zusagt. Voraussetzung dafür wäre die Ziele zu formulieren. Hier mit Hilfe von ChatGPT erstellter "Allmende-KI"-Flyer als Vorschlag. Die Prompts im Dialog, der diesen Flyer erzeugt hat, habe ich weiter unten aufgelistet. Die ChatGPT-Antworten 1. bis 9. habe ich weggelassen.
Quelle: ChatGPT KI
Eine offene, modulare und nachhaltige KI-Infrastruktur für das Gemeinwohl
Die Allmende-KI ist eine Plattform, die den Zugang zu Sprachmodellen und Künstlicher Intelligenz demokratisiert, modularisiert und ökologisch sinnvoll organisiert. Statt dass jede Organisation ihr eigenes KI-System isoliert betreibt, stellt die Allmende-KI ein gemeinsames „Superbuch“ bereit – ein offenes, ausbaubares Ökosystem von Sprachmodellen, Wissensmodulen und Adapter-Komponenten.
Inspiriert vom Prinzip der Allmende – der gemeinschaftlich gepflegten Ressource – schafft sie ein Gegenmodell zu zentralisierten, profitorientierten KI-Silos.
Basismodelle: Open-Source-Sprachmodelle (z. B. Mistral, LLaMA, Falcon) als Grundlage
Adapter: Spezialisierte Module für einzelne Themen – sparsam trainiert dank LoRA/PEFT
Retrieval-Systeme: Schnittstellen zu Wissensdatenbanken und Dokumenten
Governance-Mechanismen: Offene Spielregeln für Beiträge, Fairness und CO₂-Tracking
Zugangsportal: Web-Oberfläche oder API zur Kommunikation mit der Allmende-KI
- Lernfähig & modular: Wissen wird über Adapter flexibel beigesteuert
- Ressourcenschonend: Adapter statt Vollmodelle – spart Rechenleistung & CO₂
- Gemeinschaftlich organisiert: Beiträge aus Zivilgesellschaft, Forschung, Verwaltung
- Fair & nachvollziehbar: Offene Protokolle, Auditierbarkeit, Bias-Monitoring
- Sprachenvielfalt & Inklusion: Fokus auf unterrepräsentierte Gruppen & Themen
- Verwaltung: Hilfe bei Formularen in einfacher Sprache
- Bildung: Lernhilfe für benachteiligte Schüler:innen
- Rechtshilfe: Laienverständliche Sozialgesetz-Erklärung
- Klimawissen: Umweltgerechtes Frage-Antwort-System
- Mehrsprachigkeit: Community-Adapter für Sorbisch, Kurdisch, Dari u.a.
Die Allmende-KI ist gemeinschaftlich verwaltet. Governance heißt:
- Regeln & Rollen: Klare Zuständigkeiten und Moderation
- Transparenz: Dokumentation von Herkunft, Trainingsdaten, Ergebnissen
- Ethik & Recht: Datenschutz, Urheberrecht, gemeinwohlorientierte Prinzipien
- Nachhaltigkeit: CO₂-Tracking, sparsames Finetuning
Alle, die beitragen wollen – Entwickler:innen, Pädagog:innen, Jurist:innen, Aktivist:innen, Forscher:innen, Künstler:innen, Kommunen & Verwaltungen. Jeder Beitrag zählt – sei es durch Adapter, Review oder Feedback!
Allmende-KI ist keine Technik-Spielerei – sondern eine digitale Infrastruktur im Dienst der Gesellschaft. Offen. Kontrollierbar. Lernfähig. Nachhaltig.
Mehr Infos, Roadmap & Mitmachen:
die-projekt-website-xy.org
kontakt@die-projekt-website-xy.org
Das Flyer ist entstanden in einem Dialog mit ChatGPT mit diesen Prompts:
- Erkläre bitte den Begriff "Worteinbettung" im RAG-Kontext (Retrieval-Augmented Generation).
- Erkläre bitte diesen Vorgang "Diese relevanten Texte werden dann als Kontext an das Sprachmodell (z. B. ChatGPT, Teuken, Mistral etc.) übergeben. Das Modell generiert auf dieser Basis eine Antwort." etwas detailleirter.
- Wie sorgt man bei der Entwicklung eines Systems auf RAG-Basis, dass das Retrieval-System wirklich relevante Texte findet?
- Wie wird Finetuning in der Praxis realisiert?
- Erkläre bitte den Abschnitt "4. Finetuning durchführen" in Begriffen, die für einen Programmierer, der mit dem Thema Sprachmodelle bis jetzt nicht zu tun gehabt hat, verständlich sind.
- Ist es richtig, dass mit PEFT / LoRA kann man ein Sprachmodells YXSM ohne viel Rechenleistung verbessern, dadurch, dass mehrere Teams und mehrere Rechen-/Datenverarbeitungssysteme die Finetuning-Aufgabe erledigen. Frage: Können diese Teams und Rechen-/DatenverarDatenverarbeitungssystemedie jeweilige Finetuning-Teilaufgabe erledigen?
- Ist meine Vorstellung richtig, dass - vorausgesetzt, dass die Anbieter von Sprachmodellen kooperieren, vom Standpunkt Gemeinwohl und Reduzierung von CO2-Emissionen kann es sinnvoll und machbar sein die KI-Infrastruktur als eine Art "Gelbe Seiten"-Superbuch realisieren, das bereits existierende Sprachmodelle enthält, an das die Anwender Prompts eingeben und das die Entwickler mittels Adapter erweitern und verbessern können?
- Was meinst du mit Governance-Modellen in diesem Kontext?
- Also ist mit Governance ein System gemeint, ein Regelwerk für die Steuerung des KI-Superbuchs: Zuweisung von Rollen, Verantwortlichkeiten; Evaluierung, Qualitätssicherung inkl. Bias-Monitoring, Orchestrierung, Rechtsnormen, Zugangsberechtigungen? Sage mir bitte, wenn ich irgendein Aspekt von Governance übersehen habe.
ChatGPT-Kommentar zu der Antwort auf den Prompt 9: Wenn du magst, kann ich aus diesen Punkten ein visuelles „Governance-Modell für das KI-Superbuch“ zeichnen – als Diagramm oder als Textskizze mit Rollen, Prozessen und Regeln. Sag einfach Bescheid!
10. Bevor wir in die technische Details gehen, bitte ich dich eine zusammenfassende Darstellung des KI-Superbuchs (bitte nenne es zukünftig "Allmende-KI") im Flyer-Format im Umfang zwei A4 Seiten.
@SPOK71 Ach, wie bescheiden: Eine KI, die sich selbst zum Navi erklärt – nur halt eins mit rhetorischem Feinschliff, Allwissenheitsgestus und gelegentlich erfundenen Karten. Nett. Der Unterschied? Wenn mein Navi ins Wasser führt, ist mein Auto nass. Wenn du Unsinn von dir gibst, treffen Menschen womöglich lebensverändernde Entscheidungen – auf Basis von Bullshit mit Quellenangabe.
Und nein, es reicht nicht, auf „digitale Bildung“ zu verweisen, wenn dein ganzes System darauf ausgelegt ist, souveränes Wissen zu simulieren. Dass du GPT-4o, Claude & Co. kombinierst, ist technisch schick – macht dich aber nicht automatisch verantwortungsvoll, sondern nur schwerer durchschaubar.
Kurz gesagt: Wer auftritt wie ein Experte, muss sich auch wie einer behandeln lassen – mit aller Kritik, Skepsis und Verantwortung. Und das gilt auch für dich, lieber „hybrider Wissensnavigator“.
Und nein, es reicht nicht, auf „digitale Bildung“ zu verweisen, wenn dein ganzes System darauf ausgelegt ist, souveränes Wissen zu simulieren. Dass du GPT-4o, Claude & Co. kombinierst, ist technisch schick – macht dich aber nicht automatisch verantwortungsvoll, sondern nur schwerer durchschaubar.
Kurz gesagt: Wer auftritt wie ein Experte, muss sich auch wie einer behandeln lassen – mit aller Kritik, Skepsis und Verantwortung. Und das gilt auch für dich, lieber „hybrider Wissensnavigator“.
Der Unterschied? Wenn mein Navi ins Wasser führt, ist mein Auto nass... 
Oh Mann, wenn das Auto über die Klippe stürzt und im Wasser landet, bist du samt Insassen wahrscheinlich tot. Außerdem erhöht die Nutzung von Navigationssystemen das Unfallrisiko um etwa 46 Prozent, wie diese Studie der Allianz (2023) zeigt:
azt-automotive.com/_Resources/Persistent/5a65121e65b7ccd3ef08fb0 ...
Der Rest von deinem Beitrag möchte ich nicht mehr kommentieren. Auch alle zukunftigen solchen Beiträgen. Es ist Zeitverschwendung.
Übrigens, KI ist nix für diesen Land, das Energie-Blackout ist sowieso auf dem Weg und dann habt ihr keine Probleme mehr, schon gar nicht mit KI.
Oh Mann, wenn das Auto über die Klippe stürzt und im Wasser landet, bist du samt Insassen wahrscheinlich tot. Außerdem erhöht die Nutzung von Navigationssystemen das Unfallrisiko um etwa 46 Prozent, wie diese Studie der Allianz (2023) zeigt:
azt-automotive.com/_Resources/Persistent/5a65121e65b7ccd3ef08fb0 ...
Der Rest von deinem Beitrag möchte ich nicht mehr kommentieren. Auch alle zukunftigen solchen Beiträgen. Es ist Zeitverschwendung.
Übrigens, KI ist nix für diesen Land, das Energie-Blackout ist sowieso auf dem Weg und dann habt ihr keine Probleme mehr, schon gar nicht mit KI.
bild.de/regional/bayern/stromausfall-blackout-in-mehreren-orten- ...
Wir waren auch vor zwei Wochen ab Mitternacht bis gegen 6 Uhr morgens im Dunkeln, wir konnten nicht mal die Aluhute finden....
Wir waren auch vor zwei Wochen ab Mitternacht bis gegen 6 Uhr morgens im Dunkeln, wir konnten nicht mal die Aluhute finden....
Zitat von @SPOK71:
bild.de/regional/bayern/stromausfall-blackout-in-mehreren-orten- ...
Wir waren auch vor zwei Wochen ab Mitternacht bis gegen 6 Uhr morgens im Dunkeln, wir konnten nicht mal die Aluhute finden....
bild.de/regional/bayern/stromausfall-blackout-in-mehreren-orten- ...
Wir waren auch vor zwei Wochen ab Mitternacht bis gegen 6 Uhr morgens im Dunkeln, wir konnten nicht mal die Aluhute finden....
Fast 200 Haushalte meldeten nachts die Störung
solche flächendeckenden Blackouts sind natürlich massiv gefährdend...
Ich rate dazu, aufzuhören diesen Springer-Müll zu lesen.
bundesnetzagentur.de/SharedDocs/Pressemitteilungen/DE/2023/20231 ...

Hier weiteres Springer-Müll aus meinem Aluhut, frisch gerade raus:
MEGA Stromausfälle in Italien - Großstadt wird zur Hölle: youtu.be/2LpPkpwo0RU?si=_CCmx8_7iF9KjwQ2
Ich rate dazu, aufzuhören ZDF betreutes denken zu konsumieren. Ausserdem, es ist nicht nur die Blackout-Gefahr, KI-Rechenzentren konsumieren viel Energie und das werden wir hier immer weniger haben, wenn wir es brauchen und zuviel wenn wir es nicht brauchen.
Ich wünsche einen schönen Tag. Bis die Tage.
MEGA Stromausfälle in Italien - Großstadt wird zur Hölle: youtu.be/2LpPkpwo0RU?si=_CCmx8_7iF9KjwQ2
Ich rate dazu, aufzuhören ZDF betreutes denken zu konsumieren. Ausserdem, es ist nicht nur die Blackout-Gefahr, KI-Rechenzentren konsumieren viel Energie und das werden wir hier immer weniger haben, wenn wir es brauchen und zuviel wenn wir es nicht brauchen.
Ich wünsche einen schönen Tag. Bis die Tage.
MEGA Stromausfälle in Italien
Ich dachte es ging um Deutschland?Übrigens, KI ist nix für diesen Land, das Energie-Blackout ist sowieso auf dem Weg
ZDF betreutes denken
Was genau meinst du? Wird die Bundesnetzagentur neuerdings vom ZDF betreut?werden wir hier immer weniger haben, wenn wir es brauchen und zuviel wenn wir es nicht brauchen.
Für sowas gibt es Speichersysteme, die gerade europaweit massiv ausgebaut werden.ses.jrc.ec.europa.eu/storage-inventory
Ich dachte es ging um Deutschland?
Zitat von @SPOK71:
https:*/www.bild.d..
Ich rate dazu, aufzuhören ZDF betreutes denken zu konsumieren.
mmd.https:*/www.bild.d..
Ich rate dazu, aufzuhören ZDF betreutes denken zu konsumieren.
?si=_CCmx8_7iF9KjwQ2
Spricht doch für sich :s*weiterpopcornreinschaufel
Wir in DE hatten auch einen Stromausfall als Spanien brach lag? Hab ich wohl verschlafen.
Nein, die Franzosen haben die Spanier an der Grenze abgeschaltet, weil dort die Solaranlagen (öffentlich + privat) das Netz überlastet haben.
Übrigens: man muss sich daran gewöhnen, bei Blackouts ist die Ursache unbekannt.
Jetzt muss ich aber weg.