Wer halluziniert - Mensch oder LLM-Maschine?
Yes, large language models (LLMs) hallucinate, a concept popularized by Google AI researchers in 2018. Hallucination in this context refers to mistakes in the generated text that are semantically or syntactically plausible but are in fact incorrect or nonsensical. In short, you can’t trust what the machine is telling you.
Hallucinations Could Blunt ChatGPT’s Success OpenAI says the problem’s solvable, Yann LeCun says we’ll see, 13.03.2023 - spectrum.ieee.org/ai-hallucination [1], 13.03.2023Die Verwendung des Begriffs "Halluzination" bezogen auf das oben beschriebene Verhalten eines hirnlosen Gegenstands, des LLMs oder ChatGPT ist meines Erachtens irreführend und nicht zielführend. Wobei ich stelle hier die These 1 auf, dass das oben zitierte Artikel das Ziel verfogt die ChatGPT-Praxistauglichkeit einzuschätzen. S. zum Vergleich auch These 4 weiter unten. ChatGPT ist ein technisches Gerät und verhält sich so und nicht anders, weil der Mensch das Gerät auf bestimmte Art und Weise gebaut und auf bestimmte Art eingesetzt hat.
Unter Halluzination (von lateinisch alucinatio ‚Träumerei‘) versteht man eine Wahrnehmung, für die keine nachweisbare externe Reizgrundlage vorliegt. Solche Wahrnehmungen können in jedem Sinnesgebiet auftreten. Das bedeutet zum Beispiel, dass physikalisch nicht nachweisbare Objekte gesehen oder Stimmen gehört werden, ohne dass jemand spricht.
de.wikipedia.org/wiki/HalluzinationEin Beispiel: Ich nehme drei Vogelfeder und tauche diese in gelbe, rote und schwarze Farbe. Dann lasse ich die Farbe auf ein A4-Blatt Papier abtropfen und es entsteht ein Bild "iYRB". In diesem Vorgang benutze ich Vogelfeder statt ChatGPT und ich benutze die Farben statt Text im ChatGPT-Prompt. Das entstandene Bild iYRB spielt symbolisch die Rolle der ChatGPT-Antwort.
Versuchen wir jetzt Antworten auf diese Fragen zu finden: "a) Hat das mit den Tropfen gemaltes Bild iYRB einenSinn und Bedeutung? b) Ist das Bild iYRB richtig oder falsch? c) Hat das Bild einen Wert?". Meine These 2 ist, dass, die Antworten mit den Federn nichts zu tun haben. Wenn die Feder die Hand eines bedeutenden Künstlers bewegt hat, dann könnte das Bild als c1) wertvoll eingeschätzt werden und die Kunstkritiker und Kunstliebhaber würden vielleicht a1) einen Sinn und Bedeutung in iYRB entdecken.

Meine These 3 ist, dass es keinen Sinn hat zu behaupten, dass die Federn halluzinieren, wenn Sie mit dem Bild iYRB nichts anfangen können. Weil die Fähigkeit "Halluzinieren" nur Sinn und Bedeutung hat, wenn diese Fähigkeit einem Menschen oder einem anderen denkenden Wesen zugeschrieben wird. Federn können nicht denken, ChatGPT kann nicht denken, also für die Betrachtung des Verhaltens der Federn und ChatGPT, für die Einschätzung der Praxistauglichkeit von ChatGPT in konkreten Anwendungsszenarien hat ein fiktives Phänomen "Halluzinierendes ChatGPT-Modell" keine Bedeutung.
These 4: Im Anwendungsszenario "ChatGPT als Produkt bekannt machen" im Kontext "ChatGPT-Vermarktung" könnte die Verwendung des Begriffs "ChatGPT hallluziniert" Sinn machen. In diesem Kontext "ChatGPT-Vermarktung" beschreibt der Begriff "halluzinieren" keine bestimmte überprüfbare für die praktische Verwendung relevante ChatGPT-Eigenschaft, sondern lediglich eine vom Vertrieb erfundene fiktive Eigenschaft, die Schlagzeilen generieren und dadurch die Bekanntheit des Produkts steigern kann.
These 5: Wenn Mitmenschen - ob die Vertriebsmitarbeiter selbst oder die Kunden, Experten, Kritiker im Kontext "ChatGPT-Vermarktung" ernsthaft glauben, dass "ChatGPT halluziniert", dann IMHO halluzinieren die Mitmenschen selbst und nicht ChatGPT
= Quellen =
[1] Hallucinations Could Blunt ChatGPT’s Success OpenAI says the problem’s solvable, Yann LeCun says we’ll see 13.03.2023 - spectrum.ieee.org/ai-hallucination
[2] Large language model - en.wikipedia.org/wiki/Large_language_model
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Kommentar vom Moderator colinardo am 20.07.2025 um 12:03:46 Uhr
Off-Topic Kommentare bereinigt.
Content-ID: 6838486604
Url: https://administrator.de/imho/wer-halluziniert-mensch-oder-llm-maschine-6838486604.html
Ausgedruckt am: 02.08.2025 um 14:08 Uhr