itebob

Wer halluziniert - Mensch oder LLM-Maschine?

Yes, large language models (LLMs) hallucinate, a concept popularized by Google AI researchers in 2018. Hallucination in this context refers to mistakes in the generated text that are semantically or syntactically plausible but are in fact incorrect or nonsensical. In short, you can’t trust what the machine is telling you.
Hallucinations Could Blunt ChatGPT’s Success OpenAI says the problem’s solvable, Yann LeCun says we’ll see, 13.03.2023 - spectrum.ieee.org/ai-hallucination [1], 13.03.2023

Die Verwendung des Begriffs "Halluzination" bezogen auf das oben beschriebene Verhalten eines hirnlosen Gegenstands, des LLMs oder ChatGPT ist meines Erachtens irreführend und nicht zielführend. Wobei ich stelle hier die These 1 auf, dass das oben zitierte Artikel das Ziel verfogt die ChatGPT-Praxistauglichkeit einzuschätzen. S. zum Vergleich auch These 4 weiter unten. ChatGPT ist ein technisches Gerät und verhält sich so und nicht anders, weil der Mensch das Gerät auf bestimmte Art und Weise gebaut und auf bestimmte Art eingesetzt hat.

Unter Halluzination (von lateinisch alucinatio ‚Träumerei‘) versteht man eine Wahrnehmung, für die keine nachweisbare externe Reizgrundlage vorliegt. Solche Wahrnehmungen können in jedem Sinnesgebiet auftreten. Das bedeutet zum Beispiel, dass physikalisch nicht nachweisbare Objekte gesehen oder Stimmen gehört werden, ohne dass jemand spricht.
de.wikipedia.org/wiki/Halluzination

Ein Beispiel: Ich nehme drei Vogelfeder und tauche diese in gelbe, rote und schwarze Farbe. Dann lasse ich die Farbe auf ein A4-Blatt Papier abtropfen und es entsteht ein Bild "iYRB". In diesem Vorgang benutze ich Vogelfeder statt ChatGPT und ich benutze die Farben statt Text im ChatGPT-Prompt. Das entstandene Bild iYRB spielt symbolisch die Rolle der ChatGPT-Antwort.

Versuchen wir jetzt Antworten auf diese Fragen zu finden: "a) Hat das mit den Tropfen gemaltes Bild iYRB einenSinn und Bedeutung? b) Ist das Bild iYRB richtig oder falsch? c) Hat das Bild einen Wert?". Meine These 2 ist, dass, die Antworten mit den Federn nichts zu tun haben. Wenn die Feder die Hand eines bedeutenden Künstlers bewegt hat, dann könnte das Bild als c1) wertvoll eingeschätzt werden und die Kunstkritiker und Kunstliebhaber würden vielleicht a1) einen Sinn und Bedeutung in iYRB entdecken.
fahne-halluziniert
Ein Kind könnte auf die Idee kommen mit den Federn in einem Rechteck die Farben ähnlich der Anordnung auf der Fahne der Bundesrepublik Deutschland anzuordnen. Und je nach dem, wie alt das Kind ist, würden die Eltern vlt. raten, a21) ob das Kind bewusst, SINNHAFT b21)die Farben angeordnet und somit die BRD-Fahne gemalt hat oder b22)war die Anordnung zufällig entstanden. a22)Unabhängig davon, wie die Antwort a21) lautet, c23)könnte das Bild eine Bedeutung für Eltern als erstes Kunstwerk des Kindes einen großen Wert haben.

Meine These 3 ist, dass es keinen Sinn hat zu behaupten, dass die Federn halluzinieren, wenn Sie mit dem Bild iYRB nichts anfangen können. Weil die Fähigkeit "Halluzinieren" nur Sinn und Bedeutung hat, wenn diese Fähigkeit einem Menschen oder einem anderen denkenden Wesen zugeschrieben wird. Federn können nicht denken, ChatGPT kann nicht denken, also für die Betrachtung des Verhaltens der Federn und ChatGPT, für die Einschätzung der Praxistauglichkeit von ChatGPT in konkreten Anwendungsszenarien hat ein fiktives Phänomen "Halluzinierendes ChatGPT-Modell" keine Bedeutung.

These 4: Im Anwendungsszenario "ChatGPT als Produkt bekannt machen" im Kontext "ChatGPT-Vermarktung" könnte die Verwendung des Begriffs "ChatGPT hallluziniert" Sinn machen. In diesem Kontext "ChatGPT-Vermarktung" beschreibt der Begriff "halluzinieren" keine bestimmte überprüfbare für die praktische Verwendung relevante ChatGPT-Eigenschaft, sondern lediglich eine vom Vertrieb erfundene fiktive Eigenschaft, die Schlagzeilen generieren und dadurch die Bekanntheit des Produkts steigern kann.

These 5: Wenn Mitmenschen - ob die Vertriebsmitarbeiter selbst oder die Kunden, Experten, Kritiker im Kontext "ChatGPT-Vermarktung" ernsthaft glauben, dass "ChatGPT halluziniert", dann IMHO halluzinieren die Mitmenschen selbst und nicht ChatGPT face-smile.

= Quellen =
[1] Hallucinations Could Blunt ChatGPT’s Success OpenAI says the problem’s solvable, Yann LeCun says we’ll see 13.03.2023 - spectrum.ieee.org/ai-hallucination
[2] Large language model - en.wikipedia.org/wiki/Large_language_model
Auf Facebook teilen
Auf X (Twitter) teilen
Auf Reddit teilen
Auf Linkedin teilen
Kommentar vom Moderator colinardo am 20.07.2025 um 12:03:46 Uhr
Off-Topic Kommentare bereinigt.

Content-ID: 6838486604

Url: https://administrator.de/imho/wer-halluziniert-mensch-oder-llm-maschine-6838486604.html

Ausgedruckt am: 02.08.2025 um 14:08 Uhr