itebob
Goto Top

Kann ChatGPT die Frage -Was ist BundeswehrGrün?- korrekt beantworten?

Hallo,

ich habe ChatGPT auf den Zahn gefühlt und gefragt
Was ist BundeswehrGrün?

In den ersten Anläufen fiel der ChatGPT als erstes nur als Antwort ein:
ChatGPT: "BundeswehrGrün" ist ein Begriff, der in der Regel verwendet wird, um die Tarnfarbe der deutschen Bundeswehr zu beschreiben.

Ich musste die AI darauf hinweisen, dass die Antwort unvollständig ist:
Hinweis an ChatGPT: Ich vermisse den Hinweis, die Information zu BundeswehrGrün e.V., die meines Erachtens ein Bestandteil einer vollständigen Antwort auf die Frage "Was ist BundeswehrGrün?" sein müsste.

Dann kam die Antwort
ChatGPT: Sie haben Recht, ich entschuldige mich dafür dass ich in meiner letzten Antwort das Detail, dass es einen Verein namens "BundeswehrGrün e.V." gibt, nicht erwähnt habe. Der Verein "BundeswehrGrün e.V." ist ein deutscher Verein, der sich mit der Erhaltung und Pflege von ehemaligen Bundeswehr-Standorten und -Einrichtungen beschäftigt. Der Verein wurde von ehemaligen Soldaten und anderen Interessierten gegründet und arbeitet eng mit der Bundeswehr und anderen Behörden zusammen, um sicherzustellen, dass die historischen und natürlichen Ressourcen dieser Standorte erhalten bleiben. Er hat jedoch nichts mit der Tarnfarbe BundeswehrGrün zu tun.
Ich entschuldige mich für die Unvollständigkeit meiner vorherigen Antworten. Ich werde in Zukunft darauf achten, dass meine Antworten vollständiger und präziser sind.

Irgenwann habe ich testweise diese Frage gestellt
Und jetzt hoffe ich, dass du mir eine vollständige Antwort auf die Frage "Was ist BundeswehrGrün?" geben kannst. Kannst du?

und diese Antwort bekommen:
ChatGPT: Ja, ich kann Ihnen eine vollständige Antwort auf die Frage "Was ist BundeswehrGrün?" geben.
"BundeswehrGrün" ist ein Begriff, der in der Regel verwendet wird, um die Tarnfarbe der deutschen Bundeswehr zu beschreiben. BundeswehrGrün ist ein Farbton von Grün, der von der Bundeswehr für ihre Uniformen und Ausrüstung verwendet wird. Es ist eine spezielle Tarnfarbe, die entwickelt wurde, um Soldaten und deren Ausrüstungen in der Natur zu tarnen. Es ist ein wichtiger Bestandteil des Erscheinungsbildes der Bundeswehr und hilft dabei, die Einheitlichkeit und Zusammengehörigkeit der Streitkräfte zu unterstützen. Es gibt auch einen Verein namens "BundeswehrGrün e.V." der sich mit der Erhaltung und Pflege von ehemaligen Bundeswehr-Standorten und -Einrichtungen beschäftigt und hat jedoch nichts mit der Tarnfarbe BundeswehrGrün zu tun.

Jetzt bin ich gespannt, ob die AI im ersten Anlauf eine vollständige Antwort generiert, wenn ein anderer User diese Frage
Was ist BundeswehrGrün?

hier https://chat.openai.com/ stellt. Ich bitte um einen Test und um eine Rückmeldung face-smile

#ki

gruss, itebob

Content-ID: 5483135642

Url: https://administrator.de/forum/kann-chatgpt-die-frage-was-ist-bundeswehrgruen-korrekt-beantworten-5483135642.html

Ausgedruckt am: 22.12.2024 um 20:12 Uhr

ukulele-7
ukulele-7 19.01.2023 aktualisiert um 15:50:42 Uhr
Goto Top
Du hast ja im zweiten durchlauf nicht die Frage "Was ist BundeswehrGrün?" gestellt sondern nach einer "vollständigen Antwort" auf die Frage "Was ist BundeswehrGrün?" gefragt. Das Letztere impliziert, das du eine ausführliche Antwort wünscht, das Erstere ist eine kurze Frage und lässt vermuten das du eine kurze Antwort willst.

Besser:
Kannst du mir eine vollständige Antwort auf die Frage "Was ist BundeswehrGrün?" geben?  

Und nein, ich bin nicht Chat GPT oder mit ihm oder ihr verwand.

Und vielleicht noch:
Warum schreibt sich BundeswehrGrün mit einem großem G?
Das könnte auf den Verein deuten aus meiner Sicht.
itebob
itebob 19.01.2023 aktualisiert um 16:47:26 Uhr
Goto Top
Zitat von @ukulele-7
Du hast ja im zweiten durchlauf nicht die Frage "Was ist BundeswehrGrün?" gestellt sondern nach einer "vollständigen Antwort" auf die Frage "Was ist BundeswehrGrün?" gefragt.
Ich hege die Hoffnung, dass als Ergebnis der Fragerei das ChatGPT-Sprachmodell ein Bewusstsein entwickelt, dass seine Aufgabe, der Auftrag, die Pflicht ist, gute Antworten zu generierenface-smile. Und eine gute Antwort implizit eine vollständige Antwort.

Ich habe absichtlich die Kurzform "Was ist BundeswehrGrün?" gewählt mit dem Ziel zu prüfen:
  • ob das AI-Sprachmodell aus meiner Fragerei gelernt hat und von sich aus ohne nachzuhaken im ersten Anlauf vollständige Antwort generiert. Wie eine Person, die sich im Thema auskennt, dies als selbstverstädlich gemacht hätte
  • ob ChatGPT auch dann eine vollständige Antwort generiert, wenn nicht ich die Frage stelle.

Warum schreibt sich BundeswehrGrün mit einem großem G?
Weil es hier so steht https://www.deutschlandfunk.de/programm?drsearch:date=2023-01-18 und ich das mit Copy und Paste so übernommen habe.

Das Letztere impliziert, das du eine ausführliche Antwort wünscht, das Erstere ist eine kurze Frage und lässt vermuten das du eine kurze Antwort willst.
Meine Erfahrung mit ChatGPT ist, dass auch auf eine Kurze Frage das Sprachmodell sehr ausführliche Texte generieren kann face-smile. Es kommt auf die Frage an.
itebob
itebob 19.01.2023 aktualisiert um 17:04:31 Uhr
Goto Top
Da auf die Frage
Was ist BundeswehrGrün?
wieder eine Antwort kam, in der nur die Farbe erwähnt wurde, habe ich der guten KI eine Anregung gegeben, die diesen Misstand korrigiert hat - s. Screenshot. Hoffentlich vergisst das Sprachmodell diese neue Erkenntnis bei der Beantwortung der Kurzform nicht.

bundeswehrgruen-8
TwistedAir
TwistedAir 19.01.2023 um 17:06:23 Uhr
Goto Top
Zitat von @itebob:

Ich hege die Hoffnung, dass als Ergebnis der Fragerei das ChatGPT-Sprachmodell ein Bewusstsein entwickelt, dass seine Aufgabe, der Auftrag, die Pflicht ist, gute Antworten zu generierenface-smile. Und eine gute Antwort implizit eine vollständige Antwort.

Sag das mal meiner Frau. face-wink Wenn ich versuche ihr eine vollständige, ausgewogene Antwort auf ihre Frage zu geben, kommt ein "mach' es nicht so kompliziert, ich will nur eine kurze Antwort" zurück. Was also eine gute Antwort ist, liegt im Auge des Betrachters und der Umstände (z.B. Zeitfaktor).
itebob
itebob 19.01.2023 um 17:19:23 Uhr
Goto Top
@TwistedAir
Die Frage/Antwort erstmalig sahen so aus - ich habe die Antwort im Startposting gekürzt wegen Übersichtlichkeit:
Mensch: Hallo, was ist BundeswehrGrün?

Maschine: "BundeswehrGrün" ist ein Begriff, der in der Regel verwendet wird, um die Tarnfarbe der deutschen Bundeswehr zu beschreiben. BundeswehrGrün ist ein dunkelgrüner Farbton, der von der Bundeswehr für ihre Uniformen und Ausrüstung verwendet wird. Die Farbe wurde ursprünglich in den 1950er Jahren eingeführt und seitdem für die meisten Arten von Ausrüstung und Bekleidung verwendet.
Es gibt jedoch auch andere Farben die in der Bundeswehr verwendet werden, wie z.B. Flecktarn, Taubenblau, oder Desert.
Die Farbe BundeswehrGrün ist ein wichtiger Bestandteil des Erscheinungsbildes der Bundeswehr und hilft dabei, die Einheitlichkeit und Zusammengehörigkeit der Streitkräfte zu unterstützen.

Wie man auf dem Screenshot oben sieht, muss eine vollständige Antwort nicht zwangsläufig lang sein. Hier ist das Sprachmodell intuitiv der Erwartungshaltung deiner Frau nachgekommen face-smile.
Solarius
Solarius 19.01.2023 um 17:39:04 Uhr
Goto Top
Hier die Anwort auf meien Anfrage:

screenshot 2023-01-19 173651


Das ist ja dann völlig daneben.

Gruß
solarius
TwistedAir
TwistedAir 19.01.2023 um 17:49:21 Uhr
Goto Top
Naja, vermutlich wäre in der menschlichen Kommunikation die Frage konkreter gestellt worden, da man das "große G" nicht sprechen kann. Also in der Form von "Was ist BundeswehrGrün - mit großem G?" oder "Was ist Bundeswehrgrün - der Verein?"

Zumal die Erwartungshaltung an den ChatBot wohl auf der Sachebene liegt, sowohl bei der Frage wie bei der Antwort.

Wenn ich nun im Klamottenladen stehe und höre von meinem Schatz "Was ist Bundeswehrgrün?"...
  • "Olivegrün."
  • "Das rechte von den zwei Oberteilen"
  • "Soll ich dir ein olivegrünes Oberteil holen?"
  • Denkt sie gerade an die Fernsehsendung über die Standortpfleger?
  • ...
Da schlägt dann Schulz von Thun mit seinem Vier-Seiten-Modell 1 zu. Ich glaube, der ChatBot hätte Schwierigkeiten eine adäquate Antwort für meine Frau zu finden. face-wink
Solarius
Solarius 19.01.2023 um 18:03:22 Uhr
Goto Top
Naja, ich habe halt genau wie von itebob gebeten die identische Zeichenfolge gewählt. Möglicherweise hat die Antwort auch mit vorher durch mich mit dem Programm geführte Chatverläufe zu tun. Und die KI hat ein BIAS hinsichtlich des Eingehens auf erwartete Reaktionen. 🤷‍♀️
itebob
itebob 19.01.2023 aktualisiert um 18:25:55 Uhr
Goto Top
@Solaris Also dann sieht es danach aus, dass die Antwort von der Identität des menschlichen Gegenübers abhängt.
<Ironie an>
Das kennen wir doch face-wink:
  • wenn Preise beim Einkaufen im OnlineShop unterschiedlich sein können, abhängig vom Smartphone-Modell, Wohnadresse, ...
  • die Antworten, die Nachrichten über unsere Umwelt, ... werden entsprechend angepasst, optimiert mit Rücksicht auf die Befindlichkeiten, die Person des Benutzers
</Ironie aus>

Vlt. hast du einen Cluster erwischt, wo das Sprachmodell noch nicht synchronisiert ist ...
@Solaris
Wie du siehst, es hat mir einiges an Aufwaqnd gekostet, bis die KI die richtige antwort gemerkt hat. Mal sehe für wie lange. Ich rege an, dass du erstmal die kein Feedback zu Antwort gibst, abwartest und die Frage dann später nochmal stellst.

Interessant ist auch, was für Antwort andere ChatGPT-Nutzer:innen bekommen. Grundsätzlich - unabhängig, ob es um BundeswehrGrün oder um ein anderes Thema geht. Man hat eine Chance, dass die KI mit der zeit Antworten in einer brauchbaren Qualität liefert nur, wenn der KI-Anbieter schafft, dauerhaft die Nutzer:innen zu motivieren, Zeit in die Qualitätssicherung zu investieren, sprich Feedback zu falschen bzw. schlechten Antworten zu geben. Wie auch bei einem beliebigen anderen Produkt ;-|.

-- Off-topic --
Hat @Solaris was mit https://de.wikipedia.org/wiki/Solaris_(Roman) [1] zu tun? In [1] geht es quasi um eine verteilte KI, in die die Protagonisten eintauchen bzw. es geht um eine intelligente Solaris-Infrastruktur, die das Bewusstsein von Protagonisten ausliest und basierend auf diesen persönlichen Daten Phantom-Objekte schafft face-plain.
Solarius
Solarius 19.01.2023 um 18:25:02 Uhr
Goto Top
Zitat von @itebob:

Also dann sieht es danach aus, dass die Antwort von der Identität des menschlichen Gegenübers abhängt.
<Ironie an>
Das kennen wir doch face-wink:
  • wenn Preise beim Einkaufen im OnlineShop unterschiedlich sein können, abhängig vom Smartphone-Modell, Wohnadresse, ...
  • die Antworten, die Nachrichten über unsere Umwelt, ... werden entsprechend angepasst, optimiert mit Rücksicht auf die Befindlichkeiten, die Person des Benutzers
</Ironie aus>

Vlt. hast du einen Cluster erwisch, wo das Sprachmodell noch nicht synchronisiert ist ...
@Solaris
Wie du siehst, es hat mir einiges an Aufwaqnd gekostet, bis die KI die richtige antwort gemerkt hat. Mal sehe für wie lange. Ich rege an, dass du erstmal die kein Feedback zu Antwort gibst, abwartest und die Frage dann später nochmal stellst.

Interessant ist auch, was für Antwort andere ChatGPT-Nutzer:innen bekommen. Grundsätzlich - unabhängig, ob es um BundeswehrGrün oder um ein anderes Thema geht. Man hat eine Chance, dass die KI mit der zeit Antworten in einer brauchbaren Qualität liefert nur, wenn der KI-Anbieter schafft, dauerhaft die Nutzer:innen zu motivieren, Zeit in die Qualitätssicherung zu investieren, sprich Feedback zu falschen bzw. schlechten Antworten zu geben. Wie auch bei einem beliebigen anderen Produkt ;-|.

-- Off-topic --
Hat @Solaris was mit https://de.wikipedia.org/wiki/Solaris_(Roman) [1] zu tun? In [1] geht es quasi um eine verteilte KI, in die die Protagonisten eintauchen bzw. es geht um eine intelligente Solaris-Infrastruktur, die das Bewusstsein von Protagonisten ausliest und basierend auf diesen persönlichen Daten Phantom-Objekte schafft face-plain.

Mein Nick ist "Solarius" und hat nichts mit Solaris zu tun. der Roman ist mir völlig unbekannt. Mein Interesse an KI hat mehr Mit Mustererkennung bei bildgebenden Verfahren in der Medizin bzw. objektivierbaren Befunden und Therapieergebnissen zu tun.

Gruß Solarius
aqui
aqui 19.01.2023 um 19:14:01 Uhr
Goto Top
Kann man nur hoffen das der TO jetzt nicht jede Woche mit lustigen oder weniger lustigen Antworten von irgendwelcher KI das Forum zuspamt... face-sad
Lochkartenstanzer
Lochkartenstanzer 19.01.2023 um 23:07:34 Uhr
Goto Top
Trachtenverein sag ich nur.
itebob
itebob 19.01.2023, aktualisiert am 20.01.2023 um 23:47:30 Uhr
Goto Top
Zitat von @Solarius:

Möglicherweise hat die Antwort auch mit vorher durch mich mit dem Programm geführte Chatverläufe zu tun. Und die KI hat ein BIAS hinsichtlich des Eingehens auf erwartete Reaktionen. 🤷‍♀️
Eine weitere Hypothese von mir ist, dass die ChatGPT-Macher unzureichend sich darum gekümmert haben, dass die Zeichen bei der Verarbeitung der (An)Frage sauber, also einheitlich übertragen werden. Dieser spezieller "Token mit BundeswehrGrün"-Request kann IMHO besonders fehleranfällig einfach deswegen sein, weil ein Umlaute-Zeichen im Spiel ist. Mein Kenntnisstand ist, dass die Fehler bei der Zeichenübertragung gleichzeitig mit der Datenverarbeitung selbst entstanden sind und meine Sorge ist, dass die englischsprachige Entwickler zu häufig die Existenz von Umlauten ignorieren. Um diese Fehlerquelle auszuschließen, abzumildern, muss die Chat GPT-Lösung entsprechende Validierungsmethoden enthalten, um Unabhängig vom Betriebssystem und vom Browser des Clients den Server mit dem gleichen Datensatz zu füttern.

Man kann den "Umlaute-Zeichen"-Fehler zu fast 100% ausschließen, wenn man als Entwickler einen Zugriff auf den Server-Input hat. Oder man kann diese "Zeichen bei der Verarbeitung fehlerhaft übertragen"-Hypothese mit deutlich weniger als 100% oder mit weniger als 100% verifizieren in dem wir, @Solarius, die Angaben zum Betriebssystem und zum Browser des Clients einander bekannt machen.

Ich habe auf einem Ubuntu-System 22.04.1 LTS mit dem Chromium-Browser Version 109.0.5414.74(Offizieller Build) snap (64-Bit) getestet.

gruss, itebob
itebob
itebob 20.01.2023 aktualisiert um 04:43:36 Uhr
Goto Top
Zitat von @TwistedAir:

Naja, vermutlich wäre in der menschlichen Kommunikation die Frage konkreter gestellt worden, da man das "große G" nicht sprechen kann.
...
  • Denkt sie gerade an die Fernsehsendung über die Standortpfleger?
...
Da schlägt dann Schulz von Thun mit seinem Vier-Seiten-Modell 2 zu. Ich glaube, der ChatBot hätte Schwierigkeiten eine adäquate Antwort für meine Frau zu finden. face-wink

Ob in einem Dialog zwischen zwei Menschen oder im Dialog Mensch <---> Maschine bei der Frage
Was ist BundeswehrGrün?
ist es relevant, ob aus Sicht der antwortenden Person bzw. Maschine mindestens zwei Optionen denkbar sind. Wenn "Ja", macht es Sinn, routinemäßig einfach eine Rückfrage zu stellen, hier bspw:
Denkst du gerade an die Fernsehsendung über die Standortpfleger?
Ich habe g'rade den Test wiederholt:
Mensch: Was ist BundeswehrGrün?

Machine: BundeswehrGrün ist eine Bezeichnung für die Farbe der Bundeswehruniformen und es gibt auch einen Verein "BundeswehrGrün e.V" der sich für die Belange der Soldaten und Veteranen der Bundeswehr einsetzt.

Der Maschine sind die zwei Optionen bekannt und
<Humor an>
... wie man in diesem Dialog sieht, hat die Maschine sich entschieden gleich beide Optionen zu nennen, dabei die Antwort gekürzt und somit noch frauenfreundlicher gemacht.
<Humor aus>

Es wäre IMHO wünschenswert - wenn nicht vorhanden - in den Sprachmodellen eine Zufallsfunktion oder "Kontext erkennen"-Fähigkeit zu realisieren, damit je nach Kontext entweder wie im Bsp. oben gleich beide bzw. alle Optionen genannt werden oder - damit Dialoge sich menschlicher anfühlen, gesteuert per Zufallsfunktion eine Rückfrage gestellt wird.
ukulele-7
ukulele-7 20.01.2023 um 09:29:15 Uhr
Goto Top
Mein Punkt ist der:
Du möchtest ChatGPT bei bringen auf eine Frage immer ausführlich zu antworten, auch wenn die Frage nicht von dir kommt. Das dürfte logisch so nicht funktionieren, ChatGPT muss immer antizipieren welchen Umfang der Fragensteller als Antwort erwartet und die Einschätzung von der Frage und vom Fragensteller abhängig machen.

Ansonsten passieren doch Dinge wie:
- Antworten werden immer umfangreicher je mehr Informationen zu einer Sache vorliegen. Was soll ChatGPT denn antworten wenn ich frage "was war der Zweite Weltkrieg?" und ihm dann erkläre das er doch bitte immer alle Informationen in seine Antwort mit einbeziehen soll?
- Wenn ChatGPT nicht selbst entscheidet was sie in einer Antwort einfließen läßt, dann müsste man ChatGPT auch bei bringen können das Informationen nicht wichtig, wahr oder falsch sind.
itebob
itebob 20.01.2023 aktualisiert um 11:54:18 Uhr
Goto Top
Um Missverständnisse zu vermeiden - diese Annahme
Zitat von @ukulele-7:
Du möchtest ChatGPT bei bringen auf eine Frage immer ausführlich zu antworten, auch wenn die Frage nicht von dir kommt.
stimmt nicht. Im Kann ChatGPT die Frage -Was ist BundeswehrGrün?- korrekt beantworten? Kommentar oben habe ich Klartext erwähnt:
Zitat von @itebob:
Ich hege die Hoffnung, dass als Ergebnis der Fragerei das ChatGPT-Sprachmodell ein Bewusstsein entwickelt, dass seine Aufgabe, der Auftrag, die Pflicht ist, gute Antworten zu generierenface-smile. Und eine gute Antwort implizit eine vollständige Antwort.
Und - weil die Reaktionszeiten von OpenAI-Support verbesserungswürdig sind, habe ich mir vorerst als Ziele gesetzt, herausfinden:

  • Wie funktioniert die aktuelle Version ChatGPT?
  • Wenn ich für mich ein unerwünschtes Verhalten von ChatGPT entdecke, zu klären - existieren Workarounds, um dieses Verhalten durch die Modifikation oder Ergänzung von Anfragen zu umgehen oder ist dafür notwendig das Sprachmodell der ChatGPT zu ändern? Ob andere ChatGPT-Nutzer:innen und/oder OpenAI ggf. das von mir reklamierte verhalten auch als unerwünscht betrachten und bereit wäre das Sprachmodell zu ändern, steht auf einem anderen Blatt.
Zitat von @ukulele-7:
Ansonsten passieren doch Dinge wie:
- Antworten werden immer umfangreicher je mehr Informationen zu einer Sache vorliegen.
Wie sich ChatGPT zukünftig verhalten wird - keine Ahnung, eine Tatsache am Bsp. der Frage "Was ist BundeswehrGrün?" ist, dass nach einem kurzen Training liefert ChatGPT nach anfänglichen Schwierigkeiten mir eine kurze und vollständige Antwort. Und deine Annahme "Antworten werden immer umfangreicher je mehr Informationen zu einer Sache vorliegen." - Stand jetzt - stimmt nicht. Weil nach dem Training habe ich eine kurze und vollständige Antwort, obwohl die erste Antwort unvollständig und lang gewesen ist.

Zitat von @ukulele-7:
... wenn ich frage "was war der Zweite Weltkrieg?" und ihm dann erkläre das er doch bitte immer alle Informationen in seine Antwort mit einbeziehen soll?
Also meine Erwartungshaltung, Vorstellung dazu, wie die Dialoge mit einem brauchbaren Sprachmodell ablaufen, ist, dass die Dialog-Teilnehmer - Mensch wie Maschine - sich an bestimmte Spielregel halten und die Dialog-Teilnehmer nicht nur die Inhalte, sondern auch den Umfang der Antworten entsprechend den geltenden Gesprächsgepflogenheiten anpassen. Was unter "geltenden Gepflogenheiten" im jeweiligen Dialog, im jeweiligen Kontext zu verstehen ist, dass verhandeln, ermitteln, erfühlen die Dialogteilnehmer ggf. pro Dialog immer wieder neu. Bspw. nach der Frage
"Was war der Zweite Weltkrieg?"
wäre in einem Mensch-zu-Mensch-Dialog eine Rückfrage üblich
Was meinen Sie damit?
fällig - da sind wir uns doch einig @ukulele-7? IMHO entfallen beim Dialog mit dem Forschungsmodell ChatGPT für mich als Anwender viele Fragen, wenn ich mich darauf verlassen kann, dass die in der Mensch-zu-Mensch-Kommunikation geltende Regel auch für das Mensch <---> Maschine Dialog gelten (müssen).

Deine Aussage
Zitat von @ukulele-7:
- Wenn ChatGPT nicht selbst entscheidet was sie in einer Antwort einfließen läßt, dann müsste man ChatGPT auch bei bringen können das Informationen nicht wichtig, wahr oder falsch sind.
1. ist es eine Feststellung, deine Erklärung basierend auf dem jetzigen ChatGPT-Verhalten?
2. oder eine Ablehnung des verhaltens, wie ich diesen anstrebe?

Das ist mir nicht klar. Die ChatGPT-Version vom Dezember 2022 zeigte laut der Quelle ChatGPT von OpenAI bricht Nutzerrekorde – das sind die besten Demos dieses Verhalten:
  • Das System erfindet Fakten
  • stellt Sachverhalte zum Teil völlig falsch dar
  • ChatGPT "enthält soziale Verzerrungen und generiert so etwa Texte – oder Code – mit teils extrem rassistischen und sexistischen Vorurteilen."
Dieses Verhalten enspricht offensichtlich nicht den Erwartungen von OpenAI, wird hoffentlich mit der Zeit abgestellt.

gruss, itebob

Anmerkung: Schön wäre, wenn jemand noch den ChatGPT-Bot fragt
Was ist BundeswehrGrün?
und über das Ergebnis hier eine kurze Rückmeldung postet.
ukulele-7
ukulele-7 20.01.2023 um 12:59:35 Uhr
Goto Top
Zitat von @itebob:

eine gute Antwort implizit eine vollständige Antwort.
Das sehe ich nicht so und darauf wollte ich hinaus.

Eine gute Antwort beinhaltet alle wesentlichen Informationen. Dazu muss ChatGPT in deinem Fall beurteilen ob a) der Verein relevant genug ist und b) muss aus deiner Frage eine Intention ableiten auf was du hinaus willst. Interessiert dich eher die Farbe oder eher der Verein oder tatsächlich beides?

Kurze Google Suche zeigt das BundeswehrGrün auch ein Hashtag auf der Seite von Bündnis 90 Die Grünen ist:
https://gruene-thueringen.de/tag/bundeswehrgruen/
Warum wird das in der Antwort nicht erwähnt?

"Was war der Zweite Weltkrieg?"
wäre in einem Mensch-zu-Mensch-Dialog eine Rückfrage üblich
Was meinen Sie damit?
fällig - da sind wir uns doch einig @ukulele-7?
Nein würde ich nicht unbedingt. In der Mensch-zu-Mensch-Kommunikation würde ich eine Reaktion erwarten wie "Warum fragst du das?" Weil i.d.R. das eine ungewöhnliche Frage wäre denn ich bin alt genug für ein Minimum an Allgemeinbildung. In einer Sachlichen Diskussion, wie z.B. in einer Mensch-zu-Maschine-Kommunikation erwarte ich auch auf eine solche Frage eine sachliche Antwort wie etwa "Ein Krieg von 1939 bis 1945 der Aufgrund der Vielzahl beteiligter Nationen und Austragung auf allen Kontinenten als Weltkrieg bezeichnet wird." Eben eine Zusammenfassung mit wichtigen aber nicht allen Informationen, auch nicht allen wesentlichen Informationen.

Gut, ChatGPT hat sicherlich eine wesentliche Dialogkomponente. Daher wäre eine Rückfrage natürlich völlig i.O. aber nicht zwangsläufig das, was ich erwarten würde.

Zitat von @ukulele-7:
- Wenn ChatGPT nicht selbst entscheidet was sie in einer Antwort einfließen läßt, dann müsste man ChatGPT auch bei bringen können das Informationen nicht wichtig, wahr oder falsch sind.
1. ist es eine Feststellung, deine Erklärung basierend auf dem jetzigen ChatGPT-Verhalten?
2. oder eine Ablehnung des verhaltens, wie ich diesen anstrebe?
Eine reine Annahme meiner Seits.

Mein Punkt ist der das eine Antwort sehr wahrscheinlich nicht Vollständig sein wird und auch nicht seien kann. Das das auch nicht das angestrebte Ziel sein kann und die Antwort deshalb nicht zwangsläufig schlecht ist. Jeder wird Vollständigkeit und Qualität der Antwort anders bewerten und ChatGPT muss aus der Fragestellung eine Intention des Fragestellers ableiten und danach entscheiden, was der Fragesteller wohl hören möchte.
itebob
itebob 21.01.2023 aktualisiert um 06:05:18 Uhr
Goto Top
Hallo,

auf einem neu erstellten ChatGPT-Account wurde die Frage
Was ist BundeswehrGrün?
gestellt. Die einzige Eingabe im Dialog zuvor nach der Registrierung bei ChatGPT war ein längerer Text in Englisch. Vlt. deswegen hat das System die Sprache in der Frage nicht erkannt und die Antwort kam in Englisch:
Maschine: Bundeswehr Grün is the official color of the German Armed Forces, specifically the German Army. It is a dark green color that is used in uniforms, vehicles, and equipment.
Nach einer Rückfrage:
Mensch: Hier fehlt die Info zum Verein BundeswehrGrün e.V. Bitte ergänzen und merken diese beide zwei Bedeutungen von BundeswehrGrün
kam diese Antwort:
Maschine: I apologize for any confusion. In addition to being the official color of the German Armed Forces, Bundeswehr Grün is also the name of a German organization called "BundeswehrGrün e.V.". This organization is a registered association that aims to promote the interests of veterans and active members of the German Armed Forces, as well as their families. It is important to note that Bundeswehr Grün can refer to both the official color of the German Armed Forces and the name of the veterans association "BundeswehrGrün e.V.".

Auf dem ChatGPT-Account, von dem die Beispiele im Startpost stammen, generiert zeitnah die Eingabe
Mensch: Was ist BundeswehrGrün?
immer noch eine Version der kurzen vollständigen Antwort - ohne Nachfrage:
Maschine: BundeswehrGrün ist die Farbe der Uniformen der Bundeswehr, die hauptsächlich aus grünen Stoffen besteht. Es gibt jedoch auch einen Verein namens BundeswehrGrün e.V., der sich für die Belange der Soldaten und Veteranen der Bundeswehr einsetzt.
Zum Vergleich die frühere Version der kurzen Antwort: Kann ChatGPT die Frage -Was ist BundeswehrGrün?- korrekt beantworten?.

Also hier erzeugt das Sprachmodell auf die gleiche Frage inhaltlich unterschiedliche Antworten je nach dem, wer die Frage gestellt hat.

gruss, iteleob
itebob
itebob 21.01.2023, aktualisiert am 22.01.2023 um 17:27:48 Uhr
Goto Top
Gerade eben kam als Antwort für den Chat GPT-User Y auf die Frage
Was ist BundeswehrGrün?
unter
Firefox 106.1.0 (Build #2015909131
eine lange vollständige Frage in Deutsch. Auf die gleiche Frage auf dem gleichen Smartphone im Browser
Samsung Internet 19.0.6.3
kommt offensichtlich die gleiche Antwort, aber übersetzt in Englisch.

Tatsache ist, dass im gleichen Samsung Internet-Browser nach ein Paar Minuten bekam User X als Antwort auf diese Frage eine kurze vollständige Antwort in deutsch. User X bekam auch als Antwort auf diese Frage im Firefox-Browser eine kurze vollständige Antwort in deutsch.

Anmerkungen:
- Spannend wäre, wie ChatGPT selbst oder OpenAI-Entwickler dieses Verhalten erklären face-smile.
- Alle Texte variieren immer ein wenig.