frank
Goto Top

Google Bard, jetzt Gemini nun auch in Deutschland verfügbar

article-picture
Google Bard KI, der jetzt in Gemini umbenannt wurde, kann nun auch in Deutschland von jedermann ausprobiert werden:

https://bard.google.com/ oder https://gemini.google.com/

Viel Spaß beim Vergleichen mit ChatGPT!

Gruß
Frank

Content-ID: 63027107664

Url: https://administrator.de/contentid/63027107664

Ausgedruckt am: 21.11.2024 um 16:11 Uhr

NordicMike
NordicMike 08.02.2024 um 10:19:14 Uhr
Goto Top
Der erste Versuch ein Image zu generieren fehlgeschlagen. Der Zweite auch. Ab in die Tonne damit. Wer brauch so einen ###?
PeterGyger
PeterGyger 08.02.2024 um 10:54:26 Uhr
Goto Top
Hallo

"Gemini" sollte 2024 ein grosses Ding werden, da Multimodal. Auch "Code" kann als "Sinn" für eine Eingabe verwendet werden... "MindBlow"

Morpheus hat seine Einschätzung der KI Enwicklung 2024 hierdokumentiert

Beste Grüsse
11078840001
11078840001 08.02.2024 aktualisiert um 11:31:09 Uhr
Goto Top
Einfach nur unbrauchbar ...

screenshot

screenshot


Richtig wäre:

8d969eef6ecad3c29a3a629280e686cf0c3f5d5a86aff3ca12020c923adc6c92
3063370895
3063370895 08.02.2024 aktualisiert um 11:14:22 Uhr
Goto Top
Zitat von @11078840001:

Einfach nur unbrauchbar ...

screenshot

screenshot


Richtig wäre:

8d969eef6ecad3c29a3a629280e686cf0c3f5d5a86aff3ca12020c923adc6c92

Wer verwendet denn KI zum hashen von Strings? Das ist wie mit einer Säge einen Nagel in die Wand zu hämmern, und die Säge danach wegzuwerfen weil "unbrauchbar".

-Thomas
11078840001
11078840001 08.02.2024 aktualisiert um 11:18:27 Uhr
Goto Top
Allgemeine Grundlagen der Mathematik sollte man ja erwarten können für etwas das sich KI schimpft.
Und das man dann auch noch Ergebnisse unter "Ausgabe" präsentiert die vollkommen falsch sind, tja ...
Es geht nicht um den Sinn sondern das was die KI dem User ausgibt. Wenn sie es nicht kann dann soll sie auch keine falschen Ergebnisse liefern, Vortäuschung falscher Tatsachen nennt man sowas unter der humanoiden Spezies.
3063370895
3063370895 08.02.2024 um 11:18:34 Uhr
Goto Top
Zitat von @11078840001:

Allgemeine Grundlagen der Mathematik sollte man ja erwarten können für etwas das sich KI schimpft.
Und das man dann auch noch Ergebnisse unter "Ausgabe" präsentiert die vollkommen falsch sind, tja ...
Es geht nicht um den Sinn sondern das was die KI dem User ausgibt. Wenn sie es nicht kann dann soll sie auch keine falschen Ergebnisse liefern, Vortäuschung falscher Tatsachen nennt man sowas.

Wie mit jedem Werkzeug muss man wissen wie man damit umgeht und wo seine Grenzen liegen.

-Thomas
NordicMike
NordicMike 08.02.2024 um 11:39:31 Uhr
Goto Top
Die Ki dachte sich: Dann liefern wir einfach mal als Test falsche Ergebnisse, mal sehen ob es der Benutzer bemerkt.

Und somit ist alles relativ und zu nichts mehr zu gebrauchen.
PeterGyger
PeterGyger 08.02.2024 um 13:20:04 Uhr
Goto Top
Hsallo abramakabra

Nein, da liegst Du falsch. Generative KI ist primär für textuelle Aufgaben konzipiert.
Chaoti hat es auf den Punkt gebracht: "Wie mit jede..."

Genauso wenig wie jeder Mensch eine Oper komponieren oder einen Roman schreiben kann, ist jede Software ein Rechenkünstler. Literatur von OpenAI bzw Sam Altmann dazu findet man en Masse.

Beste Grüsse
11078840001
11078840001 08.02.2024 aktualisiert um 14:35:02 Uhr
Goto Top
Zitat von @PeterGyger:

Hsallo abramakabra

Nein, da liegst Du falsch. Generative KI ist primär für textuelle Aufgaben konzipiert.
Chaoti hat es auf den Punkt gebracht: "Wie mit jede..."

Genauso wenig wie jeder Mensch eine Oper komponieren oder einen Roman schreiben kann, ist jede Software ein Rechenkünstler. Literatur von OpenAI bzw Sam Altmann dazu findet man en Masse.

Schon klar, trotzdem ist und bleibt es nunmal ein Vortäuschen falscher Tatsachen auch bei ChatGPT. Wenn man etwas nicht beherrscht dann sage ich ja auch "Kann ich (noch) nicht", nur hier wird versucht bis zum Abwinken trotzdem eine Antwort zu geben egal wenn sie auch falsch ist.
Wenn mich jemand fragt "Kannst du mich am Herzen operieren?" sage ich ja auch nicht "Klar" und bau ihm dann eine Baumarktpumpe ein die dafür nicht geeignet ist 🙃.
Frank
Frank 08.02.2024 aktualisiert um 15:13:20 Uhr
Goto Top
Ich stimme @11078840001 völlig zu. Google sagt auch, dass Bard sehr gut im Coden ist, aber wenn er nicht einmal die einfachsten Rechenaufgaben oder Berechnungen beherrscht, traue ich ihm das Coden auch nicht zu. Das ist ein Widerspruch. Er kann programmieren, aber nicht rechnen? Autsch.

Wenn die KI etwas nicht kann, sollte sie es auch nicht als Ergebnis ausgeben. Sobald sie ein Ergebnis ausgibt, das nicht stimmt, wird man der KI nicht trauen (was man generell nie zu 100% tun sollte).

Ich rechne mit inhaltlichen Fehlern, aber bei einer Software rechne ich nicht mit mathematischen Fehlern. Ich denke, das könnte man der KI leicht beibringen, sobald sie erkennt, dass es etwas zu berechnen gibt (und ja ich weiß wie die Sprachmodelle funktionieren).

Es ist enttäuschend, dass Bard keine Bilder erstellen kann. Das ist mir auch schon aufgefallen. Generell ist Bard aus meiner Sicht noch keine Konkurrenz für ChatGPT.

Gruß
Frank
kpunkt
kpunkt 08.02.2024 um 15:54:01 Uhr
Goto Top
Man darf halt nicht vergessen, dass ChatGPT vor allem bei mathematischen Berechnungen auch immer schlechter wird.

Abgesehen davon ist Bard momentan wirklich eher unbrauchbar. Alleine die Frage, wieso Bard jetzt Gemini heißt erzeugt eine völlig dämliche Antwort.
Da ist noch viel im Argen. Braucht wohl auch noch eine neue Iteration. War bei ChatGPT ja auch so.
itebob
itebob 14.02.2024, aktualisiert am 15.02.2024 um 07:48:35 Uhr
Goto Top
Hallo,

Zitat von @Frank:
Ich stimme @11078840001 völlig zu. Google sagt auch, dass Bard sehr gut im Coden ist, aber wenn er nicht einmal die einfachsten Rechenaufgaben oder Berechnungen beherrscht, traue ich ihm das Coden auch nicht zu. Das ist ein Widerspruch. Er kann programmieren, aber nicht rechnen? Autsch.

Nach meinem Verständnis von einem Werkzeug - hier Sprachmodell, das darauf trainiert ist, einen Programmcode mit einem definierten Funktionsumfang zu erstellen, zu erwarten dass das gleiche Sprachmodell-Werkzeug auch das gleiche tun kann, wie die Programme, die vom Sprachmodell generiert werden ist ungefähr so, dass man im Maschinenbau von Werkzeugen XY, die für die Herstellung bspw. der Stanzpresse eingesetzt werden, erwartet, dass mit den gleichen Werkzeugen XY auch die Funktionalität, die mit einer Stanzpresse bereitgestelt wird, realisierbar ist. Das ist sorry 🙄 wie Birnen mit Äpfeln zu vergleichen .

Ich rechne mit inhaltlichen Fehlern, aber bei einer Software rechne ich nicht mit mathematischen Fehlern.

Jetzt weißt du Bescheid und verzichtest vorerst darauf, Sprachmodelle für Aufgaben einzusetzen, bei den diese Sprachmodelle bekanntlich Schwächen zeigten

Ich denke, das könnte man der KI leicht beibringen, sobald sie erkennt, dass es etwas zu berechnen gibt (und ja ich weiß wie die Sprachmodelle funktionieren).

Es ist eine gewaltige Herausforderung für die Entwickler von Sprachmodellen und kann sein, dass das Projekt, in dem den Entwicklern gelingt diese Erkennung dem Sprachmodell zuverlässig beizubringen, einen ähnlichen Hype erleben wird, wie aktuell OpenAI und Co.

gruss, itebob

Edit 2024-02-15, 07:48: Ich habe in meinem Kommentar hier die Zeichenfolge "KI" durch "Sprachmodell" ersetzt. Begründung s. in diesem Thread Kommentar 30.01.2024 um 20:09:51 im Abschnitt "= Robotergesetze ="
Frank
Frank 14.02.2024 aktualisiert um 20:19:35 Uhr
Goto Top
Hi,

ich verstehe nicht, warum eine Ki nicht korrekt rechnen soll? Schon gar nicht, wenn sie damit wirbt. Den Vergleich mit dem "Werkzeug" verstehe ich nicht. Für mein Verständnis muss eine KI die einen Quellcode erzeugen kann, diesen vollständig verstehen (auf welcher Basis erstellt sie ihn?) und wenn nicht, dann sollte sie das Ergebnis mindestens validieren können.

Wenn ich mir anschaue womit Google bei seiner KI wirbt steht da auch ganz klar "MATH".

bildschirmfoto 2024-02-14 um 20.08.50

Dazu gehört meiner Meinung auch die korrekte Ausgabe eines mathematischen Hash.
just my 2 cents

Gruß
Frank
kpunkt
kpunkt 15.02.2024 um 07:12:49 Uhr
Goto Top
Zitat von @Frank:

ich verstehe nicht, warum eine Ki nicht korrekt rechnen soll?
Da liegt ein Missverständnis deinerseits vor. Die KI rechnet selber gar nicht. Sie gibt nur die wahrscheinlich besten Lösungswege und die wahrscheinlich besten gefundene Ergebnisse aus.
Die Trefferquote wird ja mit unter 100% angegeben. Und das heißt, man kann sich, ohne selber nachzurechnen, nie sicher sein, dass das ermittelte Ergebnis auch stimmt.
Denn der gewählte Rechenweg ergibt sich aus dem Training der KI. Und je komplexer aber auch je unbekannter eine Fragestellung ist, desto höher ist die Wahrscheinlichkeit, dass die Trainingsdaten vom richtigen Lösungsweg abweichen.
Im Grunde nimmt man ja alle möglichen Lösungswege, die man in den Trainingsdaten (ganz oft einfach auch nur im WWW vorliegende Seiten) findet und gewichtet die oft nur nach Häufigkeit.

Im Falle des Hashwerts ist es ja nicht so, dass Gemini den angezeigten Python-Code auch tatsächlich ausführt. Es gibt den Code nur an, weil es der am wahrscheinlich "richtigste" Code zur Berechnung ist, der zur Fragestellung passt.
Der Hashwert selber ist dann aber eben nicht berechnet, sondern auch nur geschätzt.

Alles hängt von den Trainingsdaten ab und wie die modifiziert werden.

Aktuell gibt Gemini das als Ergebnis aus:
Der SHA-256-Hash des Strings "123456" lautet:  

E3B0C44298FC1C149AFBF4C8996FB92427AE41E4649B934CA495991B7852B855

Chat-GPT gibt folgende Lösung aus:
SHA256("123456") = C6715F16EAACBE928D7435C5016B94F7F0652858905C93D843CFC7D3838DEE60  

Beide weichen vom Ergebnis von @11078840001 ab:
8d969eef6ecad3c29a3a629280e686cf0c3f5d5a86aff3ca12020c923adc6c92
Ich selber habs noch gar nicht nachgerechnet. Wem soll man jetzt also glauben?
Ohne selber nachzurechnen wohl niemandem.
itebob
itebob 15.02.2024 aktualisiert um 12:54:48 Uhr
Goto Top
Guten Morgen,

Zitat von @Frank:
Den Vergleich mit dem "Werkzeug" verstehe ich nicht.

@kpunkt hat es auf den Punkt gebracht.
Zitat von @kpunkt:
Die KI rechnet selber gar nicht. Sie gibt nur die wahrscheinlich besten Lösungswege und die wahrscheinlich besten gefundene Ergebnisse aus.

Was aus meiner Sicht als Laie den aktuellen Sprachmodellen fehlt, um korrekt mathematische Aufgaben zu lösen, ist die Fähigkeit, auf Anhieb das richtige Werkzeug - also bspw. ein geeignetes Programm für die Berechnung des Hashwerts zu wählen und einzusetzen. Statdessen - weil das Sprachmodell so gebaut ist - fängt das Sprachmodell aufwändig die Wahrscheinlichkeiten zu berechnen, welche Zeichenfolge "könnte" die korrekte Antwort auf die Anfrage sein. Das Sprachmodell "erfindet" die Zeichenfolge basierend auf den Trainingsdaten. Meine Laienmeinung - vlt. enthalten die Trainingsdaten zu wenig Mathematik, um dem Sprachmodell bessere mathematische Fähigkeiten beizubringen?

Zitat von @Frank:
Für mein Verständnis muss eine KI die einen Quellcode erzeugen kann, diesen vollständig verstehen (auf welcher Basis erstellt sie ihn?)

Nein das Sprachmodell, das basierend auf Trainingsdaten ein Programm generiert, "versteht" den Code nicht.

Zitat von @Frank:
und wenn nicht, dann sollte sie das Ergebnis mindestens validieren können.

Es ist DIE HERAUSFORDERUNG, vor der die Entwickler von Sprachmodellen aktuell stehen - mehr dazu s. spektrum.de:
KÜNSTLICHE INTELLIGENZ: Sind Sprachmodelle bald die besseren Mathematiker? 21.04.2023

Anmerkung: Ich habe in meinem Kommentar oben die Zeichenfolge "KI" durch "Sprachmodell" ersetzt. Begründung s. in diesem Thread Kommentar 30.01.2024 um 20:09:51 im Abschnitt "= Robotergesetze ="
Frank
Frank 15.02.2024 aktualisiert um 11:10:56 Uhr
Goto Top
Ich habe oben schon erwähnt, dass ich weiß, wie die aktuellen Sprachmodelle funktionieren. Ich weiß, dass die KI derzeit nur mit Wahrscheinlichkeiten rechnet. Aber, und so funktionieren auch die Plugins von ChatGPT (z.B. Wolfram), nichts hindert die Entwickler der KI daran, die per Wahrscheinlichkeit erzeugten Daten anschließend intern z.B. durch einen entsprechenden Interpreter zu validieren, bevor die KI sie ausgibt. Im Falle z.B. eines Python-Skripts kann die KI das erstellte Skript intern durch einen Python-Interpreter validieren. Einige KIs wie z.B. die von JetBrains machen das heute schon. Wenn das Script funktioniert -> Ausgabe, wenn es nicht funktioniert -> neu berechnen.

Natürlich kostet das Ressourcen und ich verstehe auch, dass nicht jede Programmiersprache validiert werden kann. Aber bei mathematischen Funktionen sollte das vom Aufwand her kein Problem sein. Die sind immer gleich. Wolfram GPT zeigt ja, dass es möglich ist.

Ich denke, dass jede KI irgendwann ihre Daten validiert, jedenfalls im mathematischen oder Code-Bereich. Sich hinter der Ausrede zu verstecken: "Das ist ja nur ein Sprachmodell", wird nicht lange funktionieren.

Da Gemini die neueste KI auf dem Markt ist und mit MATH- und CODE Funktionen wirbt, hatte ich das irgendwie erwartet. Daher die Enttäuschung.

Gruß
Frank
kpunkt
kpunkt 15.02.2024 um 11:38:37 Uhr
Goto Top
Zitat von @Frank:
Da Gemini die neueste KI auf dem Markt ist und mit MATH- und CODE Funktionen wirbt, hatte ich das irgendwie erwartet. Daher die Enttäuschung.
Falsche Erwartungshaltung. Wolfram ist übrigens ein schlechtes Beispiel für die allgemeine Betrachtung der LLMs, da es sich dabei eben um überprüfte Trainingsdaten handelt. Insgesamt kann man dieses Plugin aber als Revolution sehen.
Ob das jedes LLM mal anbieten wird würde ich bezweifeln. Und wenn, dann wie bei Wolfram nur mit einer im Vergleich sehr geringen Trainingsdatenmenge.
Die Verbindung von ChatGPT mit Wolfram ist alles andere als trivial.
Vor allem bedeuten solche kuratierten Daten eine ziemlich große Gefahr. Momentan stehen wir an der Grenze zwischen schwarmintelligenz und Schwarmdummheit. Wie aber auch Opensource wird vom Schwarm eben erwartet, dass die Schiere Menge von Partizipanten die wahrscheinlichsten Ergebnisse auch die "richtigsten" sind. Doch da trügt er, der Schein.
Im Gegenzug ist man bei speziell ausgewählten Trainingsdaten eben der Willkür des Auswählenden abhängig.
Eine vernünftige Mischung scheint das beste zu sein. Aber dafür reichen IMHO die Ressourcen noch nicht aus. Die Basis von LLMs funktioniert ja schon lange. Zwar mehr schlecht als recht, aber sie taten das, was erwartet wurde. Erst mit der zunehmenden Rechenpower erzielte man urplötzlich auch "vernünftige" Ergebnisse.
Genauso wird es dann auch mit durch den Schwarm validierte "richtige" Trainingsdaten sein. Aber das wird erst dann im großen Stil aufkommen, nachdem die ersten da einen finanziellen Vorteil abgeschöpft haben.
Die freien LLMs sind ja nur eine Werbung für die nichtfreien LLMs der nächsten Iteration.