KI, Eckstein Eckstein alle müssen versteckt sein
Moin Leute,
gestern am Abend war Netflix nicht sonderlich Interessant, so bin ich bei den Öffentlich Rechtlichen TV irgendwie versumpft... und siehe da, auf ORF2 lief eine "Doku" über KI, soweit so gut, dachte Interessantes Thema, mal schauen was die so dazu sagen.
Nach etwa 10min ist mir etwas der Kragen geplatzt, hier wurde wieder Politisiert, und wie so oft Gefahr, Gefahr und nochmals Gefahr.... jeder zweite im Beitrag scheint Angst vor KI zu haben... keine Ahnung warum, bin ich etwas zu dusselig dass ich die "Gefahr" nicht sehe? Laufen wir alle mit ChatGPT ins offene Messer, übernimmt Skynet die Computersysteme, kann uns nur mehr Herr Schwarzenegger helfen?
Na Spaß beiseite, ich muss sagen, ich nehme ChatGPT her, wird seitens AG sogar befürwortet da dieser offen für Technologie ist, klar, dieses System hat seine Ecken und Kanten, aber soweit muss ich für meinen Teil sagen wenn es um Einfache Dinge geht erleichtert es mir doch etwas den Tag, im kleinen Umfang, da mein Hirn nicht auf offline gestellt ist.
Jetzt zur Kernfrage, wenn man Beiträge liest, oder auch im TV sieht warum wird hier immer die Angst geschürt? Ist es wegen dem Unbekannten? Neue Technik scheint Anfangs immer Angst zu machen, aber was derzeit im Bereich KI so läuft ist erschreckend.
Mich drückt auch das (bitte bessert mich aus wenn Falsch) wir bereits KI verwenden, oder wie sollte sonnst Siri und der Google Sprachassistent eingeordnet werden, Alexa schlägt für mich ebenfalls in die gleiche Kerbe.
Würde mich auf eure Meinungen freuen, ob ich blauäugig bin, weil ich vor der KI keine Angst habe, oder ich nicht alleine Dastehe, denn ernsthaft, in keinem Beitrag welchen ich bis dato gelesen habe wurde eine Person aus der IT befragt, und dass wundert mich.
Grüße
gestern am Abend war Netflix nicht sonderlich Interessant, so bin ich bei den Öffentlich Rechtlichen TV irgendwie versumpft... und siehe da, auf ORF2 lief eine "Doku" über KI, soweit so gut, dachte Interessantes Thema, mal schauen was die so dazu sagen.
Nach etwa 10min ist mir etwas der Kragen geplatzt, hier wurde wieder Politisiert, und wie so oft Gefahr, Gefahr und nochmals Gefahr.... jeder zweite im Beitrag scheint Angst vor KI zu haben... keine Ahnung warum, bin ich etwas zu dusselig dass ich die "Gefahr" nicht sehe? Laufen wir alle mit ChatGPT ins offene Messer, übernimmt Skynet die Computersysteme, kann uns nur mehr Herr Schwarzenegger helfen?
Na Spaß beiseite, ich muss sagen, ich nehme ChatGPT her, wird seitens AG sogar befürwortet da dieser offen für Technologie ist, klar, dieses System hat seine Ecken und Kanten, aber soweit muss ich für meinen Teil sagen wenn es um Einfache Dinge geht erleichtert es mir doch etwas den Tag, im kleinen Umfang, da mein Hirn nicht auf offline gestellt ist.
Jetzt zur Kernfrage, wenn man Beiträge liest, oder auch im TV sieht warum wird hier immer die Angst geschürt? Ist es wegen dem Unbekannten? Neue Technik scheint Anfangs immer Angst zu machen, aber was derzeit im Bereich KI so läuft ist erschreckend.
Mich drückt auch das (bitte bessert mich aus wenn Falsch) wir bereits KI verwenden, oder wie sollte sonnst Siri und der Google Sprachassistent eingeordnet werden, Alexa schlägt für mich ebenfalls in die gleiche Kerbe.
Würde mich auf eure Meinungen freuen, ob ich blauäugig bin, weil ich vor der KI keine Angst habe, oder ich nicht alleine Dastehe, denn ernsthaft, in keinem Beitrag welchen ich bis dato gelesen habe wurde eine Person aus der IT befragt, und dass wundert mich.
Grüße
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 6904838197
Url: https://administrator.de/forum/ki-eckstein-eckstein-alle-muessen-versteckt-sein-6904838197.html
Ausgedruckt am: 22.12.2024 um 04:12 Uhr
56 Kommentare
Neuester Kommentar
Hi,
Alexa & Co sind wohl sogar schlimmer. Chatgpt & Co wollen aktuell "nur" zeigen was sie können, aber hängen nicht gleich Shop & Werbung an.
Eine TV-Doku muss irgendwie Aufmerksamkeit schaffen. Bei neuem, ist das einfachste die Angst. Außerdem sehen sich Menschen gerne bestätigt. (Ich lese auch lieber texte in denen steht, dass ich recht hatte und der Blödsinn gar nicht stimmt. Das Gegenteil ist unangenehm.)
Für eine Universum-Doku, sind die KI-Bilder vll noch nicht schön genug.
Sg Dirm
Alexa & Co sind wohl sogar schlimmer. Chatgpt & Co wollen aktuell "nur" zeigen was sie können, aber hängen nicht gleich Shop & Werbung an.
Eine TV-Doku muss irgendwie Aufmerksamkeit schaffen. Bei neuem, ist das einfachste die Angst. Außerdem sehen sich Menschen gerne bestätigt. (Ich lese auch lieber texte in denen steht, dass ich recht hatte und der Blödsinn gar nicht stimmt. Das Gegenteil ist unangenehm.)
Für eine Universum-Doku, sind die KI-Bilder vll noch nicht schön genug.
Sg Dirm
@MrHeisenberg:
Naja, ich sehe so schnell keine direkte Übernahmegefahr durch ein etwaiges, Skynet-ähnliches Konstrukt, sondern die Gefahr der weiter fortschreitenden Verblödung der Menschheit (infolge Digitalisierung ohnehin schon weit fortgeschritten), ohne das KI-Zeugs wird dann irgendwann mittelfristig gar nichts mehr gehen. Und dann kann schon irgendwann ein Zustand auftreten, der dem Skynet-Szenario sehr nahekommt. Also, keine direkte, sofortige Skynet-Gefahr, aber eine indirekte, mittel- bis langfristige. Wenn man mal darüber nachdenkt, kann man eigentlich nur zu diesem Schluß kommen. Und wenn von Skynet die Rede ist oder damit verglichen wird, geht es nicht wie im Kino um eine "böse" KI, die Menschen unter Gewaltanwendung versklavt, sondern um die zunehmende Abhängigkeit davon. Das ist, finde ich, vorgezeichnet. Wenn mir eine künstliche Intelligenz immer mehr Denkarbeit abnimmt, ich mich nicht mehr selber anstrengen muß, verkümmern meine Fähigkeiten zwangsläufig.
So, Old-ManSpeech beendet.
Viele Grüße
von
departure69
Naja, ich sehe so schnell keine direkte Übernahmegefahr durch ein etwaiges, Skynet-ähnliches Konstrukt, sondern die Gefahr der weiter fortschreitenden Verblödung der Menschheit (infolge Digitalisierung ohnehin schon weit fortgeschritten), ohne das KI-Zeugs wird dann irgendwann mittelfristig gar nichts mehr gehen. Und dann kann schon irgendwann ein Zustand auftreten, der dem Skynet-Szenario sehr nahekommt. Also, keine direkte, sofortige Skynet-Gefahr, aber eine indirekte, mittel- bis langfristige. Wenn man mal darüber nachdenkt, kann man eigentlich nur zu diesem Schluß kommen. Und wenn von Skynet die Rede ist oder damit verglichen wird, geht es nicht wie im Kino um eine "böse" KI, die Menschen unter Gewaltanwendung versklavt, sondern um die zunehmende Abhängigkeit davon. Das ist, finde ich, vorgezeichnet. Wenn mir eine künstliche Intelligenz immer mehr Denkarbeit abnimmt, ich mich nicht mehr selber anstrengen muß, verkümmern meine Fähigkeiten zwangsläufig.
So, Old-ManSpeech beendet.
Viele Grüße
von
departure69
Zitat von @MrHeisenberg:
muss ich jetzt nicht verstehen oder?
Zitat von @maretz:
ach - und der nächste thread über KI... na, dann kommt ja gleich unser Alu-Hut ...
ach - und der nächste thread über KI... na, dann kommt ja gleich unser Alu-Hut ...
muss ich jetzt nicht verstehen oder?
nun - suche mal nach den KI Beiträgen hier und du siehst was ich meine ;). Sind ja auch schon einige gewesen... und dann kommen gerne pseudo-wissenschaftliche beiträge und div. lustige ideen...
Ich sehe eher die Gefahr ....... die dieser Film aufzeigt 🤣
Solange es (viele!) Menschen gibt, die wissen warum die KI zu diesem oder jenem Ergebnis kommt, paßt es eh. Wenn dann die Ergebnisse nicht mehr überprüft werden können, dann kommt "Angst" und die Menschen werden zu "Klimapickern", weil es der Guru oder die Guruine gesagt hat 😂
Anders ausgedrückt: Solange die KI die Arbeit erleichtert ist es in Ordnung, wenn sie aber die Arbeit macht, dann wirds zum Problem.
Solange es (viele!) Menschen gibt, die wissen warum die KI zu diesem oder jenem Ergebnis kommt, paßt es eh. Wenn dann die Ergebnisse nicht mehr überprüft werden können, dann kommt "Angst" und die Menschen werden zu "Klimapickern", weil es der Guru oder die Guruine gesagt hat 😂
Anders ausgedrückt: Solange die KI die Arbeit erleichtert ist es in Ordnung, wenn sie aber die Arbeit macht, dann wirds zum Problem.
muss ich jetzt nicht verstehen oder?
Wenn du nur etwas die Hofberichterstattung zu diesem mittlerweile mehr als nervigem Thema verfolgt hättest würdest du verstehen warum die hiesige Communitiy dazu nichts mehr hören will!! 😡
Moin
Wenn Du schon so fragst.... Ja...
Gruß
Zitat von @MrHeisenberg:
keine Ahnung warum, bin ich etwas zu dusselig dass ich die "Gefahr" nicht sehe?
keine Ahnung warum, bin ich etwas zu dusselig dass ich die "Gefahr" nicht sehe?
Wenn Du schon so fragst.... Ja...
Gruß
Moin,
Als Mahner und Erinnerer verweise ich da auf die Dokumentation Datenpanne, die die Gefahren der Computergläubigkeit drastisch darstellt.
lks
PS: Mit Friede, Freude, Eierkuchen läßt sich keine Quote machen. Und seit Jahren hat journalistische Arbeit kaum mehr mit neutraler Berichterstattung zu tun, sondern nur noch mit Haltungsjounalismus, in der nur die Meinung des Jounalisten, oder besser, die seines Auftraggebers berichtet wird. Da kann man heutzutage nicht mehr erwarten, daß alle Aspekte beleuchtet werden.
PPS: Ich sehe momentan die blinde Computer-/Internetgläubigkeit als große Gefahr. Momentan wird ja (fast) jeder Müll geglaubt, der da aus dem Computer kommt. Sei es, weil der Computer das "berechnet" hat oder weil das 7rgendwo im Internet steht. Wenn nun durch chatgpt & Co. das Ganze noch plausibler dargestellt wird, werden viele das Hirn ganz abstellen.
edit: Typos
Als Mahner und Erinnerer verweise ich da auf die Dokumentation Datenpanne, die die Gefahren der Computergläubigkeit drastisch darstellt.
lks
PS: Mit Friede, Freude, Eierkuchen läßt sich keine Quote machen. Und seit Jahren hat journalistische Arbeit kaum mehr mit neutraler Berichterstattung zu tun, sondern nur noch mit Haltungsjounalismus, in der nur die Meinung des Jounalisten, oder besser, die seines Auftraggebers berichtet wird. Da kann man heutzutage nicht mehr erwarten, daß alle Aspekte beleuchtet werden.
PPS: Ich sehe momentan die blinde Computer-/Internetgläubigkeit als große Gefahr. Momentan wird ja (fast) jeder Müll geglaubt, der da aus dem Computer kommt. Sei es, weil der Computer das "berechnet" hat oder weil das 7rgendwo im Internet steht. Wenn nun durch chatgpt & Co. das Ganze noch plausibler dargestellt wird, werden viele das Hirn ganz abstellen.
edit: Typos
Gefahr, Gefahr und nochmals Gefahr.... jeder zweite im Beitrag scheint Angst vor KI zu haben... keine Ahnung warum, bin ich etwas zu dusselig dass ich die "Gefahr" nicht sehe?
In der Geschichte der Industrialisierung praktisch bei jeder Innovation immer Angst in der Gesellschaft. Beliebtes Beispiel: Die Einführung der Dampflok. Oder auch des Autos. Wie wird sich die Geschwindigkeit auf den Organismus auswirken, Unfallgefahren etc.
Also alles ganz normal. Die Angst ist auch ebensowenig falsch wie ihr Fehlen. Jeder geht da anders ran. Das Problem ist vielmehr, zu erkennen, welche Angst Realtität werden kann. Bei der Atombombe war das leicht. Bei der Atomkraft schwieriger. Verständnis (die fehlt dem Volk bei der KI natürlich völlig) spielt eine Rolle. Was ich nicht verstehe, ist mir nicht geheuer. Und Spürbarkeit ist ein wichtiger Faktor. Um im Atombeispiel zu bleiben: Die Endlagerung des Atommülls juckt (erstaunlich) wenige. Betrifft sie halt nicht. Mach das Endlager aber vor ihrer Tür...
Zitat von @Lochkartenstanzer:
PPS: Ich sehe momentan die blinde Computer-/Internetgläubigkeit als große Gefahr. Momentan wird ja (fast) jeder Müll geglaubt, der da aus dem Computer kommt. Sei es, weil der Computer das "berechnet" hat oder weil das 7rgendwo im Internet steht. Wenn nun durch chatgpt & Co. das Ganze noch plausibler dargestellt wird, werden viele das Hirn ganz abstellen.
PPS: Ich sehe momentan die blinde Computer-/Internetgläubigkeit als große Gefahr. Momentan wird ja (fast) jeder Müll geglaubt, der da aus dem Computer kommt. Sei es, weil der Computer das "berechnet" hat oder weil das 7rgendwo im Internet steht. Wenn nun durch chatgpt & Co. das Ganze noch plausibler dargestellt wird, werden viele das Hirn ganz abstellen.
Ganz genau.
Leider zeigt die Zeit, das die Technik die Menschen verblöden lässt.
Früher konnte die Frau beim Bäcker noch den Preis für drei Brötchen im Kopf kalkulieren - heute braucht sie dafür nen Taschenrechner.
Und das Internet besteht anscheinend nur aus Google. Kaum ein Ottonormalverbraucher hinterfragt überhaupt, ob die Suchergebnissse objektiv sind. Wenn also dieser Konzern der Meinung ist, dass bestimmte Dinge in der Suche nicht angezeigt werden, dann dürfte das dazu führen, dass sie auch nicht mehr existieren. Meinungsmache made bei Google...
Und so muss es einen doch eigentlich misstrauisch machen wenn nun Elon Musk bestimmt, was inhaltlich rauskommt, wenn mir die KI eine Abhandlung schreiben soll.
Gruß
Hallo,
KI ist per se nichts "Schlimmes". Das Problem ist, das die jeweiligen Algorithmen, nach denen die Entscheidungen erfolgen, nicht offen gelegt werden (können, da sie teilweise den Anwendern/Entwicklern nicht bekannt sind).
Das wäre an sich ja auch noch kein Problem. Zum Problem wird es, wenn KI zur Grundlage für Entscheidungen in der Offline- / realen Welt wird.
Und in vielen beispielhaft Untersuchungen kam eben heraus, dass die Entscheidungen der KI rassistisch, frauendiskrimentierend usw. waren. Daran ist nicht die KI "schuld". Die Ursache liegt im verwendeten "Lehrmaterial".
Wenn der von der Entscheidung betroffene nicht Mal weiss, dass die Entscheidungen von einer KI getroffen wurde, geschweige denn nach welchen Kriterien, wird es ein echtes Problem in der realen Welt.
Jürgen
KI ist per se nichts "Schlimmes". Das Problem ist, das die jeweiligen Algorithmen, nach denen die Entscheidungen erfolgen, nicht offen gelegt werden (können, da sie teilweise den Anwendern/Entwicklern nicht bekannt sind).
Das wäre an sich ja auch noch kein Problem. Zum Problem wird es, wenn KI zur Grundlage für Entscheidungen in der Offline- / realen Welt wird.
Und in vielen beispielhaft Untersuchungen kam eben heraus, dass die Entscheidungen der KI rassistisch, frauendiskrimentierend usw. waren. Daran ist nicht die KI "schuld". Die Ursache liegt im verwendeten "Lehrmaterial".
Wenn der von der Entscheidung betroffene nicht Mal weiss, dass die Entscheidungen von einer KI getroffen wurde, geschweige denn nach welchen Kriterien, wird es ein echtes Problem in der realen Welt.
Jürgen
Zitat von @chiefteddy:
Hallo,
KI ist per se nichts "Schlimmes". Das Problem ist, das die jeweiligen Algorithmen, nach denen die Entscheidungen erfolgen, nicht offen gelegt werden (können, da sie teilweise den Anwendern/Entwicklern nicht bekannt sind).
Hallo,
KI ist per se nichts "Schlimmes". Das Problem ist, das die jeweiligen Algorithmen, nach denen die Entscheidungen erfolgen, nicht offen gelegt werden (können, da sie teilweise den Anwendern/Entwicklern nicht bekannt sind).
Es nützt nichts die Algorithmen offenzulegen. Die Problematik bei den KI-Systemen ist ja, daß man heute Blackboxen hat, die durch antrainierte Parameter zu ihren Ergebnissen kommen. Man kann nicht mehr nachvollziehen, warum die Parameter so sind und was es genau bewirkt, wenn man an den Parametern herumschraubt. Man darf sich das nicht so wie früher vorstellen, daß man die Ergebnisse nachvollziehen kann, wenn man den Sourcecode kennt.
lks
Zitat von @MrHeisenberg:
Hi, bei diesem Part bin ich zu 100% bei dir, ich sehe die KI als Erleichterung, und ich bin der Meinung dass diese die Arbeit nie zu 100% übernehmen kann.
Hi, bei diesem Part bin ich zu 100% bei dir, ich sehe die KI als Erleichterung, und ich bin der Meinung dass diese die Arbeit nie zu 100% übernehmen kann.
Najo, die meisten Menschen sind minimalistisch veranlagt. Die Arbeit bekommt der "Lehrhaxn" und das ...... Lob der Chef 🤣 obwohl man ja sagt: Wollen Sie den Chef sprechen oder jemanden der sich auskennt? 🤣
Es wird so kommen, daß man sich immer mehr auf die Ergebnisse verläßt und irgendwann ..... pickt man sich vor lauter Angst irgendwohin und der Anteil derer wird größer. Man hinterfragt ja nichts mehr.
Auch wenn der Taschenrechner (als Beispiel jetzt) wesentlich schneller und genauer ist, kann ich meistens ungefähr abschätzen, ob der richtig liegt oder ob ich mich einfach vertippt habe. Eine Kommastelle + oder - fällt mir sicher auf, ansonsten kommt's halt darauf an. Manchmal fallen mir Fehler von +/- 50% auf, manchmal muß es mehr sein.
Wenn eine KI jetzt selbstständig sich "weiterbildet" und keiner mehr weiß warum irgendwas so ist, dann wird's heftig.
moin, moin
meiner Meinung nach haben die Aliens ein Kommunikationsmittel (=Theorie) gefunden.
Da wir Menschen auf dem besten Wege sind die Erde oder das Leben auf der Erde zu zerstören.
Hier "spricht" die KI das letzte Wort, da wir Menschen uns mit fake Informationen verwirren und nicht mehr wissen, wen wir "glauben" können. With KI more years years on earth - yes. gruß nbll
Zudem wollen die Aliens die Parasieten (Mensch) auch nicht auf ihren Planeten haben und was der Musk so treibt .... ist auch eine Gefahr für sie. Daher ... schön auf der Erde bleiben.
siehe Klimakrise, Kriege ...
Und Vorsicht vor dem Miracle... ,wenn es Menschen gibt, die hier blind vertrauen (gelernte Gewohnheit)...
meiner Meinung nach haben die Aliens ein Kommunikationsmittel (=Theorie) gefunden.
Da wir Menschen auf dem besten Wege sind die Erde oder das Leben auf der Erde zu zerstören.
Hier "spricht" die KI das letzte Wort, da wir Menschen uns mit fake Informationen verwirren und nicht mehr wissen, wen wir "glauben" können. With KI more years years on earth - yes. gruß nbll
Zudem wollen die Aliens die Parasieten (Mensch) auch nicht auf ihren Planeten haben und was der Musk so treibt .... ist auch eine Gefahr für sie. Daher ... schön auf der Erde bleiben.
siehe Klimakrise, Kriege ...
Und Vorsicht vor dem Miracle... ,wenn es Menschen gibt, die hier blind vertrauen (gelernte Gewohnheit)...
Zitat von @MrHeisenberg:
Wäre für mich nur Interessant was jetzt aus deiner Sicht genau die Gefahr der KI ist wenn ich die schon nicht sehe ;)
Wäre für mich nur Interessant was jetzt aus deiner Sicht genau die Gefahr der KI ist wenn ich die schon nicht sehe ;)
s.o. (wer lesen kann, ist klar im Vorteil...)
gerade schreibt heise ebenfalls einen Beitrag...
www.heise.de/news/KI-Forschungsbericht-China-meilenweit-voraus-8964912.html
... "Der Missbrauch von KI steigt rapide an" ... was auch immer damit gemeint ist.
www.heise.de/news/KI-Forschungsbericht-China-meilenweit-voraus-8964912.html
... "Der Missbrauch von KI steigt rapide an" ... was auch immer damit gemeint ist.
Zitat von @MrHeisenberg:
nun lesen kann ich, blöd bin ich nicht, aber da du scheinbar gerne unter die Gürtellinie gehst denke ich dass jeglicher weiterer Kommentar zwecklos ist.
nun lesen kann ich, blöd bin ich nicht, aber da du scheinbar gerne unter die Gürtellinie gehst denke ich dass jeglicher weiterer Kommentar zwecklos ist.
ich bin verwirrt... "Unter die Gürtellinie gehen" ????
Aber extra für Dich zitiere ich noch einmal meinen Beitrag:
Zitat von @Hubert.N:
Leider zeigt die Zeit, das die Technik die Menschen verblöden lässt.
Früher konnte die Frau beim Bäcker noch den Preis für drei Brötchen im Kopf kalkulieren - heute braucht sie dafür nen Taschenrechner.
Und das Internet besteht anscheinend nur aus Google. Kaum ein Ottonormalverbraucher hinterfragt überhaupt, ob die Suchergebnissse objektiv sind. Wenn also dieser Konzern der Meinung ist, dass bestimmte Dinge in der Suche nicht angezeigt werden, dann dürfte das dazu führen, dass sie auch nicht mehr existieren. Meinungsmache made bei Google...
Und so muss es einen doch eigentlich misstrauisch machen wenn nun Elon Musk bestimmt, was inhaltlich rauskommt, wenn mir die KI eine Abhandlung schreiben soll.
Leider zeigt die Zeit, das die Technik die Menschen verblöden lässt.
Früher konnte die Frau beim Bäcker noch den Preis für drei Brötchen im Kopf kalkulieren - heute braucht sie dafür nen Taschenrechner.
Und das Internet besteht anscheinend nur aus Google. Kaum ein Ottonormalverbraucher hinterfragt überhaupt, ob die Suchergebnissse objektiv sind. Wenn also dieser Konzern der Meinung ist, dass bestimmte Dinge in der Suche nicht angezeigt werden, dann dürfte das dazu führen, dass sie auch nicht mehr existieren. Meinungsmache made bei Google...
Und so muss es einen doch eigentlich misstrauisch machen wenn nun Elon Musk bestimmt, was inhaltlich rauskommt, wenn mir die KI eine Abhandlung schreiben soll.
Zitat von @Franz-Josef-II:
Ich sehe eher die Gefahr ....... die dieser Film aufzeigt 🤣
Solange es (viele!) Menschen gibt, die wissen warum die KI zu diesem oder jenem Ergebnis kommt, paßt es eh. Wenn dann die Ergebnisse nicht mehr überprüft werden können, dann kommt "Angst" und die Menschen werden zu "Klimapickern", weil es der Guru oder die Guruine gesagt hat 😂
Anders ausgedrückt: Solange die KI die Arbeit erleichtert ist es in Ordnung, wenn sie aber die Arbeit macht, dann wirds zum Problem.
Ich sehe eher die Gefahr ....... die dieser Film aufzeigt 🤣
Solange es (viele!) Menschen gibt, die wissen warum die KI zu diesem oder jenem Ergebnis kommt, paßt es eh. Wenn dann die Ergebnisse nicht mehr überprüft werden können, dann kommt "Angst" und die Menschen werden zu "Klimapickern", weil es der Guru oder die Guruine gesagt hat 😂
Anders ausgedrückt: Solange die KI die Arbeit erleichtert ist es in Ordnung, wenn sie aber die Arbeit macht, dann wirds zum Problem.
den Film haben wir vor zehn oder zwanzig Jahren hinter uns gelassen... Leider
Ich finde die KI sehr hilfreich beim Lernen, weil du zwar vorgefertigte Programme bekommen könntest, es hilft mir aber beim Java auffrischen, wenn ich ein Code-Beispiel brauche.
Man muss nur wissen, wie man die KI einsetzt um einen Lerneffekt zu haben
Aus Jux hab ich mir auch schon einmal ein komplette Lösung geben lassen ;D
Man muss nur wissen, wie man die KI einsetzt um einen Lerneffekt zu haben
Aus Jux hab ich mir auch schon einmal ein komplette Lösung geben lassen ;D
Moin,
Hier noch ein Artikel über die echten gefahren bei AI
https://www.danisch.de/blog/2023/04/25/der-siegeszug-der-ideologen-ueber ...
zitat
lks
Hier noch ein Artikel über die echten gefahren bei AI
https://www.danisch.de/blog/2023/04/25/der-siegeszug-der-ideologen-ueber ...
zitat
Das Problem dabei:
Bisher mussten Leute, die Software schreiben, immer mindestens ein bisschen Ahnung vom Thema und vom Programmieren haben, also über ein Mindestmaß an logischem, systematischem Denken verfügen.
Das ist nun anders, weil durch die Lernfähigkeit der KI die Erstellung der Software und das Trainieren auseinanderfallen. Man muss beim Programmieren der Software nicht mehr erkennen oder wissen, wozu sie missbraucht wird. Und man muss beim Trainieren nicht mehr wissen, wie sie funktioniert. Man gibt beispielsweise Bilder und Stichworte ein und kann damit das System auf Muster trainieren, auch wenn man völliger Laie ist. Man kann beispielsweise Bilder von Menschen verschiedener Hautfarben eingeben und einfach „gut“ und „schlecht“ dranschreiben, ohne irgendetwas von der Technik verstanden zu haben.
Damit werden die Systeme hochgradig manipulierbar durch die Auswahl und Gestaltung der Trainingsdaten.
Bisher mussten Leute, die Software schreiben, immer mindestens ein bisschen Ahnung vom Thema und vom Programmieren haben, also über ein Mindestmaß an logischem, systematischem Denken verfügen.
Das ist nun anders, weil durch die Lernfähigkeit der KI die Erstellung der Software und das Trainieren auseinanderfallen. Man muss beim Programmieren der Software nicht mehr erkennen oder wissen, wozu sie missbraucht wird. Und man muss beim Trainieren nicht mehr wissen, wie sie funktioniert. Man gibt beispielsweise Bilder und Stichworte ein und kann damit das System auf Muster trainieren, auch wenn man völliger Laie ist. Man kann beispielsweise Bilder von Menschen verschiedener Hautfarben eingeben und einfach „gut“ und „schlecht“ dranschreiben, ohne irgendetwas von der Technik verstanden zu haben.
Damit werden die Systeme hochgradig manipulierbar durch die Auswahl und Gestaltung der Trainingsdaten.
lks
Und dass dies eine reale Gefahr darstellt, zeigt das Bsp. von Amazon: Dort wollte man die KI zur "Vorsortierung" von Bewerbungen einsetzen. Als Trainingsmaterial setzte man die Bewerbungsunterlagen der vergangenen Jahre ein. Da sich dort überwiegend Männer beworben hatten und natürlich überwiegend Männer eingestellt wurden, war das "Lernergebnis" entsprechenden. Der Personalabteilung viel das zum Glück auf und das Projekt wurde beerdigt.
Hier war nicht mal Vorsatz im Spiel. Und das Unternehmen zog die richtige Konsequenz.
Aber ohne Transparenz kann der Einzelne oder die Gemeinschaft so etwas ja nicht erkennen und reagieren.
Jürgen
Hier war nicht mal Vorsatz im Spiel. Und das Unternehmen zog die richtige Konsequenz.
Aber ohne Transparenz kann der Einzelne oder die Gemeinschaft so etwas ja nicht erkennen und reagieren.
Jürgen
Guten Morgäähhn
Das tut jetzt eh weh:
und somit kann er das Ergebnis nicht mehr einschätzen und muß es zwangsläufig glauben.
Das kann die KI eh selber 🤣 Man braucht nur die "richtigen" Grundlagen. Statistisch belegte Ergebnisse ohne Hinterfragung der Ursachen. Vor dieser Automatik habe ich die Angst ..... vielleicht nicht aber ein sehr ungutes Gefühl.
Verknüpfe einmal Wohnort / Viertel, Beruf, Familienstand, Kinder, Einkommen, Wohnsituation, Kfz-Bestand, Kriminalitätsrate, Einbrüche, Morde, Körperverletzung, Wahlbeteiligung + Ergebnis dort, únd noch ein paar Dinge ...... und man kann gewisse Sachen mit zumindest einer 80%igen Wahrscheinlichkeit ..... eher mehr vorhersagen
Aber auch die "natürliche Unintelligenz" ist zeitweise nicht ohne 😊 Eine Bank wollte den Arbeitslosen den Überziehungsrahmen automatisch streichen. Also alle die das Geld vom Arbeitsamt bekommen = Überziehungsrahmen 0€. Aufgefallen und öffentlich wurde es dann, als der erste Mitarbeiter sein Konto um ein paar €uros überziehen wollte ..... die auszahlende Stelle ist diesselbe 🤣
Das tut jetzt eh weh:
Zitat von @ Lochkartenstanzer
Leute, die Software schreiben, immer mindestens ein bisschen Ahnung vom Thema und vom Programmieren ....
Leute, die Software schreiben, immer mindestens ein bisschen Ahnung vom Thema und vom Programmieren ....
und somit kann er das Ergebnis nicht mehr einschätzen und muß es zwangsläufig glauben.
Zitat von @ Lochkartenstanzer
Bilder von Menschen verschiedener Hautfarben eingeben und einfach „gut“ und „schlecht“ dranschreiben, .....
Bilder von Menschen verschiedener Hautfarben eingeben und einfach „gut“ und „schlecht“ dranschreiben, .....
Das kann die KI eh selber 🤣 Man braucht nur die "richtigen" Grundlagen. Statistisch belegte Ergebnisse ohne Hinterfragung der Ursachen. Vor dieser Automatik habe ich die Angst ..... vielleicht nicht aber ein sehr ungutes Gefühl.
Verknüpfe einmal Wohnort / Viertel, Beruf, Familienstand, Kinder, Einkommen, Wohnsituation, Kfz-Bestand, Kriminalitätsrate, Einbrüche, Morde, Körperverletzung, Wahlbeteiligung + Ergebnis dort, únd noch ein paar Dinge ...... und man kann gewisse Sachen mit zumindest einer 80%igen Wahrscheinlichkeit ..... eher mehr vorhersagen
Aber auch die "natürliche Unintelligenz" ist zeitweise nicht ohne 😊 Eine Bank wollte den Arbeitslosen den Überziehungsrahmen automatisch streichen. Also alle die das Geld vom Arbeitsamt bekommen = Überziehungsrahmen 0€. Aufgefallen und öffentlich wurde es dann, als der erste Mitarbeiter sein Konto um ein paar €uros überziehen wollte ..... die auszahlende Stelle ist diesselbe 🤣
Hallo, ein wenig mehr an Informationen bietet Ranga Yogeshwar. Er hat sich schon frühzeitig mit dem Thema auseinander gesetzt. Die herausstechende Info für mich war damals, das man die Problemlösung also den Lösungsweg nicht nachvollziehen kann.
yogeshwar.de/?p=2177
- (...) Wir werden Zeugen eines Konditionierungseffektes, der, in vielen Bereichen unseres Lebens, Wissen und Verständnis durch ein blindes Vertrauen in die Maschine oder in einen Algorithmus ersetzt. (...)
- (...) »digitaler Alchemie«. Wir vertrauen also Apparaten, die wir in der Tiefe nicht mehr verstehen. (...)
- (...) um in erstaunlichem Tempo Kreditentscheidungen zu fällen (...) (siehe Kredit-Scoring-Technologie)
- (...) Wenn die Kaufquote steigt ist das in Ordnung, und zwar auch dann, wenn man die darunterliegenden Mechanismen nicht erklären kann und auch dann, wenn als Kollateralschaden sogar fehlerhafte Empfehlungen damit einhergehen. Hauptsache die Bilanz stimmt. (...)
- (...) Dürfen wir das fundamentale Prinzip der Kausalität – immerhin die Basis unserer aufgeklärten Gesellschaft – zu Gunsten eines scheinbar potenteren Korrelationsdenkens opfern? (...)
- (...) Doch es gab einen Unterschied: Dieser Apparat war schneller und präziser als sein biologisches Vorbild. (...)
und weiteres...
Z.B. hat das autom. Lenkungssystem Tesla LKWs, die eine Fahrbahn quer blockierten einen Teslafahrer nicht ausgebremst - also, das Fahrzeug hat nicht autom. die Gefahr erkannt und gebremst. Es lag daran, dass die KI soetwas als Brücke erkannt hat. Dieses Marketing (gefühlte Sicherheit des Systems) hat dazu geführt, dass Fahrer sich 100% auf so ein System verlassen haben und während der Fahrt komplett vom Fahren abgewand haben durch Spiele am Handy.
yogeshwar.de/?p=2177
- (...) Wir werden Zeugen eines Konditionierungseffektes, der, in vielen Bereichen unseres Lebens, Wissen und Verständnis durch ein blindes Vertrauen in die Maschine oder in einen Algorithmus ersetzt. (...)
- (...) »digitaler Alchemie«. Wir vertrauen also Apparaten, die wir in der Tiefe nicht mehr verstehen. (...)
- (...) um in erstaunlichem Tempo Kreditentscheidungen zu fällen (...) (siehe Kredit-Scoring-Technologie)
- (...) Wenn die Kaufquote steigt ist das in Ordnung, und zwar auch dann, wenn man die darunterliegenden Mechanismen nicht erklären kann und auch dann, wenn als Kollateralschaden sogar fehlerhafte Empfehlungen damit einhergehen. Hauptsache die Bilanz stimmt. (...)
- (...) Dürfen wir das fundamentale Prinzip der Kausalität – immerhin die Basis unserer aufgeklärten Gesellschaft – zu Gunsten eines scheinbar potenteren Korrelationsdenkens opfern? (...)
- (...) Doch es gab einen Unterschied: Dieser Apparat war schneller und präziser als sein biologisches Vorbild. (...)
und weiteres...
Z.B. hat das autom. Lenkungssystem Tesla LKWs, die eine Fahrbahn quer blockierten einen Teslafahrer nicht ausgebremst - also, das Fahrzeug hat nicht autom. die Gefahr erkannt und gebremst. Es lag daran, dass die KI soetwas als Brücke erkannt hat. Dieses Marketing (gefühlte Sicherheit des Systems) hat dazu geführt, dass Fahrer sich 100% auf so ein System verlassen haben und während der Fahrt komplett vom Fahren abgewand haben durch Spiele am Handy.
Zitat von @chiefteddy:
Und dass dies eine reale Gefahr darstellt, zeigt das Bsp. von Amazon: Dort wollte man die KI zur "Vorsortierung" von Bewerbungen einsetzen. Als Trainingsmaterial setzte man die Bewerbungsunterlagen der vergangenen Jahre ein. Da sich dort überwiegend Männer beworben hatten und natürlich überwiegend Männer eingestellt wurden, war das "Lernergebnis" entsprechenden. Der Personalabteilung viel das zum Glück auf und das Projekt wurde beerdigt.
Hier war nicht mal Vorsatz im Spiel. Und das Unternehmen zog die richtige Konsequenz.
Aber ohne Transparenz kann der Einzelne oder die Gemeinschaft so etwas ja nicht erkennen und reagieren.
Jürgen
Und dass dies eine reale Gefahr darstellt, zeigt das Bsp. von Amazon: Dort wollte man die KI zur "Vorsortierung" von Bewerbungen einsetzen. Als Trainingsmaterial setzte man die Bewerbungsunterlagen der vergangenen Jahre ein. Da sich dort überwiegend Männer beworben hatten und natürlich überwiegend Männer eingestellt wurden, war das "Lernergebnis" entsprechenden. Der Personalabteilung viel das zum Glück auf und das Projekt wurde beerdigt.
Hier war nicht mal Vorsatz im Spiel. Und das Unternehmen zog die richtige Konsequenz.
Aber ohne Transparenz kann der Einzelne oder die Gemeinschaft so etwas ja nicht erkennen und reagieren.
Jürgen
Nun - und wo ist der Unterschied? Grad bei grossen Konzernen geht die Bewerbung ja erstmal an die Perso - die hat dann in der Jobbeschreibung 3-x Schlagworte stehen (weil die eben von der Fachabteilung idR nicht die Details kennen was genau gebraucht wird) und wenn die eben nich drin stehen fliegt man in der Vorsortierung bereits raus. Der einzige Unterschied: Hier packt eine menschliche Hand den Zettel in den Ablehnungsumschlag, nicht ne Automatik...
Das ist doch leider nunmal nix ungewöhnliches. Und grad in DE dank der 100 Vorschriften ist es doch sogar nicht anders zu erwarten. Du schreibst in die Anzeige nicht "m/w/d" rein? Uiii - Diskreminierung. Du vergisst die weibliche Form im Text - und schon geht der Ärger los. Und wehe du schreibst bei der Ablehnung das zB. leider das "Fuck the World"-Tattoo auf der Stirn ein Problem für die Stelle als Pfleger im Seniorenheim ist.. Da kann ich persönlich sogar verstehen wenn ne Firma das ner KI überlässt die da eben erstmal Vorsortiert und die "passenden" Ablehnungen raushaut. Ob das wirklich GUT ist - das ist ne andere Frage.
Du hast das Problem nicht verstanden: Wenn 30% der eingehenden Bewerbungen von zB. Frauen stammen und in den zum Gespräch eingeladenen Personenkreis nur 10% Frauen sind, ist das nicht mit nicht passender Qualifikation oä. erklärbar. Da liegt ein systemisches Problem vor.
Im konkreten Fall lag es am verwendeten Referenzmaterial. In der Vergangenheit hatten sich überwiegend Männer beworben und im Ergebnis wurden Männer eingestellt. Die KI lernte daraus: Männer sind besser geeignet.
Ohne Transparenz ist dieses systemische Problem durch die Betroffenen nicht erkennbar.
Da liegt der Hase im Pfeffer. Nicht beim richtigen Gendern.
Jürgen
Im konkreten Fall lag es am verwendeten Referenzmaterial. In der Vergangenheit hatten sich überwiegend Männer beworben und im Ergebnis wurden Männer eingestellt. Die KI lernte daraus: Männer sind besser geeignet.
Ohne Transparenz ist dieses systemische Problem durch die Betroffenen nicht erkennbar.
Da liegt der Hase im Pfeffer. Nicht beim richtigen Gendern.
Jürgen
Zitat von @chiefteddy:
Du hast das Problem nicht verstanden: Wenn 30% der eingehenden Bewerbungen von zB. Frauen stammen und in den zum Gespräch eingeladenen Personenkreis nur 10% Frauen sind, ist das nicht mit nicht passender Qualifikation oä. erklärbar. Da liegt ein systemisches Problem vor.
Du hast das Problem nicht verstanden: Wenn 30% der eingehenden Bewerbungen von zB. Frauen stammen und in den zum Gespräch eingeladenen Personenkreis nur 10% Frauen sind, ist das nicht mit nicht passender Qualifikation oä. erklärbar. Da liegt ein systemisches Problem vor.
Doch heutzutage dürfte das das am ehesten erklären. Durch die "Frauenförderung" sind so viele unfähige Frauen aauf dem Markt, daß inzwischen darunter auch die Frauen leiden, die was können. da wird eher mehr als früher ausgesiebt, damit man sich nicht eine streibare Xanthippe statt einer Fachfrau einfängt.1
Im konkreten Fall lag es am verwendeten Referenzmaterial. In der Vergangenheit hatten sich überwiegend Männer beworben und im Ergebnis wurden Männer eingestellt. Die KI lernte daraus: Männer sind besser geeignet.
s.o.
Ohne Transparenz ist dieses systemische Problem durch die Betroffenen nicht erkennbar.
Da liegt der Hase im Pfeffer. Nicht beim richtigen Gendern.
Da liegt der Hase im Pfeffer. Nicht beim richtigen Gendern.
Doch das Gendern macht die Probleme. Man kann bei den Damen inzwischen nicht mehr ohne weiteres erkennen, ob die per Quote zum zug kommen oder durch Ihr können.
lks
Zitat von @chiefteddy:
Du hast das Problem nicht verstanden: Wenn 30% der eingehenden Bewerbungen von zB. Frauen stammen und in den zum Gespräch eingeladenen Personenkreis nur 10% Frauen sind, ist das nicht mit nicht passender Qualifikation oä. erklärbar. Da liegt ein systemisches Problem vor.
Im konkreten Fall lag es am verwendeten Referenzmaterial. In der Vergangenheit hatten sich überwiegend Männer beworben und im Ergebnis wurden Männer eingestellt. Die KI lernte daraus: Männer sind besser geeignet.
Ohne Transparenz ist dieses systemische Problem durch die Betroffenen nicht erkennbar.
Da liegt der Hase im Pfeffer. Nicht beim richtigen Gendern.
Jürgen
Du hast das Problem nicht verstanden: Wenn 30% der eingehenden Bewerbungen von zB. Frauen stammen und in den zum Gespräch eingeladenen Personenkreis nur 10% Frauen sind, ist das nicht mit nicht passender Qualifikation oä. erklärbar. Da liegt ein systemisches Problem vor.
Im konkreten Fall lag es am verwendeten Referenzmaterial. In der Vergangenheit hatten sich überwiegend Männer beworben und im Ergebnis wurden Männer eingestellt. Die KI lernte daraus: Männer sind besser geeignet.
Ohne Transparenz ist dieses systemische Problem durch die Betroffenen nicht erkennbar.
Da liegt der Hase im Pfeffer. Nicht beim richtigen Gendern.
Jürgen
Doch, das habe ich schon verstanden. Und jetzt guck mal so in die Vorstände usw. von den grösseren Konzernen rein. Warte kurz, scheint auch ohne KI ganz gut mit der Gleichberechtigung hinzuhauen.... ups... Genauso wie beim Gehalt.
Hier ist es also einfach egal ob es ne KI ist die einfach versagt - oder die vorhandenen Personaler... So traurig es ist... Wobei ich einer KI da noch die Chance gebe zu lernen ;).
Nicht falsch verstehen: Ich halte es auch für extrem fragwürdig einen Computer über sowas entscheiden zu lassen. Leider ist die _aktuelle_ realität nicht viel besser wenns nen Mensch macht.
Dass das Ergebnis gleich ist, ist doch nicht das Problem. Bei den menschlichen Entscheidungsträgern ist ihr Verhalten erklärbar, nachvollziehbar. Die Entscheidungsfindung der KI ist das nicht (siehe die Ausführungen von @Nebellicht).
Die Aussage einer KI ist werder richtig noch falsch, sie ist nicht interpretierbar. Sie darf also nicht ohne weiteres als Grundlage für Entscheidungen genutzt werden. Aber das wird gemacht. Und darin besteht das Problem / die Gefahr.
Jürgen
Die Aussage einer KI ist werder richtig noch falsch, sie ist nicht interpretierbar. Sie darf also nicht ohne weiteres als Grundlage für Entscheidungen genutzt werden. Aber das wird gemacht. Und darin besteht das Problem / die Gefahr.
Jürgen
Wo ist denn bitte bei menschlichen Entscheidungen das ganze "erklärbar" und "nachvollziehbar"? Wenn es das wäre würde die Person mit der besten Quali ja nen Job bekommen. Nur: Auch beim Menschen wird als erstes ja das Foto angesehen - und da entscheidet die erste Person schon oft genug "nach Nase". Dann wird nen Anschreiben gelesen - und auch da ist ja die Wortwahl schon oft entscheident und hat mehr mit politischem Minenfeld als mit einem simplen Anschreiben zu tun... "Erklärbar und Nachvollziehbar" würde ich ggf. noch in nem Mittelstand sehen, alles darüber da entscheiden eben auch nur "irgendwelche" darüber...
Andersrum sagst du aber selbst: Die KI wurde mit fast ausschließlich männlichen Bewerbungen gefüttert - somit ist doch die Entscheidungsfindung sogar erklärbar. Am Ende ist es nämlich einfach nur Statistik was da ausgewertet wird. Und wenn die Daten eben so liegen das von 1000 Bewerbungen 950 männlich waren und (sofern man die auch noch ran zieht) die jährlichen Beurteilungen von diesen 950 auch noch zu 90 % gut waren reden wir also von rund 850 (+/-) positiven fällen. Jetzt hast du also 50 "andere - als w/d". Und davon waren eben auch 90% gut - heisst du hast 45 "gute". Somit ist es doch sogar recht einfach erklärbar warum eine KI sich "denkt" das die Chance bei 850 zu 45 für einen männlichen Bewerber stehen...
Was würde denn jetzt ein Mensch machen? Warte kurz, der zieht also im besten Fall seine Erfahrung ran. Und das ist ja nicht zwingend aufs Berufsleben beschränkt. Wie siehts denn zB. aus wenn der Entscheider aus einem "Problemvirtel" kommt und jeden Abend sich da eine Nationalität X draussen aufm Spielplatz permanent prügelt. Glaubst du wenn die Person am nächsten Tag ne Bewerbung von Nationalität X bekommt das es hier noch neutral gesehen wird? Hier kann man es zwar irgendwie Erklären, es ist aber eben keine neutrale Entscheidung. Und am Ende wird man sehen das auch ein Mensch eben Entscheidungen nur aufgrund der Daten trifft mit denen er/sie gefüttert wurde. Hier nennt man es zwar "Durch Eltern vorleben" usw. - am Ende aber ja nix anderes. Und an dem Punkt macht es eben keinen Unterschied ob KI oder Mensch: Wähle ich die "Eingangsdaten" eben falsch ist das Ergebnis nicht unbedingt gut.
Das nächste ist das eine Entshciedung auch beim Menschen generell eben weder "Richtig" noch "Falsch" ist - sondern eben auch da nur von deiner persönlichen Sichtweise abhängt. Hier wäre es als einfaches Beispiel mal mit der AfD zu sehen. Aus MEINER Sicht ist jeder der sich auch nur ansatzweise in deren Richtung entscheidet ganz klar dem Lager "falsch" zuzuordnen - und zwar egal ob ich die Entscheidung selbst sogar nachvollziehen kann. Ich vermute aber mal ganz stark (hier muss ich vermuten da ich mich in deren Umkreis eher nicht bewege) das jemand der sich DAFÜR entschieden hat dieses als "Richtig" ansieht. Somit sind also auch Entscheidungen die ein Mensch trifft eben nicht richtig oder falsch - sondern von dem Abhängig wie man es selbst sieht. Und DAS kannst du auch bei einer KI tun - und wirklich Nachvollziehen oder sogar erkläen kannst du es in beiden Fällen nur wenn du eben die genauen Hintergründe / Eingangsdaten kennst.
Andersrum sagst du aber selbst: Die KI wurde mit fast ausschließlich männlichen Bewerbungen gefüttert - somit ist doch die Entscheidungsfindung sogar erklärbar. Am Ende ist es nämlich einfach nur Statistik was da ausgewertet wird. Und wenn die Daten eben so liegen das von 1000 Bewerbungen 950 männlich waren und (sofern man die auch noch ran zieht) die jährlichen Beurteilungen von diesen 950 auch noch zu 90 % gut waren reden wir also von rund 850 (+/-) positiven fällen. Jetzt hast du also 50 "andere - als w/d". Und davon waren eben auch 90% gut - heisst du hast 45 "gute". Somit ist es doch sogar recht einfach erklärbar warum eine KI sich "denkt" das die Chance bei 850 zu 45 für einen männlichen Bewerber stehen...
Was würde denn jetzt ein Mensch machen? Warte kurz, der zieht also im besten Fall seine Erfahrung ran. Und das ist ja nicht zwingend aufs Berufsleben beschränkt. Wie siehts denn zB. aus wenn der Entscheider aus einem "Problemvirtel" kommt und jeden Abend sich da eine Nationalität X draussen aufm Spielplatz permanent prügelt. Glaubst du wenn die Person am nächsten Tag ne Bewerbung von Nationalität X bekommt das es hier noch neutral gesehen wird? Hier kann man es zwar irgendwie Erklären, es ist aber eben keine neutrale Entscheidung. Und am Ende wird man sehen das auch ein Mensch eben Entscheidungen nur aufgrund der Daten trifft mit denen er/sie gefüttert wurde. Hier nennt man es zwar "Durch Eltern vorleben" usw. - am Ende aber ja nix anderes. Und an dem Punkt macht es eben keinen Unterschied ob KI oder Mensch: Wähle ich die "Eingangsdaten" eben falsch ist das Ergebnis nicht unbedingt gut.
Das nächste ist das eine Entshciedung auch beim Menschen generell eben weder "Richtig" noch "Falsch" ist - sondern eben auch da nur von deiner persönlichen Sichtweise abhängt. Hier wäre es als einfaches Beispiel mal mit der AfD zu sehen. Aus MEINER Sicht ist jeder der sich auch nur ansatzweise in deren Richtung entscheidet ganz klar dem Lager "falsch" zuzuordnen - und zwar egal ob ich die Entscheidung selbst sogar nachvollziehen kann. Ich vermute aber mal ganz stark (hier muss ich vermuten da ich mich in deren Umkreis eher nicht bewege) das jemand der sich DAFÜR entschieden hat dieses als "Richtig" ansieht. Somit sind also auch Entscheidungen die ein Mensch trifft eben nicht richtig oder falsch - sondern von dem Abhängig wie man es selbst sieht. Und DAS kannst du auch bei einer KI tun - und wirklich Nachvollziehen oder sogar erkläen kannst du es in beiden Fällen nur wenn du eben die genauen Hintergründe / Eingangsdaten kennst.
(Fast) alles Richtig, was du schreibst. Aber genau hier liegt das Problem. Die menschliche Entscheidung ist erklärbar, weil jeder Mensch evolutionsbedingt ähnlich "tickt" und das auch weiß.
Die KI ist, wie bereits geschrieben, eine "black Box", deren Entscheidungsalgorithmen selbst für die Entwickler unbekannt und nicht nachvollziehbar sind.
Da ich als Betroffener ja (derzeitige) nicht weiß, wie die Entscheidung zustande gekommen ist (KI oder nicht), ist das für mich nicht transparent. Ich kann gegebenenfalls nicht dagegen vorgehen.
Wie soll ich eine Entscheidung der KI zB. als rassistisch einstufen, wenn nicht Mal die Entwickler wissen, wie die Entscheidung zustande gekommen ist?
Beschäftigte dich Mal mit dem Problem der Unfallvermeidung bei autonom fahrenden Autos: Auto mit 2 Insassen fährt auf Straße, 2 Rentner gehen über die Straße, Bremsweg ist zu kurz, nur noch Ausweichen möglich. Rechts Frau mit Kinderwagen. Links steiler Abhang.
1. weiter fahren - 2 Rentner tot
2. ausweichen nach rechts - Frau mit Kind tot
3. ausweichen nach links - Autoinsassen tot
Laut Grundgesetz ist jedes Leben gleich viel "wert".
Lösung?
Jürgen
Die KI ist, wie bereits geschrieben, eine "black Box", deren Entscheidungsalgorithmen selbst für die Entwickler unbekannt und nicht nachvollziehbar sind.
Da ich als Betroffener ja (derzeitige) nicht weiß, wie die Entscheidung zustande gekommen ist (KI oder nicht), ist das für mich nicht transparent. Ich kann gegebenenfalls nicht dagegen vorgehen.
Wie soll ich eine Entscheidung der KI zB. als rassistisch einstufen, wenn nicht Mal die Entwickler wissen, wie die Entscheidung zustande gekommen ist?
Beschäftigte dich Mal mit dem Problem der Unfallvermeidung bei autonom fahrenden Autos: Auto mit 2 Insassen fährt auf Straße, 2 Rentner gehen über die Straße, Bremsweg ist zu kurz, nur noch Ausweichen möglich. Rechts Frau mit Kinderwagen. Links steiler Abhang.
1. weiter fahren - 2 Rentner tot
2. ausweichen nach rechts - Frau mit Kind tot
3. ausweichen nach links - Autoinsassen tot
Laut Grundgesetz ist jedes Leben gleich viel "wert".
Lösung?
Jürgen
Nun - das sind die üblichen philosophischen Fragen... Und da wirst du weder beim Menschen noch bei einer KI ein gültiges Ergebnis finden. Wo ist denn der Unterschied wer die Entscheidung treffen würde? Jetzt frage ich mal andersrum - wenn du schon in diese Richtung gehst. Du fährst weiter - und den Renter um (weil "der sein Leben schon hatte" und du im Auto auch noch mit deiner Familie sitzt (und da ist es glaube ich wirklich einfach zu erklären das du die zuerst schützen würdest). Also hast du Frau und Kind gerettet. Leider wird das Kind 20 Jahre später der nächste A. H. (Führer von DE und verantwortlicher des 2WK ) und tötet mehrere Millionen Menschen... Du könntest auch dich geopfert haben - leider warst du (oder einer der Autoinsassen) derjenige der eben den nächsten A.H. gestoppt hätte...
Wenn du also in diese Richtung gehst -> dann wirst du NIE eine Gültige Antwort finden. Und grade hier ist es doch das gute: Eine KI kann eben nicht "rassistisch" sein weil die erstmal nix davon weiss. Auch hier wäre am Ende auch der Mensch der die mit den Daten füttert erstmal dafür verantwortlich. Füttere ich die im Lernprozess mit 100 Ausgaben von "Mein Kampf" dann wird die natürlich entsprechend ticken... Genauso wie es bei den Menschen auch ist -> fütterst du ein Kind jeden Tag mit der Information das nur die eigene "Rasse" wertvoll ist wird es später genauso die Entscheidungen treffen... Nur das der Lernprozess bei ner KI eben um ein vielfaches schneller ist. Aber man sollte hier eben nicht pauschal sagen man weiss nicht wie die Sachen zustande kommen -> doch, weiss man. Nämlich über die Zusammenstellung der Lernmaterialien. Und das macht - stand jetzt - ja immer noch nen Mensch...
(Edit... lustig das Administrator hier die Namen aus der Geschichte Deutschlands mit ### überschreibt... generell für mich OK, musste ich nur hier anpassen damit der Text den Sinn ergibt...)
Wenn du also in diese Richtung gehst -> dann wirst du NIE eine Gültige Antwort finden. Und grade hier ist es doch das gute: Eine KI kann eben nicht "rassistisch" sein weil die erstmal nix davon weiss. Auch hier wäre am Ende auch der Mensch der die mit den Daten füttert erstmal dafür verantwortlich. Füttere ich die im Lernprozess mit 100 Ausgaben von "Mein Kampf" dann wird die natürlich entsprechend ticken... Genauso wie es bei den Menschen auch ist -> fütterst du ein Kind jeden Tag mit der Information das nur die eigene "Rasse" wertvoll ist wird es später genauso die Entscheidungen treffen... Nur das der Lernprozess bei ner KI eben um ein vielfaches schneller ist. Aber man sollte hier eben nicht pauschal sagen man weiss nicht wie die Sachen zustande kommen -> doch, weiss man. Nämlich über die Zusammenstellung der Lernmaterialien. Und das macht - stand jetzt - ja immer noch nen Mensch...
(Edit... lustig das Administrator hier die Namen aus der Geschichte Deutschlands mit ### überschreibt... generell für mich OK, musste ich nur hier anpassen damit der Text den Sinn ergibt...)
Jetzt wirds philosophisch.
Was wäre wenn das Kind in 40 Jahren das "beamen" erfinden würde? Nicht Theoretisch sondern in der Praxis? Die Wahrscheinlichkeit ist ..... gleich hoch. 🤣
Ich kenne doch einige "Quotenpersonen", die eigentlich keine Berechtigung haben den Job zu machen ..... eher auf dem Arbeitsplatz zu sitzen, weil machen könnens den eh nicht 😂 ...... aber das ist eine andere Geschichte.
Ob die KI jetzt sexistisch oder rassistisch oder irgendwas-istisch ist, wäre doch leicht nachzuweisen ..... oder? Frage sie einmal "normal" und dann stelle dieselbe Frage, nur OHNE der Angabe des Geschlechts, Alters, Körpergewicht, Augenfarbe ..... oder was auch immer man ausschließen will.
Aber für diese "Entscheidung" (wen opfere ich) gibt's ein praktisches Beispiel:
Du bist ein Air-Force Pilot und fliegst, Du wars der Schnellste und bist ganz vorne. Der Tower sagt dir, daß die zivile Maschine vor dir genau auf ...... zwei so Türme zufliegt und du hast ganz genau noch 2 Minuten Zeit einen Knopf (nicht) zu drücken.
Wie entscheidest du?
Was wäre wenn das Kind in 40 Jahren das "beamen" erfinden würde? Nicht Theoretisch sondern in der Praxis? Die Wahrscheinlichkeit ist ..... gleich hoch. 🤣
Ich kenne doch einige "Quotenpersonen", die eigentlich keine Berechtigung haben den Job zu machen ..... eher auf dem Arbeitsplatz zu sitzen, weil machen könnens den eh nicht 😂 ...... aber das ist eine andere Geschichte.
Ob die KI jetzt sexistisch oder rassistisch oder irgendwas-istisch ist, wäre doch leicht nachzuweisen ..... oder? Frage sie einmal "normal" und dann stelle dieselbe Frage, nur OHNE der Angabe des Geschlechts, Alters, Körpergewicht, Augenfarbe ..... oder was auch immer man ausschließen will.
Aber für diese "Entscheidung" (wen opfere ich) gibt's ein praktisches Beispiel:
Du bist ein Air-Force Pilot und fliegst, Du wars der Schnellste und bist ganz vorne. Der Tower sagt dir, daß die zivile Maschine vor dir genau auf ...... zwei so Türme zufliegt und du hast ganz genau noch 2 Minuten Zeit einen Knopf (nicht) zu drücken.
Wie entscheidest du?
Zitat von @chiefteddy:
Beschäftigte dich Mal mit dem Problem der Unfallvermeidung bei autonom fahrenden Autos: Auto mit 2 Insassen fährt auf Straße, 2 Rentner gehen über die Straße, Bremsweg ist zu kurz, nur noch Ausweichen möglich. Rechts Frau mit Kinderwagen. Links steiler Abhang.
1. weiter fahren - 2 Rentner tot
2. ausweichen nach rechts - Frau mit Kind tot
3. ausweichen nach links - Autoinsassen tot
Laut Grundgesetz ist jedes Leben gleich viel "wert".
Beschäftigte dich Mal mit dem Problem der Unfallvermeidung bei autonom fahrenden Autos: Auto mit 2 Insassen fährt auf Straße, 2 Rentner gehen über die Straße, Bremsweg ist zu kurz, nur noch Ausweichen möglich. Rechts Frau mit Kinderwagen. Links steiler Abhang.
1. weiter fahren - 2 Rentner tot
2. ausweichen nach rechts - Frau mit Kind tot
3. ausweichen nach links - Autoinsassen tot
Laut Grundgesetz ist jedes Leben gleich viel "wert".
Das ist eine sinnlose Diskussion an der sich Pseudo-Intellektuelle aufgeilen.
Erstens: Wenn das Auto nicht rechtzeitg bremsen kann, war es zu schnell unterwegs. Daher lliegt der Fehler schon in der Fragestellung.
Zweitens: In so einer Situation ist die Situation quasi schon außer Kontrolle es ist müßig anzunehmen, daß die KI da noch Zeit hätte zu erkennen und zu bewerten, ob das nun Rentner sind, "die weg können" oder ob das tatsächlich eine Mutter mit Ihrem Kind ist oder ob da nur die Einkäufe im Kinderwagen liegen etc. Imho wäre es die Aufgabe der KI, einfach die Insasssen so weit als möglich zu schützen und die Kolleteralschäden dabei minimal zu halten. Wenn man das nicht will, muß man halt selbstfahrende Autos verbieten oder dafür sorgen, daß die nisch schnelle rals Schrittgeschwindigkeit fahren dürfen.
Lösung?
Dafür gibt es keine Lösung, außer selbstfahrende Autos zu verbieten. Hadmut hat zu dieser Problemtik wieder einen recht interessanten Blogartikel. Da geht es zwar um selbstfahrende Bahnen und Busse, aber die Problematik ist sogar etwas krasser: Soll man einen rücksichtslosen Radfahrer "plattmachen" oder durch Notbremsung in Kauf nehmen, daß u.U. mehrere hundert Personen der Gefahr schwerer und schwerster Verletzungen aussetzen.
lks
und selbst das verbot von selbstfahrenden Fahrzeugen würde es nicht beheben... Denn man müsste dann ja auch noch dafür sorgen das der Fahrer eines PKWs eben nicht zur seite guckt, nicht das Radio bedient (was mittlerweile ja gerne komplexer ist als ne Enterprise Kommandostation),... Ehrlich gesagt wäre das imo sogar ein Grund der FÜR eine KI spricht. Wenn ich heute nen Leihwagen nehme (mein Smart hat jetzt nich soo viel elektronik drin ;) ) sind die Abstandsdinger usw. gleich mal drin. Und selbst wenn einer rauszieht sind die idR. schneller als ich mit der Reaktion... D.h. würde man das og. Beispiel nehmen ist die Chance das eine KI gar nicht erst in diese Situation gerät deutlich höher als bei nem Menschen der sich grad mal wieder seine Mails aufm mobil tel durchgelesen hat
Um auf mein Bsp. zurückzukommen:
Lösung 3: Die Selbstopferung ist zwar nobel, aber es ist ja eben keine "Selbst-" Opferung: die KI hat entschieden.
Wenn die KI also auf "Selstopferung" konditioniert ist, wird sich das Problem sehr schnell marktwirtschaftlich Lösen: Wer kauft den so ein Auto!
Lösung 1+2: In beiden Fällen liegt eine fahrlässige Tötung oder Unfall mit Todesfolge vor, die strafbewehrt ist. Sitzt ein Mensch am Steuer, ist er schuld und geht (wahrscheinlich) in den Bau. Dabei ist es unerheblich, ob die Rentner oder Mutter mit Kind die Opfer sind. Alle Menschen sind gleich viel "wert", es darf keine Bewertung des Lebens geben. Auch die mögliche Opferzahl ist unerheblich: unendlich + unendlich = unendlich. Das ist Verfassungsgrundsatz und durch das BGH bestätigt.
Wenn die KI steuert: wer ist "Schuld"? Wird die KI in Form des Steuergerätes für 5 Jahre von der Batterie abgeklemmt? Oder geht der Vorstandsvorsitzende des Autokonzerns für 5 Jahre für fahrlässige Tötung in den Knast. Oder der Projektleiter der Steuerungsentwicklung oder die studentische Hilfskraft, die den Code eingegeben hat oder der Fließbandarbeiter, der die Batterie angeklemmt hat?
Oder ist keiner "schuld"?
Wenn die Konditionierung (die Auswahl des Lernmaterials) der KI so entscheidend ist, muss sie nach Regeln erfolgen, die gesellschaftlich ausgehandelt wurden und akzeptiert werden. Das setzt voraus, dass man diese "Regeln" in einem gesellschaftlichen Diskurs definiert und dann zur Norm (Gesetz) erhebt. Und natürlich die Einhaltung dieser Regeln überwacht und ihre Nichteinhaltung sanktioniert.
Dies ist übrigens bei jedem Produkt, Verfahren usw. der Fall. Und wie wir alle wissen, klappt das unterschiedlich gut.
(Ich denke da zB. an die kürzliche Diskussion über Balkonkraftwerke)
Das haben ja selbst die Protagonisten der KI eingesehen (Forderung nach einem Moratorium).
Jürgen
Lösung 3: Die Selbstopferung ist zwar nobel, aber es ist ja eben keine "Selbst-" Opferung: die KI hat entschieden.
Wenn die KI also auf "Selstopferung" konditioniert ist, wird sich das Problem sehr schnell marktwirtschaftlich Lösen: Wer kauft den so ein Auto!
Lösung 1+2: In beiden Fällen liegt eine fahrlässige Tötung oder Unfall mit Todesfolge vor, die strafbewehrt ist. Sitzt ein Mensch am Steuer, ist er schuld und geht (wahrscheinlich) in den Bau. Dabei ist es unerheblich, ob die Rentner oder Mutter mit Kind die Opfer sind. Alle Menschen sind gleich viel "wert", es darf keine Bewertung des Lebens geben. Auch die mögliche Opferzahl ist unerheblich: unendlich + unendlich = unendlich. Das ist Verfassungsgrundsatz und durch das BGH bestätigt.
Wenn die KI steuert: wer ist "Schuld"? Wird die KI in Form des Steuergerätes für 5 Jahre von der Batterie abgeklemmt? Oder geht der Vorstandsvorsitzende des Autokonzerns für 5 Jahre für fahrlässige Tötung in den Knast. Oder der Projektleiter der Steuerungsentwicklung oder die studentische Hilfskraft, die den Code eingegeben hat oder der Fließbandarbeiter, der die Batterie angeklemmt hat?
Oder ist keiner "schuld"?
Wenn die Konditionierung (die Auswahl des Lernmaterials) der KI so entscheidend ist, muss sie nach Regeln erfolgen, die gesellschaftlich ausgehandelt wurden und akzeptiert werden. Das setzt voraus, dass man diese "Regeln" in einem gesellschaftlichen Diskurs definiert und dann zur Norm (Gesetz) erhebt. Und natürlich die Einhaltung dieser Regeln überwacht und ihre Nichteinhaltung sanktioniert.
Dies ist übrigens bei jedem Produkt, Verfahren usw. der Fall. Und wie wir alle wissen, klappt das unterschiedlich gut.
(Ich denke da zB. an die kürzliche Diskussion über Balkonkraftwerke)
Das haben ja selbst die Protagonisten der KI eingesehen (Forderung nach einem Moratorium).
Jürgen
Zitat von @chiefteddy:
Wenn die Konditionierung (die Auswahl des Lernmaterials) der KI so entscheidend ist, muss sie nach Regeln erfolgen, die gesellschaftlich ausgehandelt wurden und akzeptiert werden. Das setzt voraus, dass man diese "Regeln" in einem gesellschaftlichen Diskurs definiert und dann zur Norm (Gesetz) erhebt. Und natürlich die Einhaltung dieser Regeln überwacht und ihre Nichteinhaltung sanktioniert.
Wenn die Konditionierung (die Auswahl des Lernmaterials) der KI so entscheidend ist, muss sie nach Regeln erfolgen, die gesellschaftlich ausgehandelt wurden und akzeptiert werden. Das setzt voraus, dass man diese "Regeln" in einem gesellschaftlichen Diskurs definiert und dann zur Norm (Gesetz) erhebt. Und natürlich die Einhaltung dieser Regeln überwacht und ihre Nichteinhaltung sanktioniert.
Die Regel nennt sich "Fahren auf (Gefahren)Sicht", d.h. eine KI die in eine solche Situation kommt, hat schoin etwas ganz falsch gemacht. Ein Mensch kann die Regel brechen, er fährt zu schnell, eine KI sollte das nicht können.
Nun - auch bei deiner Erläuterung gibt es ja nunmal viele Faktoren die reinspielen. Denn DAFÜR gibts ja dann Verhandlungen. Ist aber für den Sachverhalt an sich auch unerheblich. Denn nochmal: Wie kommt es denn für gewöhnlich zu solchen Situationen (also nicht mal zwingend sowas sondern einfach nur das zB. nen auto nen radfahrer/motorradfahrer platt macht)? Für Gewöhnlich doch dadurch das eben min. einer der Beteiligten nicht aufgepasst hat. Sei es dadurch zu schnell gefahren (oder wissentlich zu schnell), sei es durch eine Ablenkung (Gespräch mit Beifahrer, Bewundern der Umgebung,... ) oder sonstiges. GRADE hier hat doch sogar jede KI und jede Technik nen Vorteil. Ich denke nicht das zB. ne KI durch den Süden von DE fährt und sich denkt "Mensch, das is aber nen schöner Berg... und da der Rhein macht so ne schöne Biegung... und das tolle Schiff da erst...". Und die kann sogar nach vorne u. hinten u. ggf. seitlich _gleichzeitig_ gucken. Die ist auch nicht genervt weil da mal wieder nen Radfahrer auf der Strasse fährt und fährt dann einfach mal mit 10cm Abstand dran vorbei...
Von daher hat die in dem Bereich vermutlich sogar einiges an Vorteilen. Und wenn du jetzt mal in die Realität guckst - wie oft kommt es vor das ein PKW-Fahrer sich entscheiden muss (und dabei ist - wie du schon sagst - generell keine Entscheidung prinzipiell richtig)? Und wie oft kommt es vor das eben _vorher_ schon Fehler passiert sind und dadurch eben erst die Gefahr entstanden ist? Und speziell in Fahrzeugen wäre es ja sogar recht einfach das die sogar um die Ecke gucken können - indem du zB. einfach im Nahbereich nen Funksignal gibst (mit Pos-Daten). Spätestens jetzt wäre die Automatik jedem Menschlichen Fahrer überlegen. Und hier könnte man jetzt deine phil. Frage umdrehen: Selbst WENN es zu der Situation kommt - wenn die KI vorher aber 100 Unfälle verhindert hat wie siehts dann aus? Und auch hier wirst du sicher keine wirklich korrekte Lösung finden (und da wirds auch keine Diskussion o. Einigung geben da diese Frage eben keiner pauschal beantworten kann ohne irgendwem das Recht auf Leben abzusprechen...). Dafür gibt es nunmal das Wort "Unfall" - und das bedeutet am Ende nix anderes als das _irgendwer_ Pech hatte.
Von daher hat die in dem Bereich vermutlich sogar einiges an Vorteilen. Und wenn du jetzt mal in die Realität guckst - wie oft kommt es vor das ein PKW-Fahrer sich entscheiden muss (und dabei ist - wie du schon sagst - generell keine Entscheidung prinzipiell richtig)? Und wie oft kommt es vor das eben _vorher_ schon Fehler passiert sind und dadurch eben erst die Gefahr entstanden ist? Und speziell in Fahrzeugen wäre es ja sogar recht einfach das die sogar um die Ecke gucken können - indem du zB. einfach im Nahbereich nen Funksignal gibst (mit Pos-Daten). Spätestens jetzt wäre die Automatik jedem Menschlichen Fahrer überlegen. Und hier könnte man jetzt deine phil. Frage umdrehen: Selbst WENN es zu der Situation kommt - wenn die KI vorher aber 100 Unfälle verhindert hat wie siehts dann aus? Und auch hier wirst du sicher keine wirklich korrekte Lösung finden (und da wirds auch keine Diskussion o. Einigung geben da diese Frage eben keiner pauschal beantworten kann ohne irgendwem das Recht auf Leben abzusprechen...). Dafür gibt es nunmal das Wort "Unfall" - und das bedeutet am Ende nix anderes als das _irgendwer_ Pech hatte.
Ist das hier ein Meinungsaneinanderreihen? Scheint mir so, als wenn immer die Gleichen alles zu wissen scheinen zu den unterschiedlichsten Themen. ByTheWay das ist nicht möglich - außer man "tauscht" Meinungen aus und die sind eben nicht zu diskutieren. Wie wäre es mal, wenn ihr Menschen hinzuzieht, die dazu recherchiert oder promoviert oder sonst wie damit zu tun haben. Ich mag mir den Meinungsthread gar nicht antun... irgendwie Zeitverschwendung und das finde ich traurig. Nicht dass ich meine Zeit vertue, aber zu meinen dabei kommt etwas herum... ist eben frustrierend für alle Leser - sorry ... meine Meinung. Gruß nbll
Zitat von @Nebellicht:
Scheint mir so, als wenn immer die Gleichen alles zu wissen scheinen zu den unterschiedlichsten Themen.
Scheint mir so, als wenn immer die Gleichen alles zu wissen scheinen zu den unterschiedlichsten Themen.
Willkommen im Club.
Wie wäre es mal, wenn ihr Menschen hinzuzieht, die dazu recherchiert oder promoviert oder sonst wie damit zu tun haben.
Nicht jeder der promoviert ist kann zu den Dingen auch das Richtige sagen. Zu viele handeln auch nach dem Motto "Wes Brot ich ess, des Lied ich sing".
Ich mag mir den Meinungsthread gar nicht antun... irgendwie Zeitverschwendung und das finde ich traurig. Nicht dass ich meine Zeit vertue, aber zu meinen dabei kommt etwas herum... ist eben frustrierend für alle Leser - sorry ... meine Meinung. Gruß nbll
Und warum startest Du dann oft selbst solche "Meinungsthreads"? Außerdem zwingt Dich ja keiner diesen Thread zu lesen.
Aber trotzdem einen schönen Freitag noch (Auch wenn der hier bei mir total verregnt ist).
lks
Zitat von @Lochkartenstanzer:
Aber trotzdem einen schönen Freitag noch (Auch wenn der hier bei mir total verregnt ist).
Aber trotzdem einen schönen Freitag noch (Auch wenn der hier bei mir total verregnt ist).
Also bei mir scheint die Sonne 😂 Ich bin mit dem Motorrad unterwegs.
Zitat von @Lochkartenstanzer:
Nicht jeder der promoviert ist kann zu den Dingen auch das Richtige sagen.
Nicht jeder der promoviert ist kann zu den Dingen auch das Richtige sagen.
Dazu muß man auch sagen ..... was genau ist eigentlich "richtig"? Das ist ja auch oft sehr meinungsabhängig. Das was für den Einen absolut paßt ist für seinen Nachbarn das komplett falsche ..... und beide haben sogar recht.
Wie singt da irgendwer?
Es könnte alles so einfach sein, ist aber nicht .... 😂
Auch Dir ein schönes verlängertes regenfreies Wochenende
Zitat von @Franz-Josef-II:
Also bei mir scheint die Sonne 😂 Ich bin mit dem Motorrad unterwegs.
Zitat von @Lochkartenstanzer:
Aber trotzdem einen schönen Freitag noch (Auch wenn der hier bei mir total verregnt ist).
Aber trotzdem einen schönen Freitag noch (Auch wenn der hier bei mir total verregnt ist).
Also bei mir scheint die Sonne 😂 Ich bin mit dem Motorrad unterwegs.
Du Glücklicher. Meins ist noch "eingemottet". Hat sich seit zwei Jahren nicht bewegt, weil ich keine Zeit dafür hatte. Meine Holde schimpft schon, daß ich es abmeldet soll, weil das Geld für Steuer und Versicherung ja "verschwendet" wäre.
Mein Junior schafft es wenigstens ab und zu zu fahren.
Zitat von @Lochkartenstanzer:
Nicht jeder der promoviert ist kann zu den Dingen auch das Richtige sagen.
Nicht jeder der promoviert ist kann zu den Dingen auch das Richtige sagen.
Dazu muß man auch sagen ..... was genau ist eigentlich "richtig"? Das ist ja auch oft sehr meinungsabhängig. Das was für den Einen absolut paßt ist für seinen Nachbarn das komplett falsche ..... und beide haben sogar recht.
Wie singt da irgendwer?
Es könnte alles so einfach sein, ist aber nicht .... 😂
Naja, bei den ganzen "Experten" die in den Medien auftreten, merkt man das sehr oft, daß das nur Hampelmänner sind, die auf Aufmekrsamkeit aus sind. Die wahren wissenden sin mist unauffälliger.
Auch Dir ein schönes verlängertes regenfreies Wochenende
Hoffentlich. Noch sieht es nciht so aus.
Aber trotzdem danke.
lks
Zitat von @Nebellicht:
Ist das hier ein Meinungsaneinanderreihen? Scheint mir so, als wenn immer die Gleichen alles zu wissen scheinen zu den unterschiedlichsten Themen. ByTheWay das ist nicht möglich - außer man "tauscht" Meinungen aus und die sind eben nicht zu diskutieren. Wie wäre es mal, wenn ihr Menschen hinzuzieht, die dazu recherchiert oder promoviert oder sonst wie damit zu tun haben. Ich mag mir den Meinungsthread gar nicht antun... irgendwie Zeitverschwendung und das finde ich traurig. Nicht dass ich meine Zeit vertue, aber zu meinen dabei kommt etwas herum... ist eben frustrierend für alle Leser - sorry ... meine Meinung. Gruß nbll
Ist das hier ein Meinungsaneinanderreihen? Scheint mir so, als wenn immer die Gleichen alles zu wissen scheinen zu den unterschiedlichsten Themen. ByTheWay das ist nicht möglich - außer man "tauscht" Meinungen aus und die sind eben nicht zu diskutieren. Wie wäre es mal, wenn ihr Menschen hinzuzieht, die dazu recherchiert oder promoviert oder sonst wie damit zu tun haben. Ich mag mir den Meinungsthread gar nicht antun... irgendwie Zeitverschwendung und das finde ich traurig. Nicht dass ich meine Zeit vertue, aber zu meinen dabei kommt etwas herum... ist eben frustrierend für alle Leser - sorry ... meine Meinung. Gruß nbll
ähm - du hast aber schon wenigstens das EINGANGSPosting gelesen? Ich zitiere mal für dich:
---quote---
Würde mich auf eure Meinungen freuen, ob ich blauäugig bin,
---/quote---
Ok, es wird nach Meinungen gefragt und du wunderst dich das nen "Meinungsthread" draus wird? Was hast du denn erwartet? Lottozahlen von nächster Woche-Thread?
Zitat von @maretz:
ähm - du hast aber schon wenigstens das EINGANGSPosting gelesen? Ich zitiere mal für dich:
---quote---
Würde mich auf eure Meinungen freuen, ob ich blauäugig bin,
---/quote---
Ok, es wird nach Meinungen gefragt und du wunderst dich das nen "Meinungsthread" draus wird? Was hast du denn erwartet? Lottozahlen von nächster Woche-Thread?
Zitat von @Nebellicht:
Ist das hier ein Meinungsaneinanderreihen? Scheint mir so, als wenn immer die Gleichen alles zu wissen scheinen zu den unterschiedlichsten Themen. ByTheWay das ist nicht möglich - außer man "tauscht" Meinungen aus und die sind eben nicht zu diskutieren. Wie wäre es mal, wenn ihr Menschen hinzuzieht, die dazu recherchiert oder promoviert oder sonst wie damit zu tun haben. Ich mag mir den Meinungsthread gar nicht antun... irgendwie Zeitverschwendung und das finde ich traurig. Nicht dass ich meine Zeit vertue, aber zu meinen dabei kommt etwas herum... ist eben frustrierend für alle Leser - sorry ... meine Meinung. Gruß nbll
Ist das hier ein Meinungsaneinanderreihen? Scheint mir so, als wenn immer die Gleichen alles zu wissen scheinen zu den unterschiedlichsten Themen. ByTheWay das ist nicht möglich - außer man "tauscht" Meinungen aus und die sind eben nicht zu diskutieren. Wie wäre es mal, wenn ihr Menschen hinzuzieht, die dazu recherchiert oder promoviert oder sonst wie damit zu tun haben. Ich mag mir den Meinungsthread gar nicht antun... irgendwie Zeitverschwendung und das finde ich traurig. Nicht dass ich meine Zeit vertue, aber zu meinen dabei kommt etwas herum... ist eben frustrierend für alle Leser - sorry ... meine Meinung. Gruß nbll
ähm - du hast aber schon wenigstens das EINGANGSPosting gelesen? Ich zitiere mal für dich:
---quote---
Würde mich auf eure Meinungen freuen, ob ich blauäugig bin,
---/quote---
Ok, es wird nach Meinungen gefragt und du wunderst dich das nen "Meinungsthread" draus wird? Was hast du denn erwartet? Lottozahlen von nächster Woche-Thread?
Quod erat demonstrandum
... was zu beweisen / zu erinnern war.
https://de.pons.com/übersetzung/latein-deutsch/demonstrare
"Erinnern" hat der gute, alte Euklid damit sicher nicht gemeint!
"Erinnern" hat der gute, alte Euklid damit sicher nicht gemeint!
Zitat von @aqui:
https://de.pons.com/übersetzung/latein-deutsch/demonstrare
"Erinnern" hat der gute, alte Euklid damit sicher nicht gemeint!
https://de.pons.com/übersetzung/latein-deutsch/demonstrare
"Erinnern" hat der gute, alte Euklid damit sicher nicht gemeint!
Hui !). Ich habs damit nicht übersetzt sondern auf den Threat bezogen... Ein Erinnern an den Meinungsthread und ein ... Hinweis auf den meinigen bzw. vorherigen anderen post, der da eben auf "Meinungen" hinnwies. Das wiederum vom poster des posts als Verstanden bezweifelt wurde (habs aber doch so geschrieben). Es wurde aber dennoch von ihm selber bewiesen und daran mußte man anscheinend den poster erinnern, was ich bereits im post tat worauf er sich bezog also so eine Art "was zu beweisen war". Boah. Egal.
Aber egal. Hauptsache man trägt was dazu "bei". nä Aqui - letzte Wort und so oder? (nebll)