Erfahrungen mit und Meinungen zu ChatGPT und KI allgemein

  • 38 Antworten
  • Letztes Antwortdatum
omah

omah

Inventar
9.989
Danke sehr.

Ich hatte mich mit ChatGTP befasst und stolperte dann darüber, daß Ergebnisse nicht aktuell waren, daß die Datenbasis etliche Jahre alt war. Dort wurde die Queen als Staatsoberhaupt von England genannt und weitere Fragen ergaben, daß (vielleicht) aktuellere Ergebnisse nur in der Bezahlversion möglich seien. Weitere Forschung war mir nicht nötig erschienen da mir Preis/Leistung nicht gefallen haben. Warum sollte ich Ergebnisse zu veralteten Smartphones suchen.

Es war nicht möglich ChatGTP zu "belehren", die von wem auch immer vorgegebenen bzw. beschränkten Antworten blieben inaktuell, einseitig/diffus und lückenhaft.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Daichink
Sollte eigentlich bekannt sein, dass KI noch keinerlei wirklich gute Tips/Empfehlungen/Ratschläge geben kann.

KI wird die Welt wohl erst in 5 ~ 6 Jahren SEHR verändern ... leider :1f621:
 
  • Danke
Reaktionen: Daichink und Malou
RA99 schrieb:
Ich hoffe NIEMALS.

Die Leute sind jetzt schon zu faul zum selbst schauen oder zu dumm. Und das wird noch schlimmer, wenn KI Flächendeckend kommt. Sorry wenn ich das so hart sagen muss.
 
Zuletzt bearbeitet:
  • Danke
  • Freude
Reaktionen: Daichink, Malou, F-O-X und 3 andere
Nur kurz zum Thema künstliche Dummheit: es gibt auf yt den Kanal "Mind your decission" von Presh Talwalker, einem studierten Mathematiker. In einem seiner sehr unterhaltsamen Videos (ca vor einem Jahr) zeigt er ein "Gespräch" mit einer KI, die felsenfest behauptet, dass 0,11 größer sei als 0,9. Die Maschine wirft sogar eine Python-Funktion aus, die dass beweisen soll.
 
  • Danke
Reaktionen: Daichink
Kann ich nicht bestätigen. Jede KI die ich gefragt hab, sagt: 0,9 ist größer.
Beiträge automatisch zusammengeführt:

Nachtrag: Ich glaube, man muss das spezifizieren. Wenn man einfach nur fragt: Ist 0,9 kleiner als 0,11 ist die Antwort direkt: Nein, ist es nicht, da 11/100 und 90/100 bla bla.

Es kommt wahrscheinlich darauf an WIE man fragt. Man kann eine KI durchaus davon überzeugen, dass 0,9 kleiner als 0,11 ist.
 
Zuletzt bearbeitet:
Und auch das ist ein Kontext, kein Dezimalproblem.

Zum anderen ist das Video 1 Jahr her. In der Zeit hat sich KI MASSIV geändert.

Gefühlt ändern sich die LLMs alle paar Monate und wachsen RASANT. Hier also das Video als Referenz für etwas zu nehmen, was KIs schon lange als korrekt ausweisen halte ich für falsch.

Hätte man im übrigen auch einfach selbst rausfinden können, ob das "Problem" noch existent ist oder nicht. Aber das wäre zu einfach.
 
Du scheinst das Problem nicht zu verstehen: wenn Laber-Ge-Pe-Te und Konsorten vor einem Jahr fälschlicherweise davon überzeugt war, dass 9,11 größer als 9,9 sei, wie kannst Du dann bei heutigen Antworten sicher sein, dass sie stimmen?

Antworten, die Du von all diesen Automaten bekommst, sind ein Glücksspiel: sie können richtig sein, müssen es aber nicht.

Darum geht es.
 
  • Danke
Reaktionen: Daichink, chika und 624028
Sie können richtig sein...müssen es aber nicht? Ach guck mal. Wie beim Menschen. Wie verrückt. Und auch verrückt: Sie können LERNEN...wie Menschen. CRAAAZZZZYYYYY...

Zum anderen sollen sie dich UNTERSTÜTZEN beim Antworten finden und nicht dein denken ersetzen. Wenn du letzteres dachtest, denkst du schon vom Grund auf falsch.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: Skyhigh
Irgendwie habe ich gerade das Gefühl, mit einem zwölfjährigen KI-Fanboy zu sprechen, der sonst seine Hausaufgaben nicht gebacken bekommt. Oder sogar mit einer KI, die mich von der Rechtmäßigkeit ihrer Existenz überzeugen will...???

Ich weiß nicht, warum Du diese fehlerhafte Technologie so vehement und ohne jeglichen Hauch eines Zweifels verteidigst. Aber ich wünsche Dir, dass Du immer die richtigen Antworten bekommst, wenn Du sie nutzt.

Ende der Diskussion.
 
  • Danke
Reaktionen: Daichink und chika
Ich verteidige sie nicht. Ich benutze sie nicht mal wirklich. Aber deine Argumentation ist halt genauso falsch wie der Verweis auf das Video.

Man könnte auch ein Youtube von vor 1 Jahr nehmen, wo ein echter Mensch Dinge gesagt hat, die jetzt nicht mehr aktuell sind. DAS will ich damit sagen. Dinge ÄNDERN sich.

Egal ob sie nun ein Mensch produziert hat, oder eine KI. Du könntest auch n Gesetzbuch nehmen von vor 1 Jahr, da stehen Dinge drin, die jetzt nicht mehr aktuell sind. Deswegen gibts ja jedes Jahr eine neue Ausgabe. Das gleiche gilt halt für die KI. Sie wird weiter entwickelt.

Niemand sagt, dass man auf die Antworten darauf vertrauen soll. Eben weil sie nur untersütztend da sein sollen. Aber scheinbar versehst du das nicht.
 
Otandis_Isunos schrieb:
Und auch das ist ein Kontext, kein Dezimalproblem.

Zum anderen ist das Video 1 Jahr her. In der Zeit hat sich KI MASSIV geändert.

Gefühlt ändern sich die LLMs alle paar Monate und wachsen RASANT. Hier also das Video als Referenz für etwas zu nehmen, was KIs schon lange als korrekt ausweisen halte ich für falsch.

Hätte man im übrigen auch einfach selbst rausfinden können, ob das "Problem" noch existent ist oder nicht. Aber das wäre zu einfach.

Naja anscheinend hat sich im letzten Jahr doch nicht so viel bei der KI entwickelt. Habe das berühmte GPT nach einer Sehenswürdigkeit gefragt, die auf dem halben Weg von Prag nach Zürich liegt. Als Antwort kam die sächsische Schweiz. Diese liegt überhaupt nicht auf dem Weg, sondern sogar in der entgegengesetzten Richtung von Prag aus. Und das wäre eigentlich eine vergleichsweise einfache Aufgabe für eine Der berühmtesten KI, bei der sie kläglich versagt hat.

Wenn ich etwas suche und eine KI befrage , weil ich es logischerweise nicht weiß und danach noch recherchieren musste die Antwort der KI richtig war, dann hat die KI keine Daseinberechtigung mehr. Letztendlich recherchieren ich ja dann doch auf die altmodische Art was eigentlich die KI übernehmen sollte.
 
Zuletzt bearbeitet von einem Moderator:
Hab ich ebenfalls getan. Jetzt gerade eben und als Antwort habe ich etwas sehr eindeutiges bekommen.

Und die Antwort ist: Ulmer Münster. Eine Kirche mit dem höchsten Kirchturm der Welt.

Ergo quasi in der Mitte in Baden-Württemberg in Ulm halt.

Aber, nur weils eine KI ist, heißt das nicht zwangsläufig das sie alles wissen muss. STRENG genommen hätte sie dich nämlich erstmal ausfragen müssen. Denn woher weiß sie denn, welche exakte Route du nimmst.

Und ja, ist nicht ganz die Mitte, aber das ist ja egal. Es liegt quasi direkt auf dem Weg.
Beiträge automatisch zusammengeführt:

Hier bitte:

Sehenswürdigkeit halber Weg

Und als Google Maps:

Prag to Zürich
 
Zuletzt bearbeitet:
Die Gefahr ist, ungefiltert alles zu glauben. Weiterhin, dass jeder veröffentlichen kann was er will. Das hat zur Folge, dass man die KI auch manipulieren kann. Falsche Ergebnisse sind keine Seltenheit - selbst bereits erlebt. Das heißt sich nur darauf zu verlassen ist gefährlich. Je größer die Masse mit der die KI gefüttert wird desto schwieriger wird es, alles auf Richtigkeit zu überprüfen. Das ist nicht umsetzbar. Die KI wird zur Meinungsmache und Manipulation von verschiedenen Interessengruppen genutzt. Das werden wir nicht mehr verhindern können. Und es wird keine Hilfe sein, auch wenn die KI als Fortschritt gehypet wird. Die Risiken und damit verbundenen Entscheidungen auf Grundlage zu weniger eigener Nachforschungen werden uns immer wieder in die Sh*ce reiten.
 
  • Danke
Reaktionen: Daichink
@Otandis_Isunos Nach deiner Logik hätte die KI mir auch Moskau als Sehenswürdigkeit vorschlagen können. Denn woher soll sie wissen welche Route ich von Prag nach Zürich fahre… nur mal als Tipp: schauen wo Prag Zürich in sächsische Schweiz ( Dresden) auf der Karte ist.
 
Ich mag es, dass ich über Chat GPT diverse Dokumente sehr schlank zusammenfassen kann oder nervige Briefe wie Beschwerden oder Kündigungen erstellen kann.
Auch in meinem Job nutze ich es um ggf. Mails zu beantworten auf die ich keine Lust habe oder an Personen die mich nerven.
Die haben auch nie gecheckt, dass die mit einer KI schreiben.

Das was uns als nächstes erwartet ist, wenn die KI in die Unternehmen implementiert wird. Nicht nur diese Doofenaufgaben wie Termine oder Pläne zu erstellen oder etwas abzuhaken damit die anderen Mitarbeiter sich auf qualifizierte Aufgaben konzentrieren können.
Wenn die KI aber Bestellungen durchführen kann, andere Maschinen steuert oder mittels Roboter Materialien von A nach B befördert oder Grafiken entwickelt, diese auch direkt verwendet....Dann haben wir den Zustand erreicht wo es langsam interessant wird.
Ich denke unser aller Arbeitsleben wird sich stark verändern. Ob positiv oder negativ darf jeder für sich selbst entscheiden.
 
MariokartF schrieb:
@Otandis_Isunos Nach deiner Logik hätte die KI mir auch Moskau als Sehenswürdigkeit vorschlagen können. Denn woher soll sie wissen welche Route ich von Prag nach Zürich fahre… nur mal als Tipp: schauen wo Prag Zürich in sächsische Schweiz ( Dresden) auf der Karte ist.

Also langsam werd ich grantig. Entweder liest du meine Beiträge nicht, oder du willst sie nicht lesen. Ich habe sogar extra das geteilt, was GPT mir mitgeteilt hat.

Alles absolut nachvollziebar. Ergo kann ich dein Posting diesbezüglich absolut nicht nachvollziehen, weil er vollkommen aus der Luft gegriffen wurde.

Ich kanns dir auch gerne nochmal als SCREENSHOT geteilten Verlauf inkl Prompt zeigen, dass mein Prompt mehr als simpel war. Ohne jegliche Hinweise. Erst auf Nachfrage ob noch mehr Sehenswürdigkeiten gezeigt werden sollen, je nachdem welche Route man fährt (es gibt 2), wird ausgewählt.

Und dann noch die schnellste.

Also weiß ich nicht, warum du so trotzig tun musst und mir sowas absurdes vorschlägst.

Aber von mir aus gerne hier mein geteiltes Gespräch:

ChatGPT - Sehenswürdigkeit halber Weg

Das ist der gesamte Verlauf, also erzähl mir nicht, dass das nicht geht.

Zum anderen steht IMMER! Unter der Eingabefläche das ChatGPT Fehler machen kann und das man wichtige Informationen bitte selbst nachschauen muss bzw sollte.

Nothing schrieb:
Die Gefahr ist, ungefiltert alles zu glauben. Weiterhin, dass jeder veröffentlichen kann was er will. Das hat zur Folge, dass man die KI auch manipulieren kann. Falsche Ergebnisse sind keine Seltenheit - selbst bereits erlebt. Das heißt sich nur darauf zu verlassen ist gefährlich. Je größer die Masse mit der die KI gefüttert wird desto schwieriger wird es, alles auf Richtigkeit zu überprüfen. Das ist nicht umsetzbar. Die KI wird zur Meinungsmache und Manipulation von verschiedenen Interessengruppen genutzt. Das werden wir nicht mehr verhindern können. Und es wird keine Hilfe sein, auch wenn die KI als Fortschritt gehypet wird. Die Risiken und damit verbundenen Entscheidungen auf Grundlage zu weniger eigener Nachforschungen werden uns immer wieder in die Sh*ce reiten.

Das wir mit KI Ordnungsgemäß umgehen sollten und damit kein Schindluder treiben sollte Bedarf in einer vernünftigen Gesellschaft keiner Erwähnung. Aber ich verstehe was du meinst.

Bestes Beispiel ist die KI-Musik, die in Youtube und Spotify reingeschwemmt wird in Massen. Es ist kaum noch auszuhalten. Zum Glück wird der Kram Demonetarisiert. Das auch Fakenews darüber erstellt werden ist leider auch so, gabs aber auch in Massen schon vor der Massentauglichkeit von KI. Ich sag nur Facebook. Damit fing alles schlimmer zu werden.
 
Zuletzt bearbeitet:
Ich stelle meine Unterhaltung mit einer KI auch hier gerne noch mal ein.
Kann sich jeder seine eigenen Gedanken darüber machen...
 

Anhänge

  • Unterhaltung KI.png
    Unterhaltung KI.png
    98 KB · Aufrufe: 24
Da fehlt etliches. Vorallem der Kontext, warum du exakt diesen Ausschnitt gewählt hast.

So wird nur die böse Seite gezeigt. Aber wie ist es dazu gekommen? Welche Fragen hast du gestellt, damit dir überhaupt so eine Antwort gegeben wurde?

Denn mir scheint, als wärst du schon aggressiv und mit Ablehnung in die Unterhaltung gegangen.
Beiträge automatisch zusammengeführt:

Aber um mal eine Sache klarzustellen: In #3 hab ich zwar geschrieben: NIEMALS.

Und das die Menschen durch KI faul und möglicherweise sogar "dumm" werden. Der Meinung bin ich auch.

Was ich hier trotzdem bezwecken möchte, ist, dass manchmal einfach Dinge gesagt werden, die ich persönlich weder nachvollziehen noch reproduzieren kann.

Ich hab bisher noch kein schlüssiges Argument GEGEN die Hilfe der KI gehört. Das Aussagen falsch sein können, bestreitet absolut niemand. Steht sogar bei jeder KI unter dem Prompt.

Wir werden es eh nicht ändern können, dass diese Modelle in unser Leben Einzug halten, auch wenn ich der Meinung bin, dass die Menschheit dafür noch nicht bereit ist und die Technik ungefähr 10 Jahre zu früh kommt.

Aber was ich mir wünsche: Wenn schon Dinge gesagt werden, sie wären falsch oder "man soll sich darüber Gedanken machen", dass ein vollständiger Chatverlauf von Anfang bis Ende geteilt wird und kein Cherry Picking betrieben wird.

Nur so kann man eine vernünftige Diskussion führen, finde ich.
 
Zuletzt bearbeitet:
Zurück
Oben Unten