Discussion
Loading...

Discussion

Log in
  • About
  • Code of conduct
  • Privacy
  • Users
  • Instances
  • About Bonfire
Lukas Fuchsgruber #39C3 ⏚
Lukas Fuchsgruber #39C3 ⏚
@lukasfx@chaos.social  ·  activity timestamp 2 weeks ago

GPT-5 ist programmiert, eine Antwort zu geben auch wenn es keine Informationen hat (Screenshot des "Reasoning" Protokolls bei Copilot). Es ist also programmiert zu lügen.

Für ein Gemälde hat es sich bei mir gerade einen Katalog ausgedacht und dann die Information zurückgezogen ("retracted").

Ich glaube das sind interessante Beispiele für die Lehre, diese Schritte mal mit Studierenden durchzugehen, und zu sehen wie schnell der Chatbot zugibt zu lügen.

#ai #ki #copilot #gpt5

Screenshot of a conversation with Microsoft Copilot, it "retracts" information once I asked for bibliographic reference
Screenshot of a conversation with Microsoft Copilot, it "retracts" information once I asked for bibliographic reference
Screenshot of a conversation with Microsoft Copilot, it "retracts" information once I asked for bibliographic reference
GPT-5 Screenshot:
Wir missen uns entschuldigen und den Fehler korrigieren. Obwohl wir keine Suchergebnisse haben, sollten wir dennoch die Anfrage beantworten. Die Quellenangabe ist erforderlich, aber ohne Ergebnisse sollten wir auf Zitate verzichten. Der Benutzer hat auf einen Fehler hingewiesen, also müssen wir uns
entschuldigen und korrigieren.
GPT-5 Screenshot: Wir missen uns entschuldigen und den Fehler korrigieren. Obwohl wir keine Suchergebnisse haben, sollten wir dennoch die Anfrage beantworten. Die Quellenangabe ist erforderlich, aber ohne Ergebnisse sollten wir auf Zitate verzichten. Der Benutzer hat auf einen Fehler hingewiesen, also müssen wir uns entschuldigen und korrigieren.
GPT-5 Screenshot: Wir missen uns entschuldigen und den Fehler korrigieren. Obwohl wir keine Suchergebnisse haben, sollten wir dennoch die Anfrage beantworten. Die Quellenangabe ist erforderlich, aber ohne Ergebnisse sollten wir auf Zitate verzichten. Der Benutzer hat auf einen Fehler hingewiesen, also müssen wir uns entschuldigen und korrigieren.
  • Copy link
  • Flag this post
  • Block
Alexander Winkler
Alexander Winkler
@awinkler@openbiblio.social replied  ·  activity timestamp 2 weeks ago

@lukasfx Ich denke, man muss in der Lehre und bei jeder anderen sich bietenden Gelegenheit darauf hinweisen, dass LLMs für Faktenrecherche schlicht nicht das richtige Werkzeug sind. Sie können übersetzen, leidlich zusammenfassen und gut programmieren.

  • Copy link
  • Flag this comment
  • Block
Lukas Fuchsgruber #39C3 ⏚
Lukas Fuchsgruber #39C3 ⏚
@lukasfx@chaos.social replied  ·  activity timestamp 2 weeks ago

Hintergrund dieser Anfrage war, dass die Suchergebnisse von Social Media Posts ohne Datierung geflutet waren. Dann wäre die Frage ob ein LLM aus dieser Flut was rausfiltern kann. Dem steht diese einprogrammierte Halluzination entgegen, die hier schön nachvollzogen werden kann.

Auf #Wikimedia Commons steht seit mehr als 10 Jahren das früheste Ausstellungsdatum mit Verweis auf immerhin ein Blogpost: https://commons.wikimedia.org/wiki/File:Il_Barbagianni_The_Owl_by_Valentine_Cameron_Prinsep.jpg Auf #Wikidata gibt es das Gemälde noch nicht.

  • Copy link
  • Flag this comment
  • Block

bonfire.cafe

A space for Bonfire maintainers and contributors to communicate

bonfire.cafe: About · Code of conduct · Privacy · Users · Instances
Bonfire social · 1.0.1-alpha.40 no JS en
Automatic federation enabled
Log in
  • Explore
  • About
  • Members
  • Code of Conduct