KI und die Halluzinationen: Warum sind so viele Antworten falsch?
Falsche Informationen, unstimmige Zusammenhänge und sogar ausgedachte Quellen: Das weiterhin ungelöste Problem der KI-Modelle.
Discussion
KI und die Halluzinationen: Warum sind so viele Antworten falsch?
Falsche Informationen, unstimmige Zusammenhänge und sogar ausgedachte Quellen: Das weiterhin ungelöste Problem der KI-Modelle.
„Warum sind so viele Antworten falsch?“
Weil das LLMs (Large Language Model) sind. Die können Texte generieren, sind aber blöd wie ein Meter Feldweg.
Es ist reiner Zufall wenn die Ausgabe inhaltlich korrekt ist.
@heiseonline Daran wird sich m. E. nichts ändern, solange die KI ein LLM ist. Der Fehler liegt im System. Weil ein LLM keine KI ist.
@heiseonline wurde wohl von Trump, Putin, Musk und Co. gefüttert... #PostfaktischesZeitalter
@heiseonline KD (künstliche Dummheit) wertet vor allem das Internet aus das eigentlich an Kloake erinnert. Warum sollten die Ergebnisse anders sein als das Original
@heiseonline das ist kein problem, das ist nen Feature !
A space for Bonfire maintainers and contributors to communicate