GPT-5 ist programmiert, eine Antwort zu geben auch wenn es keine Informationen hat (Screenshot des "Reasoning" Protokolls bei Copilot). Es ist also programmiert zu lügen.
Für ein Gemälde hat es sich bei mir gerade einen Katalog ausgedacht und dann die Information zurückgezogen ("retracted").
Ich glaube das sind interessante Beispiele für die Lehre, diese Schritte mal mit Studierenden durchzugehen, und zu sehen wie schnell der Chatbot zugibt zu lügen.