Wer einem #LLM ein pöhses Prompt unterjubeln will, das es eigentlich nicht ausführen darf, tut gut daran, die Eingabe zu reimen. Das steigert die Erfolgsrate schon beim ersten Versuch um durchschnittlich 63 %. Offenbar sind alle #LLMs so angreifbar
https://arxiv.org/html/2511.15304v1