@leitmedium @diametraldaneben @fellmoon ja, ich betreibe iocaine. Die docs sind gut, ich kann das aber noch mal dokumentieren
@leitmedium @diametraldaneben @fellmoon ja, ich betreibe iocaine. Die docs sind gut, ich kann das aber noch mal dokumentieren
@leitmedium ist es nicht möglich technisch zu verhindern, dass LLMs mit Daten trainiert werden? Also soetwas wie eine robots.txt für LLMs?
@leitmedium @fellmoon Magst Du Dein Wissen hierzu teilen, wie man die LLMs Trainingsdings mit random shit zuballern kann, sodass die Daten nutzlos werden? Also Poison Datasets, hast Du dazu ein Beispiel?
@diametraldaneben @fellmoon Ich glaube, @tante hat da mal mit rumexperimentiert.
@leitmedium @diametraldaneben @fellmoon ja, ich betreibe iocaine. Die docs sind gut, ich kann das aber noch mal dokumentieren
@tante @leitmedium @fellmoon Hey Tante, ist das von einfachen Webseitenmenschen nutzbar? Bzw. kennst Du einen vergleichbaren Dienst, der es einfachen Menschen ohne besondere Linux Kenntnisse ermöglicht, solche Garbage-Sites zu erstellen?
@diametraldaneben @leitmedium @fellmoon der Entwickler baut das gerade als Service auf.