
馃殌 New Ollama Model Release! 馃殌
Model: embeddinggemma
馃敆 https://ollama.com/library/embeddinggemma
#Tag
馃殌 New Ollama Model Release! 馃殌
Model: embeddinggemma
馃敆 https://ollama.com/library/embeddinggemma
Finding thousands of exposed Ollama instances using Shodan
https://blogs.cisco.com/security/detecting-exposed-llm-servers-shodan-case-study-on-ollama
#HackerNews#Finding#Exposed#Instances#Shodan#Ollama#Cybersecurity#SecurityResearch
馃殌 New Ollama Model Release! 馃殌
Model: embeddinggemma
馃敆 https://ollama.com/library/embeddinggemma
Finding thousands of exposed Ollama instances using Shodan
https://blogs.cisco.com/security/detecting-exposed-llm-servers-shodan-case-study-on-ollama
#HackerNews#Finding#Exposed#Instances#Shodan#Ollama#Cybersecurity#SecurityResearch
Verst盲ndnisfrage: Ich habe #paperless_ngx auf meiner #Synology NAS installiert.
Ich habe #Ollama und #AnythingLLM auf meinem Desktop-Rechner installiert (aus Leistungsgr眉nden, weil die Synology halt nicht so viel Leistung hat wie ein Desktop-Rechner).
Nun m枚chte ich #paperless_ai installieren. Wie kann ich das auf dem Desktop tun und mit dem bestehenden Ollama verbinden, damit ich nicht Gefahr laufe, nochmals Ollama auf der Synology NAS zu installieren?
#paperlessai
Aber mal im Ernst: Wieso sollte Verwaltung sowas einsetzen?
> Es liegt in der Natur der Sache, dass generative KI Halluzinationen entwickelt. Dies kann nicht verhindert werden.
> -- https://f13-os.de/faq/#hintergrund-zu-ki-sprachmodellen-und-die-datengrundlage-von-f13
Falsche Sache! Holzweg!
A space for Bonfire maintainers and contributors to communicate