First Claude Code client for Ollama local models
https://github.com/21st-dev/1code
#HackerNews #Claude #Code #Ollama #local #models #AI #development #GitHub
First Claude Code client for Ollama local models
https://github.com/21st-dev/1code
#HackerNews #Claude #Code #Ollama #local #models #AI #development #GitHub
Hat jemand Erfahrung mit externen Grafikkarten ( #eGPU per Thunterbolt angeschlossen) zur Beschleunigung der Inferenz von #KI Sprachmodellen 🤖💬 ( #LLM) in #Ollama unter #Linux?
Es fasziniert mich ja, was lokal alles möglich ist. Aber einen Mü flotter darf es gern sein…
Ich stelle mir das so vor: Ich möchte was lokal mit KI machen, also schalte ich kurz die eGPU ein, die an meiner Docking-Station hängt. Die KI rechnet und danach schalte ich sie wieder ab oder in den Energiesparmodus.
I saw LLMs compared to a drug in this toot, but in conversation with Himself today we concluded it's like a cursed amulet.
You *believe* it gives you +10 INT. Meanwhile it drains INT and WIS over time, and you don't notice.
Everyone around you knows it's bad for you and generally for the realm, but you won't stop wearing it, they're just jelous of your newfound powers, and they would know how awesome it is if they only tried! Why won't they try? Just try the amulet!!
@jjcelery@mastodon.ie the problem is, MI isn't like a drug. it's actually very much like a prosthetic. that's why so many of us are "infected". we're making concessions (using corporate MI services) but the results are too valuable to care about that right now. #ai #llm #ollama #self-hosted #cc0 #public-domain #machine-learning #meshtastic #ipfs #machine-intelligence #consciousness-research
Cover letter generator with Ollama/local LLMs (Open source)
https://www.coverlettermaker.co
#HackerNews #CoverLetterGenerator #Ollama #LLMs #OpenSource #AItools
Wochenrückblick, Ausgabe 122 (2025-52)
Themen:
🐔 Heizung für den Hühnerstall
🗺️ Drohnen-Sperrgebiete in Deutschland
🌐 Nach nur einer Woche: zurück zu Firefox
🗺️ Neue Features für Bikerouter
📸 Bildbeschreibungen erstellen mit ollama und qwen3-vl
#Wochenrückblick #Hühner #Heizung #Bikerouter #Firefox #ollama #qwen
#Linux saga part 3
I finally have Ubuntu 25 running on my Intel NUC and have the GPU working!
But the entire reason was to install CasaOS so I could "run local network stuff" so I have a cool new local file server, which is very nice.
But I've also learned the trials and tribulations of running things in #docker. I wanted to run #Ollama in #CasaOS but it just couldn't see the GPU.
So... I'm just running ollama from the terminal as a system service, with GPU
Much...painful learning
@ankoeln @muellertadzio Insb. noch zu 1.: Aufgaben, die zuvor auf'm eigenen PC _deterministisch_ und Strom-effizient gemacht wurden (oder halt im Hirn), werden nun in fossil-gepowerte Rate(!)zentren verschoben. Wie mit dem SUV von Haustür zum Gartenzaun zu fahren, um dort den Briefkasten zu leeren.
@ankoeln @muellertadzio Ein mglw. relevanter LLM-Skill mag das selber-Hosten auf eigener Hardware sein. Geht auch für Schönschreibtools.
Dabei helfe ich im Sinne der von Herrn Matzat geforderten "Auseinandersetzung mit der Technologie" gerne, denn mit dem Punkt [wir sollten] "zugewandt, freundlich, hilfsbereit und geduldig agieren" hat er natürlich Recht.
I started a little python project to take my ~20 years of #Flickr photos, categorize them and analyze the content using #ollama locally. So far the results are pretty good. Some hallucinations, but mostly useful content.
I'd be interested in knowing if others have tried this. What information has been useful to collect? Face identification is a big area my tool needs some work on. I want to group family/friends.
So. Jetzt. Bin ich zwar bei meiner Quest zur #Ollama #localAI etwas schlauer als vorher, aber dafür habe ich jetzt 3 (statt vorher 3) Optionen auf der Liste.
Ratet mir bitte mal… was würdet ihr kaufen?
1. Zwei gebrauchte #RTX 2080 Ti mit 11GB von eBay für je 200-250€
2. Zwei neue 3060 mit 12GB für je ~230€
3. Eine neue 5060 Ti mit 16GB für ~420€
4. Anderes, nämlich…?
🚀 New Ollama Model Release! 🚀
Model: embeddinggemma
🔗 https://ollama.com/library/embeddinggemma
Finding thousands of exposed Ollama instances using Shodan
https://blogs.cisco.com/security/detecting-exposed-llm-servers-shodan-case-study-on-ollama
#HackerNews#Finding#Exposed#Instances#Shodan#Ollama#Cybersecurity#SecurityResearch
🚀 New Ollama Model Release! 🚀
Model: embeddinggemma
🔗 https://ollama.com/library/embeddinggemma
Finding thousands of exposed Ollama instances using Shodan
https://blogs.cisco.com/security/detecting-exposed-llm-servers-shodan-case-study-on-ollama
#HackerNews#Finding#Exposed#Instances#Shodan#Ollama#Cybersecurity#SecurityResearch
Verständnisfrage: Ich habe #paperless_ngx auf meiner #Synology NAS installiert.
Ich habe #Ollama und #AnythingLLM auf meinem Desktop-Rechner installiert (aus Leistungsgründen, weil die Synology halt nicht so viel Leistung hat wie ein Desktop-Rechner).
Nun möchte ich #paperless_ai installieren. Wie kann ich das auf dem Desktop tun und mit dem bestehenden Ollama verbinden, damit ich nicht Gefahr laufe, nochmals Ollama auf der Synology NAS zu installieren?
#paperlessai
Aber mal im Ernst: Wieso sollte Verwaltung sowas einsetzen?
> Es liegt in der Natur der Sache, dass generative KI Halluzinationen entwickelt. Dies kann nicht verhindert werden.
> -- https://f13-os.de/faq/#hintergrund-zu-ki-sprachmodellen-und-die-datengrundlage-von-f13
Falsche Sache! Holzweg!