Discussion
Loading...

#Tag

Log in
  • About
  • Code of conduct
  • Privacy
  • Users
  • Instances
  • About Bonfire
Jeffry Samuel
Jeffry Samuel
@jeffser@floss.social  ·  activity timestamp 11 months ago

Alpaca 6 is coming out this weekend!

- Speech Recognition
- Tools for models to extract data offline and/or online
- Compatibility with Microsoft Office documents (docx, pptx, xlsx)
- Lots more stuff!

Full Release Notes: https://github.com/Jeffser/Alpaca/discussions/678

Sorry, no caption provided by author
Sorry, no caption provided by author
Sorry, no caption provided by author
GitHub

✨ Alpaca 6: Tools, Speech Recognition and More! ✨ · Jeffser Alpaca · Discussion #678

Hi everyone I've prepared a great update, I hope you guys enjoy all the new features! Release Date: April 12, 2025 New Smart Tools for Models Tools are functions that compatible models can call to ...
devSJR :python: :rstats:
devSJR :python: :rstats:
@devSJR@fosstodon.org  ·  activity timestamp 9 hours ago

@jeffser I just had a look and noticed that you are already had + 109 releases 💪 and reached #Alpaca 9 series. 🥳

https://github.com/Jeffser/Alpaca/releases

Time for an update here? 🙂

#ollama #llm

Screenshot from Alpaca. Source https://camo.githubusercontent.com/85bc67a786def7747293e400c5c915e6c804b7545059e7701cb2cdaa9230b135/68747470733a2f2f6a6566667365722e636f6d2f696d616765732f616c706163612f73637265656e6965312e706e67
Screenshot from Alpaca. Source https://camo.githubusercontent.com/85bc67a786def7747293e400c5c915e6c804b7545059e7701cb2cdaa9230b135/68747470733a2f2f6a6566667365722e636f6d2f696d616765732f616c706163612f73637265656e6965312e706e67
Screenshot from Alpaca. Source https://camo.githubusercontent.com/85bc67a786def7747293e400c5c915e6c804b7545059e7701cb2cdaa9230b135/68747470733a2f2f6a6566667365722e636f6d2f696d616765732f616c706163612f73637265656e6965312e706e67
  • Copy link
  • Flag this comment
  • Block
Cory Doctorow
Cory Doctorow
@pluralistic@mamot.fr  ·  activity timestamp last week

@FediThing @tante This is the use-case that is under discussion.

https://pluralistic.net/2026/02/19/now-we-are-six/

There is one technology that has made my POSSE life better, and it might surprise you. This year, I installed Ollama – an open-source LLM – on my laptop. It runs pretty well, even without a GPU. Every day, before I run Loren's python publication scripts, I run the text through Ollama as a typo-catcher (my prompt is "find typos"). Ollama always spots three or four of these, usually stuff like missing punctuation, or forgotten words, or double words ("the the next thing") or typos that are still valid words ("of top of everything else").
There is one technology that has made my POSSE life better, and it might surprise you. This year, I installed Ollama – an open-source LLM – on my laptop. It runs pretty well, even without a GPU. Every day, before I run Loren's python publication scripts, I run the text through Ollama as a typo-catcher (my prompt is "find typos"). Ollama always spots three or four of these, usually stuff like missing punctuation, or forgotten words, or double words ("the the next thing") or typos that are still valid words ("of top of everything else").
There is one technology that has made my POSSE life better, and it might surprise you. This year, I installed Ollama – an open-source LLM – on my laptop. It runs pretty well, even without a GPU. Every day, before I run Loren's python publication scripts, I run the text through Ollama as a typo-catcher (my prompt is "find typos"). Ollama always spots three or four of these, usually stuff like missing punctuation, or forgotten words, or double words ("the the next thing") or typos that are still valid words ("of top of everything else").
https://pluralistic.net

Pluralistic: Six Years of Pluralistic (19 Feb 2026)

gittaca
gittaca
@gittaca@chaos.social  ·  activity timestamp 5 days ago

@pluralistic @FediThing @tante Isn't there also an argument to be made about "kWh per task"?
Each kWh has both externalities and wears down your own hardware.

#LanguageTool locally (for example; in my tests; https://dev.languagetool.org/http-server) checks spelling & grammar just fine, quicker and without noticeably draining laptop battery, like #Ollama does.

Would you mind sharing that "small" LLM's ID?

  • Copy link
  • Flag this comment
  • Block
informapirata ⁂ :privacypride: boosted
Giacomo Tesio
Giacomo Tesio
@giacomo@snac.tesio.it  ·  activity timestamp last week

Veramente un buon articolo divulgativo sul funzionamento interno dei #LLM.

Code is Data <=> Data is Code

L'unico errore informatico, purtroppo molto comune, è questo passaggio relativo al modello:
Lo apro dal terminale con xxd, lo stesso approccio che userei per qualsiasi binario. Non è codice eseguibile, è un formato dati.
In realtà, sia a livello teorico che pratico, ogni dato è codice eseguibile per almeno una macchina di #Turing. Quello che viene pomposamente definito "motore inferenziale" (nel caso specifico, LLama.cpp eseguito tramite #Ollama) non è altro che una macchina virtuale programmabile statisticamente che esegue un software espresso in forma matriciale, ovvero il modello.

Tale macchina virtuale non fa altro che mappare meccanicamente (e iterativamente) un punto su spazio vettoriale multidimensionale (descritto dagli embedding dei token del prompt) in un punto di uno spazio vettoriale più piccolo (descritto dall'embedding del token più plausibile in output).

D'altro canto, anche l'autore intuisce che si tratta di un software eseguito da una macchina virtuale a sua volta eseguita sul suo computer quando scrive
Per fare un esempio concreto, ho chiesto a Llama 3.1 (8B, quello che gira sul mio Mac con Ollama)".
Esatto il modello "gira". Viene eseguito.
Perché è un software codificato in una matrice per una architettura custom (non x86_64 o ARMv8, ma llama.cpp).
E il sorgente di quel software sono i testi utilizzati durante il processo di compilazione (impropriamente detto "training").

Né probabilità né "predizioni"

Anche parlare di "distribuzione di probabilità", a valle dei vari passaggi di "normalizzazione" è matematicamente errato: non si tratta di una distribuzione di probabilità, perché se andassimo a misurare nei testi utilizzati come sorgente per la compilazione del modello la frequenza in cui al prompt segue il nuovo token, nella maggioranza dei prompt non troveremmo alcun caso.
Anche questo errore, purtroppo, è dannatamente diffuso.

E' però funzionale a supportare il framework interpretativo del cosiddetto "algoritmo predittivo", mentre un LLM non predice alcunché: non c'è infatti alcun fenomeno esterno al calcolo con cui confrontare la correttezza della previsione. Per questo è tecnicamente insensato parlare di allucinazioni (oltre ad essere allucinante di per sé, perché proietta un'esperienza umana con conseguenze sociali che generano compassione, sul calcolo effettuato da una macchina).

Errori di calcolo... e interpretativi

Vi è poi una lacuna nel ragionamento che invalida le conclusioni (più precisamente la sezione 10, sul "perché funzionano"): la natura iterativa del processo di calcolo, secondo cui ogni token in output viene integrato nella sequenza di input (il prompt) e utilizzato per calcolare il token successivo, unito alla natura probabilistica del calcolo, determina un costante accumulo degli errori.

Le mitigazioni proposte, come l'uso di contenuti aggiuntivi nel RAG o, nel caso di agenti, la possibilità di integrare nell'input l'output di altri tool, non fa altro che aumentare la percentuale "grounded" del contesto (prompt "grounded" + documenti RAG "grounded" + output precedente del LLM "ungrounded" + output dei tool deterministici "grounded") durante il calcolo del prossimo token plausibile (non probabile).

Per intenderci, quando l'autore parla del sistema di agenti del suo Parrhesepstein scrive
Il fact-checker automatico produce un punteggio: verde sopra l'80%, giallo sopra il 50%, rosso sotto. Così sai quanto fidarti.
è vittima di un'allucinazione: ciascun agente produce un output ottimizzato per essere plausibile quando interpretato dall'uomo, ma prescinde completamente dalla comprensione dei testi in input.
Dunque il fatto che il fact-checker dica 97% non implica che l'output dell'agente sia corretto al 97% o che abbia una probabilità del 97%, ma solo che un essere umano troverebbe plausibile quel numero come proseguimento del testo fornitogli in input.

In altri termini, non "sai quando fidarti", ma "è plausibile che leggendo quel numero tu ti fida della sua correttezza (non necessariamente della correttezza di tutto il resto)".

In altri termini, proprio a causa della sua architettura, non puoi mai fidarti dell'output di un LLM.

Strumenti "nuovi"

Infine l'autore scrive:
Un LLM con ... è uno strumento che non esisteva cinque anni fa.
La differenza non è nel modello, è in come lo usi.
Formalmente ha ragione.

Un LLM è uno strumento che non esisteva cinque anni fa. Ed è vero che può essere usato ogni qual volta non è necessario che un testo abbia significato, ma deve apparire plausibile quando interpretato da un essere umano.

Il problema è che può essere usato solo per quello.

SOLO se il suo output può non avere alcun significato.

In pratica, è un generatore di Lorem ipsum a tema.

CC: @informapirata@mastodon.uno

GitHub

GitHub - ggml-org/llama.cpp: LLM inference in C/C++

LLM inference in C/C++. Contribute to ggml-org/llama.cpp development by creating an account on GitHub.

Come Pensa la Macchina | Signal Pirate

Smontare un LLM pezzo per pezzo. Tokenizzazione, embeddings, attention, transformer e hallucinations. Ollama in locale, math pesante, zero fuffa.
GitHub

GitHub - Pinperepette/parrhesepstein: Speaking truth without fear

Speaking truth without fear. Contribute to Pinperepette/parrhesepstein development by creating an account on GitHub.
  • Copy link
  • Flag this post
  • Block
Andre123
Andre123
@andre123@snowfan.it  ·  activity timestamp last week

Dall'articolo (meraviglioso, l'ho divorato)
postato da @informapirata

" Come pensa la macchina:un LLM smontato pezzo per pezzo "

(Cit.)
>>ogni token generato è un lancio di dado. La "intelligenza" apparente dell'output è il risultato di miliardi di parametri calibrati per dare i pesi giusti al dado. Ma resta un dado. Non c'è ragionamento, non c'è pianificazione, non c'è verifica. Il modello non "sa" che la prossima parola è giusta. Sa che è probabile. E probabile non significa corretto.
_____________

Una AI non capisce nulla. Dunque di intelligenza non ce n'è. E' un sofisticato lanciatore di dadi, un velocissimo calcolatore di probabilità che assembla testo non perchè capisce di cosa "parla", ma solo scegliendo parole da accodare una all'altra tramite calcoli di probabilità guidati da regolette.

Traduco in modo più semplice: non ci capisce una mazza di quel che scrive, ma ha un sistema per generare testi plausibili , scegliendo una dopo l'altra parole che accostate, probabilmente (!) , hanno un senso. Talvolta ci azzecca. Tutto qui.

Quindi ti da l'impressione di "sapere", di "capire" ecc., ma in realtà stai parlando con uno che letteralmente da i numeri, pesando quei numeri per sembrare ragionevole. MA non ci sta comunque capendo una beatissima mazza.

Leggetelo, è ultra comprensibile e spiega tanto sulle "AI" in modo semplice.

Giacomo Tesio
Giacomo Tesio
@giacomo@snac.tesio.it  ·  activity timestamp last week

Veramente un buon articolo divulgativo sul funzionamento interno dei #LLM.

Code is Data <=> Data is Code

L'unico errore informatico, purtroppo molto comune, è questo passaggio relativo al modello:
Lo apro dal terminale con xxd, lo stesso approccio che userei per qualsiasi binario. Non è codice eseguibile, è un formato dati.
In realtà, sia a livello teorico che pratico, ogni dato è codice eseguibile per almeno una macchina di #Turing. Quello che viene pomposamente definito "motore inferenziale" (nel caso specifico, LLama.cpp eseguito tramite #Ollama) non è altro che una macchina virtuale programmabile statisticamente che esegue un software espresso in forma matriciale, ovvero il modello.

Tale macchina virtuale non fa altro che mappare meccanicamente (e iterativamente) un punto su spazio vettoriale multidimensionale (descritto dagli embedding dei token del prompt) in un punto di uno spazio vettoriale più piccolo (descritto dall'embedding del token più plausibile in output).

D'altro canto, anche l'autore intuisce che si tratta di un software eseguito da una macchina virtuale a sua volta eseguita sul suo computer quando scrive
Per fare un esempio concreto, ho chiesto a Llama 3.1 (8B, quello che gira sul mio Mac con Ollama)".
Esatto il modello "gira". Viene eseguito.
Perché è un software codificato in una matrice per una architettura custom (non x86_64 o ARMv8, ma llama.cpp).
E il sorgente di quel software sono i testi utilizzati durante il processo di compilazione (impropriamente detto "training").

Né probabilità né "predizioni"

Anche parlare di "distribuzione di probabilità", a valle dei vari passaggi di "normalizzazione" è matematicamente errato: non si tratta di una distribuzione di probabilità, perché se andassimo a misurare nei testi utilizzati come sorgente per la compilazione del modello la frequenza in cui al prompt segue il nuovo token, nella maggioranza dei prompt non troveremmo alcun caso.
Anche questo errore, purtroppo, è dannatamente diffuso.

E' però funzionale a supportare il framework interpretativo del cosiddetto "algoritmo predittivo", mentre un LLM non predice alcunché: non c'è infatti alcun fenomeno esterno al calcolo con cui confrontare la correttezza della previsione. Per questo è tecnicamente insensato parlare di allucinazioni (oltre ad essere allucinante di per sé, perché proietta un'esperienza umana con conseguenze sociali che generano compassione, sul calcolo effettuato da una macchina).

Errori di calcolo... e interpretativi

Vi è poi una lacuna nel ragionamento che invalida le conclusioni (più precisamente la sezione 10, sul "perché funzionano"): la natura iterativa del processo di calcolo, secondo cui ogni token in output viene integrato nella sequenza di input (il prompt) e utilizzato per calcolare il token successivo, unito alla natura probabilistica del calcolo, determina un costante accumulo degli errori.

Le mitigazioni proposte, come l'uso di contenuti aggiuntivi nel RAG o, nel caso di agenti, la possibilità di integrare nell'input l'output di altri tool, non fa altro che aumentare la percentuale "grounded" del contesto (prompt "grounded" + documenti RAG "grounded" + output precedente del LLM "ungrounded" + output dei tool deterministici "grounded") durante il calcolo del prossimo token plausibile (non probabile).

Per intenderci, quando l'autore parla del sistema di agenti del suo Parrhesepstein scrive
Il fact-checker automatico produce un punteggio: verde sopra l'80%, giallo sopra il 50%, rosso sotto. Così sai quanto fidarti.
è vittima di un'allucinazione: ciascun agente produce un output ottimizzato per essere plausibile quando interpretato dall'uomo, ma prescinde completamente dalla comprensione dei testi in input.
Dunque il fatto che il fact-checker dica 97% non implica che l'output dell'agente sia corretto al 97% o che abbia una probabilità del 97%, ma solo che un essere umano troverebbe plausibile quel numero come proseguimento del testo fornitogli in input.

In altri termini, non "sai quando fidarti", ma "è plausibile che leggendo quel numero tu ti fida della sua correttezza (non necessariamente della correttezza di tutto il resto)".

In altri termini, proprio a causa della sua architettura, non puoi mai fidarti dell'output di un LLM.

Strumenti "nuovi"

Infine l'autore scrive:
Un LLM con ... è uno strumento che non esisteva cinque anni fa.
La differenza non è nel modello, è in come lo usi.
Formalmente ha ragione.

Un LLM è uno strumento che non esisteva cinque anni fa. Ed è vero che può essere usato ogni qual volta non è necessario che un testo abbia significato, ma deve apparire plausibile quando interpretato da un essere umano.

Il problema è che può essere usato solo per quello.

SOLO se il suo output può non avere alcun significato.

In pratica, è un generatore di Lorem ipsum a tema.

CC: @informapirata@mastodon.uno

GitHub

GitHub - ggml-org/llama.cpp: LLM inference in C/C++

LLM inference in C/C++. Contribute to ggml-org/llama.cpp development by creating an account on GitHub.

Come Pensa la Macchina | Signal Pirate

Smontare un LLM pezzo per pezzo. Tokenizzazione, embeddings, attention, transformer e hallucinations. Ollama in locale, math pesante, zero fuffa.
GitHub

GitHub - Pinperepette/parrhesepstein: Speaking truth without fear

Speaking truth without fear. Contribute to Pinperepette/parrhesepstein development by creating an account on GitHub.
  • Copy link
  • Flag this comment
  • Block
Hacker News
Hacker News
@h4ckernews@mastodon.social  ·  activity timestamp last month

First Claude Code client for Ollama local models

https://github.com/21st-dev/1code

#HackerNews #Claude #Code #Ollama #local #models #AI #development #GitHub

GitHub

GitHub - 21st-dev/1code: Better UI app for running code agents in parallel (ClaudeCode, OpenCode, Codex)

Better UI app for running code agents in parallel (ClaudeCode, OpenCode, Codex) - 21st-dev/1code
  • Copy link
  • Flag this post
  • Block
Tim
Tim
@Testorakel@norden.social  ·  activity timestamp last month

Hat jemand Erfahrung mit externen Grafikkarten ( #eGPU per Thunterbolt angeschlossen) zur Beschleunigung der Inferenz von #KI Sprachmodellen 🤖💬 ( #LLM) in #Ollama unter #Linux?

Es fasziniert mich ja, was lokal alles möglich ist. Aber einen Mü flotter darf es gern sein…

Ich stelle mir das so vor: Ich möchte was lokal mit KI machen, also schalte ich kurz die eGPU ein, die an meiner Docking-Station hängt. Die KI rechnet und danach schalte ich sie wieder ab oder in den Energiesparmodus.

  • Copy link
  • Flag this post
  • Block
JJ Celery
JJ Celery
@jjcelery@mastodon.ie  ·  activity timestamp 2 months ago

I saw LLMs compared to a drug in this toot, but in conversation with Himself today we concluded it's like a cursed amulet.

You *believe* it gives you +10 INT. Meanwhile it drains INT and WIS over time, and you don't notice.

Everyone around you knows it's bad for you and generally for the realm, but you won't stop wearing it, they're just jelous of your newfound powers, and they would know how awesome it is if they only tried! Why won't they try? Just try the amulet!!

https://mastodon.social/@glyph/115839163441384816

luna system :moon_badge:
luna system :moon_badge:
@luna@post.airsi.de  ·  activity timestamp 2 months ago

@jjcelery@mastodon.ie the problem is, MI isn't like a drug. it's actually very much like a prosthetic. that's why so many of us are "infected". we're making concessions (using corporate MI services) but the results are too valuable to care about that right now. #ai #llm #ollama #self-hosted #cc0 #public-domain #machine-learning #meshtastic #ipfs #machine-intelligence #consciousness-research

  • Copy link
  • Flag this comment
  • Block
Hacker News
Hacker News
@h4ckernews@mastodon.social  ·  activity timestamp 2 months ago

Cover letter generator with Ollama/local LLMs (Open source)

https://www.coverlettermaker.co

#HackerNews #CoverLetterGenerator #Ollama #LLMs #OpenSource #AItools

  • Copy link
  • Flag this post
  • Block
Marcus Jaschen
Marcus Jaschen
@mjaschen@mastodon.social  ·  activity timestamp 2 months ago

Wochenrückblick, Ausgabe 122 (2025-52)

Themen:

🐔 Heizung für den Hühnerstall

🗺️ Drohnen-Sperrgebiete in Deutschland

🌐 Nach nur einer Woche: zurück zu Firefox

🗺️ Neue Features für Bikerouter

📸 Bildbeschreibungen erstellen mit ollama und qwen3-vl

#Wochenrückblick #Hühner #Heizung #Bikerouter #Firefox #ollama #qwen

https://www.marcusjaschen.de/blog/2025/2025-52/

Marcus Jaschen

Rückblick Kalenderwoche 2025-52

🐔 Heizung für den Hühnerstall 🗺️ Drohnen-Sperrgebiete in Deutschland 🌐 Nach nur einer Woche: zurück zu Firefox 🗺️ Neue Features für Bikerouter 📸 Bildbeschreibungen erstellen mit ollama und qwen3-vl
https://mastodon.social/tags/H%C3%BChner
https://mastodon.social/tags/Wochenr%C3%BCckblick
  • Copy link
  • Flag this post
  • Block
Scott Jenson
Scott Jenson
@scottjenson@social.coop  ·  activity timestamp 3 months ago

#Linux saga part 3
I finally have Ubuntu 25 running on my Intel NUC and have the GPU working!

But the entire reason was to install CasaOS so I could "run local network stuff" so I have a cool new local file server, which is very nice.

But I've also learned the trials and tribulations of running things in #docker. I wanted to run #Ollama in #CasaOS but it just couldn't see the GPU.

So... I'm just running ollama from the terminal as a system service, with GPU

Much...painful learning

  • Copy link
  • Flag this post
  • Block
gittaca
gittaca
@gittaca@chaos.social  ·  activity timestamp 4 months ago

@ankoeln @muellertadzio Insb. noch zu 1.: Aufgaben, die zuvor auf'm eigenen PC _deterministisch_ und Strom-effizient gemacht wurden (oder halt im Hirn), werden nun in fossil-gepowerte Rate(!)zentren verschoben. Wie mit dem SUV von Haustür zum Gartenzaun zu fahren, um dort den Briefkasten zu leeren.

gittaca
gittaca
@gittaca@chaos.social  ·  activity timestamp 4 months ago

@ankoeln @muellertadzio Ein mglw. relevanter LLM-Skill mag das selber-Hosten auf eigener Hardware sein. Geht auch für Schönschreibtools.

Dabei helfe ich im Sinne der von Herrn Matzat geforderten "Auseinandersetzung mit der Technologie" gerne, denn mit dem Punkt [wir sollten] "zugewandt, freundlich, hilfsbereit und geduldig agieren" hat er natürlich Recht.

#Ollama #Devstral #LanguageTool

  • Copy link
  • Flag this comment
  • Block
Mike Gifford, CPWA
Mike Gifford, CPWA
@mgifford@mastodon.social  ·  activity timestamp 4 months ago

I started a little python project to take my ~20 years of #Flickr photos, categorize them and analyze the content using #ollama locally. So far the results are pretty good. Some hallucinations, but mostly useful content.

I'd be interested in knowing if others have tried this. What information has been useful to collect? Face identification is a big area my tool needs some work on. I want to group family/friends.

  • Copy link
  • Flag this post
  • Block
M Schommer
M Schommer
@musevg@chaos.social  ·  activity timestamp 5 months ago

So. Jetzt. Bin ich zwar bei meiner Quest zur #Ollama #localAI etwas schlauer als vorher, aber dafür habe ich jetzt 3 (statt vorher 3) Optionen auf der Liste.
Ratet mir bitte mal… was würdet ihr kaufen?
1. Zwei gebrauchte #RTX 2080 Ti mit 11GB von eBay für je 200-250€
2. Zwei neue 3060 mit 12GB für je ~230€
3. Eine neue 5060 Ti mit 16GB für ~420€
4. Anderes, nämlich…?

  • Copy link
  • Flag this post
  • Block
Tim Chambers boosted
sayzard
sayzard
@sayzard@mastodon.sayzard.site  ·  activity timestamp 6 months ago

🚀 New Ollama Model Release! 🚀
Model: embeddinggemma
🔗 https://ollama.com/library/embeddinggemma

#Ollama#AI#LLM #mcpo

  • Copy link
  • Flag this post
  • Block
Tim Chambers boosted
Hacker News
Hacker News
@h4ckernews@mastodon.social  ·  activity timestamp 6 months ago

Finding thousands of exposed Ollama instances using Shodan

https://blogs.cisco.com/security/detecting-exposed-llm-servers-shodan-case-study-on-ollama

#HackerNews#Finding#Exposed#Instances#Shodan#Ollama#Cybersecurity#SecurityResearch

  • Copy link
  • Flag this post
  • Block
Tim Chambers boosted
Matt Williams
Matt Williams
@technovangelist@fosstodon.org  ·  activity timestamp 6 months ago
#ollama's adding a UI! 🤯 The CLI/API champions are bringing a polished interface. Perfect for new users who want a simple, single-install experience. #ollama #ai#localAIhttps://youtu.be/prrWESXl7wg
  • Copy link
  • Flag this post
  • Block
sayzard
sayzard
@sayzard@mastodon.sayzard.site  ·  activity timestamp 6 months ago

🚀 New Ollama Model Release! 🚀
Model: embeddinggemma
🔗 https://ollama.com/library/embeddinggemma

#Ollama#AI#LLM #mcpo

  • Copy link
  • Flag this post
  • Block
Matt Williams
Matt Williams
@technovangelist@fosstodon.org  ·  activity timestamp 6 months ago
#ollama's adding a UI! 🤯 The CLI/API champions are bringing a polished interface. Perfect for new users who want a simple, single-install experience. #ollama #ai#localAIhttps://youtu.be/prrWESXl7wg
  • Copy link
  • Flag this post
  • Block
Hacker News
Hacker News
@h4ckernews@mastodon.social  ·  activity timestamp 6 months ago

Finding thousands of exposed Ollama instances using Shodan

https://blogs.cisco.com/security/detecting-exposed-llm-servers-shodan-case-study-on-ollama

#HackerNews#Finding#Exposed#Instances#Shodan#Ollama#Cybersecurity#SecurityResearch

  • Copy link
  • Flag this post
  • Block
Mikko Lehtovirta
Mikko Lehtovirta
@drml@mastodontti.fi  ·  activity timestamp 6 months ago
@rolle kun olet #ollama käyttäjä niin olisin kysynyt: kuinka "local" ollama siis perusasetuksilla on. Asensin juuri viimeisimmän päivityksen ja otin käyttöön sen gpt-oss:20b:n mutta jotenkin noista asetuksista saan vaikutelman että se kommunikoisi netin kanssa paitsi jos laitan "lentokonetilan" päälle?
  • Copy link
  • Flag this post
  • Block

bonfire.cafe

A space for Bonfire maintainers and contributors to communicate

bonfire.cafe: About · Code of conduct · Privacy · Users · Instances
Bonfire social · 1.0.2-alpha.34 no JS en
Automatic federation enabled
Log in
Instance logo
  • Explore
  • About
  • Members
  • Code of Conduct