Discussion
Loading...

Post

Log in
  • About
  • Code of conduct
  • Privacy
  • Users
  • Instances
  • About Bonfire
Tim
Tim
@Testorakel@norden.social  ·  activity timestamp 2 days ago

Hat jemand Erfahrung mit externen Grafikkarten ( #eGPU per Thunterbolt angeschlossen) zur Beschleunigung der Inferenz von #KI Sprachmodellen 🤖💬 ( #LLM) in #Ollama unter #Linux?

Es fasziniert mich ja, was lokal alles möglich ist. Aber einen Mü flotter darf es gern sein…

Ich stelle mir das so vor: Ich möchte was lokal mit KI machen, also schalte ich kurz die eGPU ein, die an meiner Docking-Station hängt. Die KI rechnet und danach schalte ich sie wieder ab oder in den Energiesparmodus.

  • Copy link
  • Flag this post
  • Block
Sascha Pallenberg 🇹🇼 ♻️ ⚡
Sascha Pallenberg 🇹🇼 ♻️ ⚡
@pallenberg@mastodon.social replied  ·  activity timestamp yesterday

@Testorakel ich hab zwar ne eGPU an nem NUC mit Linux, aber nie Modelle drauf laufen gehabt.
Dafuer nutze ich nen Ascent GX10 mit der Blackwell GPU.

Wenn du nichts mit Grafik machen willst, dann empfehle ich dir echt nen Mac Mini zu nehmen. Lokale LLMs brauchen hohe Speicherbandbreiten. Mein M4 Pro mini dreht dabei Kreise um den Ascent!

  • Copy link
  • Flag this comment
  • Block

bonfire.cafe

A space for Bonfire maintainers and contributors to communicate

bonfire.cafe: About · Code of conduct · Privacy · Users · Instances
Bonfire social · 1.0.1 no JS en
Automatic federation enabled
Log in
  • Explore
  • About
  • Members
  • Code of Conduct