Reddit Apple-Silicon-Lagebild: Mac Studio, MLX und Cluster
Einleitung: In diesem Lagebild analysieren wir aktuelle Reddit-Beiträge zu Apple-Silicon, insbesondere Mac Studio, MLX und Cluster-Setups. Der Fokus liegt auf der Eignung dieser Hardware für OpenCode und Claude-Opus-Nähe.
[Running Qwen3.6-35B-A3B Locally for Coding Agent: My Setup & Working Config] (6/10) — OpenCode-Fit: BEDINGT
Verdict (1 Satz): Der Beitrag zeigt, dass Qwen3.6-35B-A3B auf einem MacBook Pro M2 Max 64 GB RAM lauffähig ist, aber für OpenCode-Einsätze mit 128k-Kontexten möglicherweise zu wenig RAM hat.
Hardware: MacBook Pro M2 Max 64 GB RAM
Modell: Qwen3.6-35B-A3B
tok/s-Claim: nicht im Post belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“ auf Mac Studio M3 Ultra 512 GB für bessere Performance und mehr RAM
Kontext (2-3 Saetze): Der User betreibt Qwen3.6-35B-A3B lokal auf einem MacBook Pro M2 Max mit 64 GB RAM. Er verwendet llama.cpp und pi coding agent für die Integration. Die Konfiguration ist detailliert beschrieben, aber es wird deutlich, dass 64 GB RAM für 128k-Kontexte nicht ausreichen.
[Realistic local LLM rig under $6500? Dev with heavy RAM needs] (5/10) — OpenCode-Fit: NEIN
Verdict (1 Satz): Der Beitrag diskutiert alternative Hardware-Optionen unter $6500, aber Mac Studio wird nur kurz erwähnt und ist nicht der Fokus.
Hardware: 2x 3090 oder 1x 5090 + 1x 3090, 128 GB DDR5 RAM
Modell: nicht spezifiziert
tok/s-Claim: nicht im Post belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“ auf spezifischere Apple-Silicon-Tests
Kontext (2-3 Saetze): Der User sucht nach einer kostengünstigen Lösung für lokale LLM-Arbeit unter $6500. Die Diskussion konzentriert sich auf NVIDIA-GPUs und RAM-Optimierungen, wobei Mac Studio nur kurz als Alternative erwähnt wird.
[7B showdown on 18GB (benchmark)] (7/10) — OpenCode-Fit: NEIN

Verdict (1 Satz): Der Benchmark zeigt, dass 18 GB RAM für 7-8B Modelle nicht ausreichen, was für OpenCode-Einsätze mit 128k-Kontexten problematisch ist.
Hardware: M3 Pro 18 GB RAM
Modell: qwen2.5-coder:7b, deepseek-r1:7b, mathstral:7b, qwen3:8b, granite3.2:8b
tok/s-Claim: nicht im Post belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“ auf Mac Studio M3 Ultra 512 GB für bessere RAM-Kapazität
Kontext (2-3 Saetze): Der User führt Benchmarks für verschiedene 7-8B Modelle auf einem M3 Pro mit 18 GB RAM durch. Die Ergebnisse zeigen, dass die RAM-Begrenzung die Performance erheblich einschränkt, insbesondere für denkende Modelle.
[How to best utilize local LLM give my hardware?] (5/10) — OpenCode-Fit: NEIN
Verdict (1 Satz): Der Beitrag diskutiert die Optimierung von Qwen 3.6 auf einem MacBook Pro M3 Max 64 GB RAM, aber die Performance ist für OpenCode-Einsätze mit 128k-Kontexten möglicherweise zu langsam.
Hardware: MacBook Pro M3 Max 64 GB RAM
Modell: Qwen 3.6
tok/s-Claim: nicht im Post belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“ auf Mac Studio M3 Ultra 512 GB für bessere Performance
Kontext (2-3 Saetze): Der User sucht nach Optimierungstipps für Qwen 3.6 auf einem MacBook Pro M3 Max 64 GB RAM. Die aktuellen Einstellungen führen zu langsamen Reaktionen, was für OpenCode-Einsätze problematisch sein könnte.
[Is there a way to load huge MoE models on a computer with way too little RAM for the model’s size, inferencing from the SSD, on LM Studio using the mmap/GPU/CPU layer customization thing (similar to how you can on llama.cpp)?] (6/10) — OpenCode-Fit: NEIN
Verdict (1 Satz): Der Beitrag diskutiert die Möglichkeit, große MoE-Modelle auf einem Mac mit wenig RAM zu laden, aber es wird deutlich, dass dies auf LM Studio schwierig ist.
Hardware: Mac mit unified memory
Modell: nicht spezifiziert
tok/s-Claim: nicht im Post belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“ auf spezifischere Apple-Silicon-Tests
Kontext (2-3 Saetze): Der User fragt, ob es möglich ist, große MoE-Modelle auf einem Mac mit wenig RAM zu laden, indem man die SSD als Speicher verwendet. Es wird beschrieben, dass dies auf llama.cpp möglich ist, aber auf LM Studio Schwierigkeiten auftreten.
[2x 512gb ram M3 Ultra mac studios] (8/10) — OpenCode-Fit: JA

Verdict (1 Satz): Der Beitrag zeigt, dass 2x Mac Studio M3 Ultra 512 GB RAM eine ausgezeichnete Wahl für OpenCode-Einsätze mit 128k-Kontexten ist.
Hardware: 2x Mac Studio M3 Ultra 512 GB RAM
Modell: DeepSeek V3.2 Q8, GLM 5.1 Q4
tok/s-Claim: nicht im Post belegt
Cluster-Bezug: Multi
Investment-Empfehlung: „Jetzt kaufen“ für Top-Performance und Claude-Opus-Nähe
Kontext (2-3 Saetze): Der User besitzt 2x Mac Studio M3 Ultra 512 GB RAM und testet verschiedene Modelle, darunter DeepSeek V3.2 Q8 und GLM 5.1 Q4. Die Hardware zeigt ausgezeichnete Performance, insbesondere für 128k-Kontexte.
[SOLVED! Was „Help needed: Ollama > qwen3.6 in OpenCode on 64Gb M4“] (7/10) — OpenCode-Fit: BEDINGT
Verdict (1 Satz): Der Beitrag zeigt, dass Qwen3.6-35B-A3B auf einem MacBook Pro M4 64 GB RAM lauffähig ist, aber für 128k-Kontexte möglicherweise zu wenig RAM hat.
Hardware: MacBook Pro M4 64 GB RAM
Modell: Qwen3.6-35B-A3B
tok/s-Claim: nicht im Post belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“ auf Mac Studio M3 Ultra 512 GB für bessere Performance und mehr RAM
Kontext (2-3 Saetze): Der User hatte Probleme mit Qwen3.6-35B-A3B auf einem MacBook Pro M4 64 GB RAM, die durch die Schließung von LM Studio und die Erhöhung des Kontextfensters auf 128K gelöst wurden. Die Performance ist für OpenCode-Einsätze mit 128k-Kontexten möglicherweise immer noch zu langsam.
[Choosing a Mac Mini for local LLMs — what would YOU actually buy?] (6/10) — OpenCode-Fit: NEIN
Verdict (1 Satz): Der Beitrag diskutiert die Wahl zwischen verschiedenen Mac Mini-Modellen, aber die RAM-Kapazität ist für OpenCode-Einsätze mit 128k-Kontexten möglicherweise zu gering.
Hardware: M4 (32GB), M2 Pro (32GB), M1 Max (64GB)
Modell: nicht spezifiziert
tok/s-Claim: nicht im Post belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“ auf Mac Studio M3 Ultra 512 GB für bessere Performance und mehr RAM
Kontext (2-3 Saetze): Der User sucht nach Empfehlungen für einen Mac Mini zur lokalen LLM-Arbeit. Es wird diskutiert, ob man auf den M5 Mac Mini warten oder einen der aktuellen Modelle kaufen sollte. Die RAM-Kapazität der aktuellen Modelle ist für OpenCode-Einsätze mit 128k-Kontexten möglicherweise zu gering.
[Need suggestions] (5/10) — OpenCode-Fit: NEIN
Verdict (1 Satz): Der Beitrag diskutiert die Wahl eines Mac Studio für lokale LLM-Arbeit, aber die RAM-Kapazität ist für OpenCode-Einsätze mit 128k-Kontexten möglicherweise zu gering.
Hardware: Mac Studio
Modell: nicht spezifiziert
tok/s-Claim: nicht im Post belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“ auf Mac Studio M3 Ultra 512 GB für bessere Performance und mehr RAM
Kontext (2-3 Saetze): Der User sucht nach Empfehlungen für einen Mac Studio zur lokalen LLM-Arbeit, insbesondere für Datenanalyse und agenteingeführtes Codieren. Die RAM-Kapazität der aktuellen Modelle ist für OpenCode-Einsätze mit 128k-Kontexten möglicherweise zu gering.
Weitere Beiträge:
– GMKTEC EVO-X2 Ryzen AI Max+
– MLX’s gone today in newest LM Studio
– Anyone here actually using voice input in their local AI workflows?