Reddit Apple-Silicon-Lagebild: Mac Studio, MLX und Cluster
In dieser Zusammenfassung analysieren wir aktuelle Reddit-Beiträge zu Apple-Silicon-KI, Mac Studio, MLX und EXO-Cluster. Der Fokus liegt auf der Frage, ob und wie ein Apple-Silicon-Cluster für den Einsatz von Claude-Opus und OpenCode geeignet ist. Die Beiträge werden nach ihrer Relevanz, den bereitgestellten Zahlen und ihrer Eignung für OpenCode bewertet.
[Built a tiny CLI for Apple’s local AI runtime on Mac] (3/10) — OpenCode-Fit: NEIN
Verdict (1 Satz): Ein interessantes Projekt, aber ohne direkte Relevanz für Mac-Studio-Kauf oder OpenCode.
Hardware: Mac
Modell: nicht belegt
tok/s-Claim: nicht belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“
Kontext (2-3 Saetze): Der Beitrag stellt eine kleine Swift-CLI vor, die Apples lokale AI-Runtime nutzt. Es gibt keine spezifischen Benchmarks oder Performance-Zahlen, die für den Einsatz von OpenCode relevant wären.
[Humanity’s Last Hackathon – Use Codex from OpenAI to build Mac Metal kernels] (5/10) — OpenCode-Fit: BEDINGT

Verdict (1 Satz): Interessante Initiative, aber ohne direkte Benchmarks für Apple-Silicon.
Hardware: Mac
Modell: nicht belegt
tok/s-Claim: nicht belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“
Kontext (2-3 Saetze): Der Beitrag beschreibt ein Hackathon, bei dem Codex von OpenAI verwendet wird, um Mac Metal-Kernels zu optimieren. Es gibt keine spezifischen Benchmarks oder Performance-Zahlen, die für den Einsatz von OpenCode relevant wären.
[Anyone tried Qwen 3.6 27b on the r9700 yet?] (6/10) — OpenCode-Fit: BEDINGT
Verdict (1 Satz): Nutzbar, aber langsamer als CUDA. Interessante Optimierungsmöglichkeiten.
Hardware: r9700
Modell: Qwen 3.6 27B
tok/s-Claim: ~30 tok/s, ~21 tok/s
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“
Kontext (2-3 Saetze): Der Beitrag diskutiert die Performance von Qwen 3.6 27B auf einem r9700. Es werden spezifische tok/s-Werte und Optimierungsmöglichkeiten erwähnt, die für den Einsatz von OpenCode relevant sein könnten.
[An attempt to unify all compute devices at one’s disposal and run local models – smolcluster] (7/10) — OpenCode-Fit: BEDINGT

Verdict (1 Satz): Versprechendes Projekt zur Verteilung von LLMs auf verschiedene Geräte, einschließlich Macs.
Hardware: Mac Minis, NVIDIA GPUs
Modell: nicht belegt
tok/s-Claim: nicht belegt
Cluster-Bezug: Multi
Investment-Empfehlung: „Jetzt kaufen“
Kontext (2-3 Saetze): Der Beitrag stellt ein Projekt vor, das die Verteilung von LLMs auf verschiedene Geräte ermöglicht, einschließlich Macs. Es gibt keine spezifischen Benchmarks, aber die Idee ist interessant und könnte für OpenCode nützlich sein.
[Qwen 35B-A3B as an always-on agentic loop on a 16GB Mac M4: disk became the bottleneck before RAM] (7/10) — OpenCode-Fit: BEDINGT
Verdict (1 Satz): Diskontention kann ein Problem sein, aber die Hardware ist für batch-Verarbeitung geeignet.
Hardware: Mac M4 Mini, 16GB
Modell: Qwen 3.5 35B-A3B
tok/s-Claim: ~17 tok/s
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“
Kontext (2-3 Saetze): Der Beitrag beschreibt die Erfahrungen mit Qwen 3.5 35B-A3B auf einem 16GB Mac M4 Mini. Die Diskontention wurde als Hauptproblem identifiziert, aber die RAM-Verwendung war in Ordnung.
[Just got a beast.] (4/10) — OpenCode-Fit: NEIN
Verdict (1 Satz): Obwohl die Hardware beeindruckend ist, eignet sie sich nicht für moderne AI-Workloads.
Hardware: Mac Pro 2019, 1.5 TB RAM, 128GB VRAM, 28-Core
Modell: nicht belegt
tok/s-Claim: nicht belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Rechnet sich nicht“
Kontext (2-3 Saetze): Der Beitrag beschreibt eine beeindruckende Mac Pro 2019, die jedoch aufgrund der veralteten Architektur und der langsamen Speicherbandbreite nicht für moderne AI-Workloads geeignet ist.
[Guys this is so fun!] (5/10) — OpenCode-Fit: BEDINGT
Verdict (1 Satz): Interessante Modelle, aber ohne spezifische Benchmarks für Apple-Silicon.
Hardware: MacBook Air, RTX Pro 6000
Modell: Qwen 3.5 9B, Qwen 3.6 27B, 35B A3B, Llamas
tok/s-Claim: nicht belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“
Kontext (2-3 Saetze): Der Beitrag beschreibt die Freude an der Verwendung verschiedener LLMs auf verschiedenen Geräten. Es gibt keine spezifischen Benchmarks, die für den Einsatz von OpenCode relevant wären.
[Local vs Cloud LLMs… are we pretending it’s one or the other?] (6/10) — OpenCode-Fit: BEDINGT

Verdict (1 Satz): Lokale LLMs sind großartig für Entwicklungs- und Testzwecke, aber für skalierbare und zuverlässige Anwendungen ist die Cloud notwendig.
Hardware: nicht belegt
Modell: nicht belegt
tok/s-Claim: nicht belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“
Kontext (2-3 Saetze): Der Beitrag diskutiert die Vor- und Nachteile von lokalen und cloudbasierten LLMs. Lokale LLMs sind gut für Entwicklungs- und Testzwecke, aber die Cloud bietet Skalierbarkeit und Zuverlässigkeit.
[The 4B class of 2026 (benchmark)] (7/10) — OpenCode-Fit: BEDINGT

Verdict (1 Satz): Interessante Benchmarks, aber ohne direkte Relevanz für Apple-Silicon.
Hardware: 18GB M3 Pro
Modell: Gemma 4, Qwen 3.5, Granite 4, Nemotron 3 Nano, Phi 4 Mini
tok/s-Claim: nicht belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“
Kontext (2-3 Saetze): Der Beitrag präsentiert Benchmarks für verschiedene 4B-Modelle auf einem 18GB M3 Pro. Es gibt keine spezifischen Benchmarks für Apple-Silicon, aber die Ergebnisse sind interessant.
[What kind of inference speeds am I looking at?] (5/10) — OpenCode-Fit: BEDINGT

Verdict (1 Satz): Vergleich zwischen Apple-Silicon und NVIDIA, aber ohne spezifische Zahlen.
Hardware: nicht belegt
Modell: nicht belegt
tok/s-Claim: nicht belegt
Cluster-Bezug: Single
Investment-Empfehlung: „Warten“
Kontext (2-3 Saetze): Der Beitrag stellt eine Frage zur Performance von Apple-Silicon im Vergleich zu NVIDIA-GPUs. Es gibt keine spezifischen Benchmarks, aber die Diskussion ist relevant.
[MacBook Neo cluster computer?] (4/10) — OpenCode-Fit: NEIN
Verdict (1 Satz): Interessante Idee, aber ohne praktische Benchmarks.
Hardware: MacBook Neo
Modell: nicht belegt
tok/s-Claim: nicht belegt
Cluster-Bezug: Multi
Investment-Empfehlung: „Warten“
Kontext (2-3 Saetze): Der Beitrag diskutiert die Möglichkeit, einen Cluster aus MacBook Neos zu bauen. Es gibt keine spezifischen Benchmarks oder Performance-Zahlen, die für den Einsatz von OpenCode relevant wären.
Weitere Beiträge:
– Built a tiny CLI for Apple’s local AI runtime on Mac
– Humanity’s Last Hackathon – Use Codex from OpenAI to build Mac Metal kernels
– Anyone tried Qwen 3.6 27b on the r9700 yet?
– An attempt to unify all compute devices at one’s disposal and run local models – smolcluster
– Qwen 35B-A3B as an always-on agentic loop on a 16GB Mac M4: disk became the bottleneck before RAM
– Just got a beast.
– Guys this is so fun!
– Local vs Cloud LLMs… are we pretending it’s one or the other?
– The 4B class of 2026 (benchmark)
– What kind of inference speeds am I looking at?
– MacBook Neo cluster computer?