Qwen3.6-27B-INT4 clocking 100 tps with 256k context length on 1x RTX 5090 via vllm 0.19 (9/10)

![Vorschau](https://www.redditstatic.com/shreddit/assets/favicon/192x192.png) ## Qwen3.6-27B-INT4 clocking 100 tps with 256k context length on 1x RTX 5090 via vllm 0.19 (9/10) **Bewertung:** Relevanz

Vorschau

Qwen3.6-27B-INT4 clocking 100 tps with 256k context length on 1x RTX 5090 via vllm 0.19 (9/10)

Bewertung: Relevanz 3/3 | Qualitaet 3/3 | Umsetzbarkeit 2/2 | Aktualitaet 2/2 = 10/10
Qwen3.6-27B-INT4 clocking 100 tps with 256k context length on 1x RTX 5090 via vllm 0.19

Dieser Post beschreibt, wie das Qwen3.6-27B-INT4-Modell auf einem RTX 5090 mit vLLM 0.19 konfiguriert wurde, um 100+ Tokens pro Sekunde (TPS) zu erreichen, was eine erstaunliche Leistung ist. Das Modell unterstützt auch eine Kontextlänge von 256k, was es für komplexe Aufgaben besonders nützlich macht.

Für den Nutzer ist dies extrem relevant, da er eine RTX 3090 besitzt, die ähnliche Leistungsmerkmale aufweist. Die Konfiguration und die verwendeten Parameter können direkt auf sein Setup übertragen werden, um die Leistung seiner lokalen LLMs zu verbessern.

Der Nutzer sollte die vLLM-Konfiguration testen und die Leistung seines RTX 3090 mit den vorgeschlagenen Parametern vergleichen. Es ist auch sinnvoll, die Quantisierungsmethoden und die GPU-Optimierungen zu überprüfen, um die beste Leistung zu erzielen.

Using PaddleOCR-VL-1.5 with llama-server for book OCR (8/10)

Bewertung: Relevanz 3/3 | Qualitaet 3/3 | Umsetzbarkeit 2/2 | Aktualitaet 1/2 = 9/10
Using PaddleOCR-VL-1.5 with llama-server for book OCR

Dieser Post beschreibt, wie PaddleOCR-VL-1.5 mit llama-server verwendet wird, um OCR auf Buchseiten durchzuführen. Das Modell kann komplexe Layouts, Tabellen und gemischte Text-/Bildseiten gut verarbeiten. Die Pipeline kann ein ganzes Verzeichnis mit Seitenfotos end-to-end verarbeiten.

Für den Nutzer ist dies sehr relevant, da er bereits mit OCR und LLMs arbeitet. Die Verwendung von PaddleOCR-VL-1.5 könnte seine bestehenden OCR-Projekte erheblich verbessern. Die Pipeline ist Docker-freundlich und kann leicht in sein bestehendes Setup integriert werden.

Der Nutzer sollte die PaddleOCR-VL-1.5-Pipeline testen und die Ergebnisse mit seinen aktuellen OCR-Methoden vergleichen. Es ist auch sinnvoll, die Integration in seine bestehenden Docker-Container zu überprüfen.

(Linux) Has anyone succeeded in using NVMe space as substitute RAM for larger models? (7/10)

Bewertung: Relevanz 3/3 | Qualitaet 2/3 | Umsetzbarkeit 1/2 | Aktualitaet 1/2 = 7/10
(Linux) Has anyone succeeded in using NVMe space as substitute RAM for larger models?

Dieser Post diskutiert, ob NVMe-Speicher als Ersatz für RAM verwendet werden kann, um größere Modelle zu betreiben. Obwohl die Leistung erheblich langsamer sein wird, könnte dies eine praktische Lösung sein, um größere Modelle ohne Hardwareupgrade zu betreiben.

Für den Nutzer ist dies relevant, da er begrenzten RAM hat und größere Modelle betreiben möchte. Die Verwendung von NVMe-Speicher könnte eine kostengünstige Alternative sein, um die Modellgröße zu erhöhen, obwohl die Leistung beeinträchtigt sein wird.

Der Nutzer sollte die Möglichkeit testen, NVMe-Speicher als Swap-Space zu verwenden, und die Leistung mit und ohne Swap vergleichen. Es ist auch sinnvoll, die Konfiguration von huge pages zu überprüfen, um die Leistung zu verbessern.

kreuzcrawl, an open source Rust crawling engine with 11 language bindings (8/10)

Bewertung: Relevanz 3/3 | Qualitaet 3/3 | Umsetzbarkeit 2/2 | Aktualitaet 1/2 = 9/10
kreuzcrawl, an open source Rust crawling engine with 11 language bindings

Dieser Post stellt kreuzcrawl vor, eine hochleistungsfähige Webcrawling-Engine, die in Rust geschrieben ist und 11 Sprachbindungen unterstützt. Die Engine ist für die zuverlässige Extraktion von strukturierten Daten konzipiert und kann in Echtzeit fortlaufend betrieben werden.

Für den Nutzer ist dies sehr relevant, da er möglicherweise Webcrawling für verschiedene Anwendungen benötigt. Die Engine ist open source und kann leicht in sein bestehendes Setup integriert werden, insbesondere wenn er mit Rust oder anderen unterstützten Sprachen arbeitet.

Der Nutzer sollte kreuzcrawl testen und die Leistung und Funktionalität mit seinen aktuellen Crawling-Methoden vergleichen. Es ist auch sinnvoll, die Integration in seine bestehenden Docker-Container zu überprüfen.

The exact KV cache usage of DeepSeek V4 (7/10)

Bewertung: Relevanz 3/3 | Qualitaet 2/3 | Umsetzbarkeit 1/2 | Aktualitaet 1/2 = 7/10
The exact KV cache usage of DeepSeek V4

Dieser Post diskutiert die genaue Verwendung des KV-Caches von DeepSeek V4 und vergleicht sie mit früheren Versionen. Die neuen Versionen von DeepSeek reduzieren den KV-Cache-Verbrauch erheblich, was die Betriebbarkeit von größeren Modellen auf Systemen mit begrenztem RAM verbessert.

Für den Nutzer ist dies relevant, da er begrenzten RAM hat und größere Modelle betreiben möchte. Die Reduzierung des KV-Cache-Verbrauchs könnte es ihm ermöglichen, größere Modelle auf seinem System zu betreiben, ohne zusätzliche Hardware zu benötigen.

Der Nutzer sollte die neuen Versionen von DeepSeek V4 testen und die KV-Cache-Verwendung mit seinen aktuellen Modellen vergleichen. Es ist auch sinnvoll, die Leistung und die Betriebbarkeit auf seinem System zu überprüfen.

qwen3.6 27b poor experience (5/10)

Bewertung: Relevanz 2/3 | Qualitaet 2/3 | Umsetzbarkeit 1/2 | Aktualitaet 0/2 = 5/10
qwen3.6 27b poor experience

Dieser Post beschreibt negative Erfahrungen mit dem Qwen3.6-27B-Modell, insbesondere bei der Refaktorisierung von Swift-Code. Das Modell hat Probleme mit der Dateiverwaltung und geht in Endlosschleifen.

Für den Nutzer ist dies relevant, da er möglicherweise ähnliche Probleme mit dem Modell haben könnte. Die Kommentare geben wertvolle Tipps, wie das Modell durch eine angepasste Harness-Konfiguration und bessere Kontextverwaltung verbessert werden kann.

Der Nutzer sollte die vorgeschlagenen Anpassungen testen und die Leistung des Modells mit und ohne die Änderungen vergleichen. Es ist auch sinnvoll, die Kontextverwaltung und die KV-Cache-Verwendung zu überprüfen.

Experts-Volunteers needed for Vulkan on ik_llama.cpp (6/10)

Bewertung: Relevanz 2/3 | Qualitaet 2/3 | Umsetzbarkeit 1/2 | Aktualitaet 1/2 = 6/10
Experts-Volunteers needed for Vulkan on ik_llama.cpp

Dieser Post ruft nach Experten und Freiwilligen, um die Vulkan-Unterstützung in ik_llama.cpp zu verbessern. Vulkan ist eine wichtige Technologie für die GPU-Optimierung, insbesondere für AMD-GPUs.

Für den Nutzer ist dies relevant, da er AMD-GPUs besitzt und die Vulkan-Unterstützung verbessern könnte, um die Leistung seiner lokalen LLMs zu steigern. Die Beteiligung an diesem Projekt könnte ihm helfen, seine GPU-Optimierungsfähigkeiten zu erweitern.

Der Nutzer sollte die Möglichkeit in Betracht ziehen, sich an dem Projekt zu beteiligen, insbesondere wenn er Erfahrung mit Vulkan hat. Es ist auch sinnvoll, die aktuellen Vulkan-Unterstützung in ik_llama.cpp zu testen und die Leistung zu bewerten.

What kind of model or harness would be the best for teaching stuff to you from documents (5/10)

Bewertung: Relevanz 2/3 | Qualitaet 2/3 | Umsetzbarkeit 1/2 | Aktualitaet 0/2 = 5/10
What kind of model or harness would be the best for teaching stuff to you from documents

Dieser Post fragt nach Empfehlungen für Modelle oder Harnesses, die geeignet sind, um Informationen aus langen Dokumenten zu extrahieren und zu verarbeiten. Der Nutzer hat bisher ChatGPT und lokale Modelle wie Qwen3.5plus verwendet, aber die Ergebnisse waren nicht zufriedenstellend.

Für den Nutzer ist dies relevant, da er ähnliche Aufgaben in seinem Homelab durchführt. Die Diskussion bietet wertvolle Einblicke in verschiedene Modelle und Harnesses, die für die Dokumentverarbeitung geeignet sind.

Der Nutzer sollte die vorgeschlagenen Modelle und Harnesses testen und die Leistung mit seinen aktuellen Methoden vergleichen. Es ist auch sinnvoll, die Kontextverwaltung und die Ausgabequalität zu überprüfen.

Not bewertet:

Vs code extension
– [How to collect evidence for LLM reviewer? [D]](https://old.reddit.com/r/MachineLearning/comments/1svzgin/how_to_collect_evidence_for_llm_reviewer_d/)
New model for detecting and masking PII from OpenAI

👁 1 Aufrufe 👤 1 Leser

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert