Continue-Community: Lokale Modelle für Coding-Agenten
In der Continue-Community gibt es zahlreiche Diskussionen, die sich mit der Integration lokaler Modelle und der Konfiguration von Coding-Agenten befassen. Diese Übersicht hilft dir, die relevanten Diskussionen zu finden, die dich als OpenCode-Nutzer interessieren könnten.
[Agent Mode – model recommendations] (7/10) — OpenCode-Fit: JA
Verdict (1 Satz): Der Nutzer sucht nach Empfehlungen für lokale Modelle, die gut mit dem Agent-Modus von Continue funktionieren.
Hardware: nicht im Post belegt
Modell: nicht im Post belegt
Agent-Skills: aus Titel ableitbar
Claude-Naehe: nicht belegt
Kontext (2-3 Saetze): In dieser Diskussion werden Empfehlungen für lokale Modelle gegeben, die gut für Python, Kubernetes und Go-Entwicklung geeignet sind. Der Fokus liegt auf der Konfiguration dieser Modelle mit Ollama und der Integration in den Continue-Plugin für VSCode.
[Nataris — P2P inference via Android phones, add as a custom provider in Continue] (8/10) — OpenCode-Fit: JA
Verdict (1 Satz): Nataris ermöglicht die Verwendung von Android-Telefonen als P2P-Inferenzmarktplatz, wobei Modelle wie Qwen und Llama lokal auf den Geräten laufen.
Hardware: nicht im Post belegt
Modell: Qwen 2.5 0.5B, Llama 3.2 1B
Agent-Skills: aus Titel ableitbar
Claude-Naehe: nicht belegt
Kontext (2-3 Saetze): Nataris ist ein P2P-Inferenzmarkt, der Android-Telefonen ermöglicht, Modelle lokal zu laufen und API-Anfragen zu bedienen. Die Konfiguration in Continue wird detailliert beschrieben, einschließlich der erforderlichen `config.json`-Einstellungen. Dies könnte eine interessante Alternative für die Verwendung lokaler Modelle sein, insbesondere für Nutzer, die keine eigenen Server verwalten möchten.
[How to enable automatic file creation from LLM responses (JSON actions not being executed)] (6/10) — OpenCode-Fit: BEDINGT
Verdict (1 Satz): Der Nutzer hat Probleme damit, dass Continue.dev JSON-Aktionen von LLM-Antworten nicht ausführt, insbesondere bei der automatischen Erstellung von Dateien.
Hardware: nicht im Post belegt
Modell: Ollama
Agent-Skills: aus Titel ableitbar
Claude-Naehe: nicht belegt
Kontext (2-3 Saetze): In dieser Diskussion wird das Problem beschrieben, dass Continue.dev JSON-Aktionen von LLM-Antworten nicht ausführt. Der Nutzer verwendet ein lokales Ollama-Modell und möchte, dass Continue.dev Dateien basierend auf den Modellantworten automatisch erstellt. Dies könnte für Nutzer relevant sein, die automatisierte Dateierstellung und -bearbeitung benötigen.
[Agent mode, get your VS code to work similarly to Cursor in linux] (7/10) — OpenCode-Fit: JA
Verdict (1 Satz): Der Nutzer sucht nach Anleitungen, wie man Continue in VSCode so konfiguriert, dass es ähnlich wie Cursor funktioniert, insbesondere mit lokalen Ollama-Modellen.
Hardware: nicht im Post belegt
Modell: Ollama
Agent-Skills: aus Titel ableitbar
Claude-Naehe: nicht belegt
Kontext (2-3 Saetze): In dieser Diskussion wird die Konfiguration von Continue in VSCode erläutert, um es ähnlich wie Cursor zu verwenden. Der Nutzer hat Probleme mit der Konfiguration von lokalen Ollama-Modellen und sucht nach einer Baseline, um den Agenten korrekt einzurichten. Dies könnte für Nutzer hilfreich sein, die eine ähnliche Funktionalität wie Cursor in Continue erzielen möchten.
[Configuring Continue CLI with specific models and providers] (6/10) — OpenCode-Fit: BEDINGT
Verdict (1 Satz): Der Nutzer hat Schwierigkeiten, die Continue-CLI mit spezifischen Modellen und Providern von askSage zu konfigurieren.
Hardware: nicht im Post belegt
Modell: GPT-4o gov
Agent-Skills: aus Titel ableitbar
Claude-Naehe: nicht belegt
Kontext (2-3 Saetze): In dieser Diskussion wird das Problem beschrieben, dass die Continue-CLI nicht mit der Konfiguration aus der `config.yaml`-Datei funktioniert, die in VSCode funktioniert. Der Nutzer verwendet Modelle von askSage und sucht nach Lösungen, um die CLI korrekt zu konfigurieren. Dies könnte für Nutzer relevant sein, die sowohl die VSCode-Erweiterung als auch die CLI verwenden möchten.
Weitere Diskussionen:
– Use folder as context
– Increase release cadence
– „Continue tried to edit“ forever stuck loop
– Add option for side-by-side diff on edits in vscode extension
– [[Extension Host] Document not found in AST tracker](https://github.com/continuedev/continue/discussions/11883)
– WINDOW TOOL
– MCP Server Suggestion: MRC Data — Chinese Apparel Supply Chain Database
– Antigravity support/release
– Code agents need verification – offering independent testing for Continue.dev
– VSCode Extension: Context Providers are deprecated, but MCP servers still aren’t supported?