Zum Hauptinhalt springen
Dieser Inhalt ist noch nicht in Ihrer Sprache verfügbar und wird auf Englisch angezeigt.

Ruflo Ruvllm

Plugin Verifiziert Aktiv
Teil von:Ruflo

RuVLLM local inference with chat formatting (Claude/GPT/Gemini/Ollama/Cohere), model configuration, MicroLoRA fine-tuning, and SONA real-time adaptation

2 Skills 0 MCPs
Zweck

To enable users to run and fine-tune large language models locally with advanced features for optimal performance and integration into RAG pipelines.

Funktionen

  • Local LLM inference with RuVLLM
  • Model configuration and optimization
  • MicroLoRA task-specific fine-tuning
  • SONA real-time adaptation
  • Multi-provider chat formatting (Claude, GPT, Gemini, Ollama, Cohere)
  • HNSW routing for RAG context retrieval

Anwendungsfälle

  • Configuring optimal local LLM models for specific tasks.
  • Fine-tuning LLMs with lightweight adapters (MicroLoRA) for specialized domains.
  • Implementing real-time adaptation (SONA) for continuous feedback loops.
  • Preparing prompts for various LLM providers and integrating RAG context.

Nicht-Ziele

  • Cloud-based LLM inference
  • Replacing core Claude Code functionality
  • General-purpose system administration tools

Installation

Zuerst Marketplace hinzufügen

/plugin marketplace add ruvnet/ruflo
/plugin install ruflo-ruvllm@ruflo

Qualitätspunktzahl

Verifiziert
98 /100
Analysiert about 22 hours ago

Vertrauenssignale

Letzter Commitabout 23 hours ago
Sterne50.2k
LizenzMIT
Status
Quellcode ansehen