Prompt Optimization
Skill Verifiziert AktivWendet Prompt-Wiederholung an, um die Genauigkeit für LLMs ohne Schlussfolgerungsfähigkeit zu verbessern
Zur Verbesserung der Genauigkeit von LLMs ohne Schlussfolgerungsfähigkeit bei strukturierten Aufgaben durch automatische Wiederholung ihrer Prompts.
Funktionen
- Wendet Prompt-Wiederholung an, um die LLM-Genauigkeit zu erhöhen
- Automatische Aktivierung für Haiku-Agenten bei bestimmten Aufgaben
- Konfigurierbare Wiederholungsanzahl und Aktivierung
- Keine Latenzauswirkungen durch die Vorabfüllungsphase
- Bietet Leistungsmetriken und Konfigurationsoptionen
Anwendungsfälle
- Verbesserung der Genauigkeit von Unit-Tests
- Erhöhung der Zuverlässigkeit von Linting- und Formatierungsaufgaben
- Steigerung der Präzision bei der Datenanalyse und -extraktion
- Sicherstellung der Genauigkeit bei Listenoperationen (find, filter, count)
Nicht-Ziele
- Verbesserung der Genauigkeit für LLMs mit Schlussfolgerungsfähigkeit (Opus, Sonnet)
- Aufgaben außerhalb strukturierter Operationen
- Einführung von Latenzstrafen
Installation
npx skills add asklokesh/loki-modeFührt das Vercel skills CLI (skills.sh) via npx aus — benötigt Node.js lokal und mindestens einen installierten skills-kompatiblen Agent (Claude Code, Cursor, Codex, …). Setzt voraus, dass das Repo dem agentskills.io-Format folgt.
Qualitätspunktzahl
VerifiziertVertrauenssignale
Ähnliche Erweiterungen
Arize Prompt Optimization
100Optimizes, improves, and debugs LLM prompts using production trace data, evaluations, and annotations. Extracts prompts from spans, gathers performance signal, and runs a data-driven optimization loop using the ax CLI. Use when the user mentions optimize prompt, improve prompt, make AI respond better, improve output quality, prompt engineering, prompt tuning, or system prompt improvement.
Unsloth
100Expert guidance for fast fine-tuning with Unsloth - 2-5x faster training, 50-80% less memory, LoRA/QLoRA optimization
CE Optimize
100Run metric-driven iterative optimization loops -- define a measurable goal, run parallel experiments, measure each against hard gates or LLM-as-judge scores, keep improvements, and converge on the best solution. Use when optimizing clustering quality, search relevance, build performance, prompt quality, or any measurable outcome that benefits from systematic experimentation.
Chat Format
100Format prompts for different LLM providers with chat templates and HNSW-powered context retrieval
Oh My Claudecode
100Process-first advisor routing for Claude, Codex, or Gemini via `omc ask`, with artifact capture and no raw CLI assembly
Wrap Up Ritual
100End-of-session ritual that audits changes, runs quality checks, captures learnings, and produces a session summary. Use when saying "wrap up", "done for the day", "finish coding", or ending a coding session.