Llm Cost Optimizer
Plugin Verifiziert AktivUse when you need to reduce LLM API spend, control token usage, route between models by cost/quality, implement prompt caching, or build cost observability for AI features. Triggers: 'my AI costs are
Reduce LLM API spend and control token usage by intelligently routing requests, implementing prompt caching, and providing cost observability for AI features.
Funktionen
- Reduce LLM API spend
- Control token usage
- Route between models by cost/quality
- Implement prompt caching
- Build cost observability for AI features
Anwendungsfälle
- Use when LLM API costs are a concern
- Use to optimize token usage for AI features
- Use to select appropriate models based on cost and quality
- Use to implement prompt caching for repeated queries
Nicht-Ziele
- Improving prompt quality or effectiveness
- RAG pipeline design
- Designing generic AI endpoints without cost considerations
Installation
/plugin install llm-cost-optimizer@alirezarezvani-claude-skillsQualitätspunktzahl
VerifiziertVertrauenssignale
Ähnliche Erweiterungen
Claude Cost Optimizer
99Kostenbewusster Modus für Claude Code. Spart 30-60 % Kosten durch prägnante Antworten, Modell-Routing und effiziente Workflow-Muster.
Aws Cost Ops
98AWS-Kostenoptimierung, -Überwachung und betriebliche Exzellenz mit integrierten MCP-Servern für Abrechnung, Kostenanalyse, Beobachtbarkeit und Sicherheitsbewertung
Cost Mode
98Kostengünstiger Modus für Claude Code. Reduziert Füllwörter, schlägt günstigere Modelle vor, fördert effiziente Muster.