Instructor
Skill AktivExtract structured data from LLM responses with Pydantic validation, retry failed extractions automatically, parse complex JSON with type safety, and stream partial results with Instructor - battle-tested structured output library
To reliably extract and validate structured data from LLM responses, enabling safer and more predictable integration of LLM outputs into applications.
Funktionen
- Extract structured data with Pydantic models
- Automatic validation of LLM outputs
- Retry failed extractions with error feedback
- Parse complex JSON with type safety
- Stream partial results for real-time processing
Anwendungsfälle
- Extracting user profiles, product details, or financial data from text
- Classifying text into predefined categories with confidence scores
- Parsing complex nested JSON outputs from LLMs
- Building real-time applications that consume LLM-generated structured data
Nicht-Ziele
- Replacing the core LLM provider itself
- Performing complex data transformations beyond validation
- Handling LLM API calls directly without Instructor's structured output features
Trust
- warning:Issues AttentionThere are 17 open issues and 4 closed issues in the last 90 days, indicating a low closure rate and potentially slow maintainer response.
Installation
npx skills add davila7/claude-code-templatesFührt das Vercel skills CLI (skills.sh) via npx aus — benötigt Node.js lokal und mindestens einen installierten skills-kompatiblen Agent (Claude Code, Cursor, Codex, …). Setzt voraus, dass das Repo dem agentskills.io-Format folgt.
Qualitätspunktzahl
Vertrauenssignale
Ähnliche Erweiterungen
Instructor
98Extract structured data from LLM responses with Pydantic validation, retry failed extractions automatically, parse complex JSON with type safety, and stream partial results with Instructor - battle-tested structured output library
Arize Prompt Optimization
100Optimizes, improves, and debugs LLM prompts using production trace data, evaluations, and annotations. Extracts prompts from spans, gathers performance signal, and runs a data-driven optimization loop using the ax CLI. Use when the user mentions optimize prompt, improve prompt, make AI respond better, improve output quality, prompt engineering, prompt tuning, or system prompt improvement.
Prompt Optimization
100Wendet Prompt-Wiederholung an, um die Genauigkeit für LLMs ohne Schlussfolgerungsfähigkeit zu verbessern
Create Atomic Tool
99Erstellen Sie eine `BaseTool[InSchema, OutSchema]`-Unterklasse — Eingabe-/Ausgabeschemata, `BaseToolConfig`, `run()` (und optional `run_async()`), umgebungsgesteuerte Geheimnisse, typisierte Fehler-Outputs. Verwenden Sie dies, wenn der Benutzer fragt, "ein Werkzeug hinzuzufügen", "ein Werkzeug zu erstellen", "eine API als Werkzeug zu verpacken", "eine `BaseTool` zu bauen", "ein Werkzeug für Berechnungen/Suche/Wetter zu erstellen" oder `/atomic-agents:create-atomic-tool` ausführt.
Guidance
99Control LLM output with regex and grammars, guarantee valid JSON/XML/code generation, enforce structured formats, and build multi-step workflows with Guidance - Microsoft Research's constrained generation framework
Create Atomic Schema
98Entwerfen und schreiben Sie ein `BaseIOSchema`-Eingabe-/Ausgabepaar für einen Atomic Agents-Agenten oder ein Tool – Docstrings, Feld-Beschreibungen, Validatoren, Fehler-Varianten. Verwenden Sie dies, wenn der Benutzer nach "Schema erstellen", "Eingabe-/Ausgabe-Schema entwerfen", "`IOSchema` definieren", "`BaseIOSchema` schreiben", "Modellieren der Agentenausgabe" fragt oder `/atomic-agents:create-atomic-schema` ausführt.