LangChain
Skill Verifiziert AktivFramework for building LLM-powered applications with agents, chains, and RAG. Supports multiple providers (OpenAI, Anthropic, Google), 500+ integrations, ReAct agents, tool calling, memory management, and vector store retrieval. Use for building chatbots, question-answering systems, autonomous agents, or RAG applications. Best for rapid prototyping and production deployments.
To provide developers with a robust and flexible framework for building sophisticated LLM applications, agents, and RAG systems, streamlining the development process from prototyping to production.
Funktionen
- Framework for LLM applications (agents, chains, RAG)
- Multi-provider LLM support (OpenAI, Anthropic, Google)
- Extensive integrations (500+ tools, vector stores)
- Support for ReAct agents and tool calling
- Memory management for conversational context
- Vector store retrieval for RAG pipelines
Anwendungsfälle
- Building chatbots with conversation memory
- Implementing retrieval-augmented generation (RAG) pipelines
- Creating agents with tool-using capabilities
- Rapid prototyping of LLM-powered applications
- Production deployments with observability (LangSmith)
Nicht-Ziele
- Specific LLM model training or fine-tuning
- Deep dive into individual vector database management
- Standalone deployment of applications (focus on framework)
- Low-level AI research beyond application development
Workflow
- Define LLM models and tools
- Construct chains or agents for task execution
- Integrate memory for conversational context
- Implement RAG pipelines with document loading, splitting, embedding, and retrieval
- Execute and observe application behavior using LangSmith
Praktiken
- LLM Application Development
- Agent Design
- RAG Implementation
- Tool Integration
- Observability
Voraussetzungen
- Python 3.10+
- LLM provider API keys (OpenAI, Anthropic, etc.)
- Optional: Vector database setup
- Optional: LangSmith API key for tracing
Scope
- info:Tool surface sizeWhile not explicitly counting tools, the documentation showcases numerous integrations and patterns, suggesting a large but well-categorized surface area.
Installation
Zuerst Marketplace hinzufügen
/plugin marketplace add Orchestra-Research/AI-Research-SKILLs/plugin install AI-Research-SKILLs@ai-research-skillsQualitätspunktzahl
VerifiziertVertrauenssignale
Ähnliche Erweiterungen
Embedding Strategies
100Select and optimize embedding models for semantic search and RAG applications. Use when choosing embedding models, implementing chunking strategies, or optimizing embedding quality for specific domains.
Langchain Framework
99LangChain LLM application framework with chains, agents, RAG, and memory for building AI-powered applications
Dspy
99Build complex AI systems with declarative programming, optimize prompts automatically, create modular RAG systems and agents with DSPy - Stanford NLP's framework for systematic LM programming
Rag Implementation
98Build Retrieval-Augmented Generation (RAG) systems for LLM applications with vector databases and semantic search. Use when implementing knowledge-grounded AI, building document Q&A systems, or integrating LLMs with external knowledge bases.
Hybrid Search Implementation
98Combine vector and keyword search for improved retrieval. Use when implementing RAG systems, building search engines, or when neither approach alone provides sufficient recall.
Init
100Erstellt, aktualisiert oder optimiert eine AGENTS.md-Datei für ein Repository mit minimalen, hochgradig aussagekräftigen Anweisungen, die nicht entdeckbare Codierungs-Konventionen, Eigenheiten der Werkzeuge, Workflow-Präferenzen und projektspezifische Regeln abdecken, die Agenten nicht aus dem Code ableiten können. Verwenden Sie dies beim Einrichten von Agent-Anweisungen oder der Claude-Konfiguration für ein neues Repository, wenn eine vorhandene AGENTS.md zu lang, generisch oder veraltet ist, wenn Agenten wiederholt vermeidbare Fehler machen oder wenn sich die Repository-Workflows geändert haben und die Agent-Konfiguration bereinigt werden muss. Wendet einen Entdeckbarkeitsfilter an – der alles weglässt, was Claude aus README, Code, Konfiguration oder Verzeichnisstruktur lernen kann – und ein Qualitätstor, um zu überprüfen, ob jede Zeile korrekt und betrieblich relevant bleibt.