Zum Hauptinhalt springen
Dieser Inhalt ist noch nicht in Ihrer Sprache verfügbar und wird auf Englisch angezeigt.

LangChain

Skill Verifiziert Aktiv

Framework for building LLM-powered applications with agents, chains, and RAG. Supports multiple providers (OpenAI, Anthropic, Google), 500+ integrations, ReAct agents, tool calling, memory management, and vector store retrieval. Use for building chatbots, question-answering systems, autonomous agents, or RAG applications. Best for rapid prototyping and production deployments.

Zweck

To provide developers with a robust and flexible framework for building sophisticated LLM applications, agents, and RAG systems, streamlining the development process from prototyping to production.

Funktionen

  • Framework for LLM applications (agents, chains, RAG)
  • Multi-provider LLM support (OpenAI, Anthropic, Google)
  • Extensive integrations (500+ tools, vector stores)
  • Support for ReAct agents and tool calling
  • Memory management for conversational context
  • Vector store retrieval for RAG pipelines

Anwendungsfälle

  • Building chatbots with conversation memory
  • Implementing retrieval-augmented generation (RAG) pipelines
  • Creating agents with tool-using capabilities
  • Rapid prototyping of LLM-powered applications
  • Production deployments with observability (LangSmith)

Nicht-Ziele

  • Specific LLM model training or fine-tuning
  • Deep dive into individual vector database management
  • Standalone deployment of applications (focus on framework)
  • Low-level AI research beyond application development

Workflow

  1. Define LLM models and tools
  2. Construct chains or agents for task execution
  3. Integrate memory for conversational context
  4. Implement RAG pipelines with document loading, splitting, embedding, and retrieval
  5. Execute and observe application behavior using LangSmith

Praktiken

  • LLM Application Development
  • Agent Design
  • RAG Implementation
  • Tool Integration
  • Observability

Voraussetzungen

  • Python 3.10+
  • LLM provider API keys (OpenAI, Anthropic, etc.)
  • Optional: Vector database setup
  • Optional: LangSmith API key for tracing

Scope

  • info:Tool surface sizeWhile not explicitly counting tools, the documentation showcases numerous integrations and patterns, suggesting a large but well-categorized surface area.

Installation

Zuerst Marketplace hinzufügen

/plugin marketplace add Orchestra-Research/AI-Research-SKILLs
/plugin install AI-Research-SKILLs@ai-research-skills

Qualitätspunktzahl

Verifiziert
99 /100
Analysiert 1 day ago

Vertrauenssignale

Letzter Commit17 days ago
Sterne8.3k
LizenzMIT
Status
Quellcode ansehen

Ähnliche Erweiterungen

Embedding Strategies

100

Select and optimize embedding models for semantic search and RAG applications. Use when choosing embedding models, implementing chunking strategies, or optimizing embedding quality for specific domains.

Skill
wshobson

Langchain Framework

99

LangChain LLM application framework with chains, agents, RAG, and memory for building AI-powered applications

Skill
bobmatnyc

Dspy

99

Build complex AI systems with declarative programming, optimize prompts automatically, create modular RAG systems and agents with DSPy - Stanford NLP's framework for systematic LM programming

Skill
davila7

Rag Implementation

98

Build Retrieval-Augmented Generation (RAG) systems for LLM applications with vector databases and semantic search. Use when implementing knowledge-grounded AI, building document Q&A systems, or integrating LLMs with external knowledge bases.

Skill
wshobson

Hybrid Search Implementation

98

Combine vector and keyword search for improved retrieval. Use when implementing RAG systems, building search engines, or when neither approach alone provides sufficient recall.

Skill
wshobson

Init

100

Erstellt, aktualisiert oder optimiert eine AGENTS.md-Datei für ein Repository mit minimalen, hochgradig aussagekräftigen Anweisungen, die nicht entdeckbare Codierungs-Konventionen, Eigenheiten der Werkzeuge, Workflow-Präferenzen und projektspezifische Regeln abdecken, die Agenten nicht aus dem Code ableiten können. Verwenden Sie dies beim Einrichten von Agent-Anweisungen oder der Claude-Konfiguration für ein neues Repository, wenn eine vorhandene AGENTS.md zu lang, generisch oder veraltet ist, wenn Agenten wiederholt vermeidbare Fehler machen oder wenn sich die Repository-Workflows geändert haben und die Agent-Konfiguration bereinigt werden muss. Wendet einen Entdeckbarkeitsfilter an – der alles weglässt, was Claude aus README, Code, Konfiguration oder Verzeichnisstruktur lernen kann – und ein Qualitätstor, um zu überprüfen, ob jede Zeile korrekt und betrieblich relevant bleibt.

Skill
mcollina