Component Search
Skill Verifiziert AktivDiese Fähigkeit sollte verwendet werden, wenn Benutzer Redpanda Connect-Komponenten für ihre Streaming-Pipelines entdecken müssen. Auslösen, wenn Benutzer nach Eingängen, Ausgängen, Prozessoren oder anderen Komponenten fragen oder wenn sie spezifische Technologien wie "kafka consumer", "postgres output", "http server" erwähnen oder fragen "welche Komponente sollte ich für X verwenden?".
Benutzern helfen, die geeigneten Redpanda Connect-Komponenten für ihre Streaming-Datenpipelines anhand von natürlichsprachlichen Anfragen zu finden und zu verstehen.
Funktionen
- Redpanda Connect-Komponenten nach Kategorie entdecken
- Detaillierte Konfigurationsschemata für Komponenten abrufen
- Links zur offiziellen Online-Dokumentation für Komponenten bereitstellen
- Erforderliche und optionale Felder für die Komponentenkonfiguration identifizieren
Anwendungsfälle
- Wenn Benutzer Eingänge, Ausgänge oder Prozessoren für ihre Streaming-Pipelines finden müssen.
- Wenn Benutzer spezifische Technologien wie 'kafka consumer' oder 'postgres output' erwähnen und eine geeignete Komponente benötigen.
- Wenn Benutzer fragen 'welche Komponente sollte ich für X verwenden?' zum Erstellen einer Datenpipeline.
Nicht-Ziele
- Konfiguration oder Bereitstellung von Redpanda Connect-Pipelines.
- Schreiben komplexer Pipeline-Logik innerhalb der Fähigkeit selbst.
- Vollständiger Ersatz der offiziellen Redpanda Connect-Dokumentation.
Vertrauen
- info:Aufmerksamkeit bei IssuesGeöffnete Issues (letzte 90 Tage): 17, Geschlossene Issues (letzte 90 Tage): 16. Die Schließungsrate beträgt ungefähr 48%, was auf eine moderate Antwortrate hindeutet.
Installation
Zuerst Marketplace hinzufügen
/plugin marketplace add redpanda-data/connect/plugin install redpanda-connect@redpanda-connect-pluginsQualitätspunktzahl
VerifiziertVertrauenssignale
Ähnliche Erweiterungen
Pipeline Assistant
96Diese Fähigkeit sollte verwendet werden, wenn Benutzer Redpanda Connect-Pipeline-Konfigurationen erstellen oder reparieren müssen. Auslösen, wenn Benutzer "config", "pipeline", "YAML", "create a config", "fix my config", "validate my pipeline" erwähnen oder einen Streaming-Pipeline-Bedarf beschreiben wie "read from Kafka and write to S3".
Analyze Codebase Workflow
99Analyze an arbitrary codebase to auto-detect workflows, data pipelines, and file dependencies using putior's put_auto() engine. Produces an annotation plan that maps detected I/O patterns to source files across 30+ supported languages with 902 auto-detection patterns. Use when onboarding onto an unfamiliar codebase to understand data flow, starting putior integration in a project without existing annotations, auditing a project's data pipeline before documentation, or preparing an annotation plan before running annotate-source-files.
Monitor Stream
99Stream live swarm events using the Monitor tool for real-time observability
Implement A2a Server
99Implement a JSON-RPC 2.0 A2A server with full task lifecycle management (submitted/working/completed/failed/canceled/input-required), SSE streaming, and push notifications. Use when implementing an agent that participates in multi-agent A2A workflows, building a backend for an Agent Card, adding A2A protocol support to an existing agent or service, or deploying an agent that must interoperate with other A2A-compliant agents.
Blucli
99BluOS CLI (blu) for discovery, playback, grouping, and volume.
Lark Event Consumer CLI
99Lark/Feishu real-time event listening / subscribing / consuming: stream events as NDJSON via `lark-cli event consume <EventKey>` (covers IM message receive, reactions, chat member changes, etc.). Use for Lark bots, real-time message processing, long-running subscribers, streaming webhook/push handlers. Supports `--max-events` / `--timeout` bounded runs and a stderr ready-marker contract — designed for AI agents running as subprocesses.