[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"extension-skill-clickhouse-chdb-sql-de":3,"guides-for-clickhouse-chdb-sql":459,"similar-k172exhc0mc105qqv4pq480gvs86mabf-de":460},{"_creationTime":4,"_id":5,"children":6,"community":7,"display":9,"evaluation":15,"identity":246,"isFallback":236,"parentExtension":250,"providers":306,"relations":310,"repo":312,"tags":456,"workflow":457},1778684237051.044,"k172exhc0mc105qqv4pq480gvs86mabf",[],{"reviewCount":8},0,{"description":10,"installMethods":11,"name":13,"sourceUrl":14},"In-process ClickHouse SQL engine für Python — führen Sie ClickHouse SQL-Abfragen direkt auf lokalen Dateien, entfernten Datenbanken und Cloud-Speicher ohne Server aus. Verwenden Sie dies, wenn der Benutzer SQL-Abfragen gegen Parquet/CSV/JSON-Dateien schreiben möchte, ClickHouse-Tabellenfunktionen (mysql(), s3(), postgresql(), iceberg(), deltaLake() usw.) verwenden, zustandsbehaftete analytische Pipelines mit Session erstellen, parametrisierte Abfragen, Fensterfunktionen oder andere erweiterte ClickHouse SQL-Funktionen nutzen möchte. Verwenden Sie es auch, wenn der Benutzer explizit chdb.query(), ClickHouse SQL-Syntax erwähnt oder plattformübergreifende SQL-Joins wünscht. NICHT verwenden für pandas-ähnliche DataFrame-Operationen — stattdessen chdb-datastore verwenden.",{"claudeCode":12},"clickhouse/agent-skills","chdb-sql","https://github.com/clickhouse/agent-skills",{"_creationTime":16,"_id":17,"extensionId":5,"locale":18,"result":19,"trustSignals":227,"workflow":244},1778684237051.0442,"kn7d71qtar4x5v2sfdsrghas1986n319","de",{"checks":20,"evaluatedAt":192,"extensionSummary":193,"features":194,"nonGoals":202,"promptVersionExtension":206,"promptVersionScoring":207,"purpose":208,"rationale":209,"score":210,"summary":211,"tags":212,"tier":221,"useCases":222},[21,26,29,32,36,39,43,47,50,53,57,61,64,68,71,74,77,80,83,86,90,94,99,103,107,110,114,118,122,125,128,131,134,137,140,144,148,151,154,158,161,164,167,170,174,177,180,183,186,189],{"category":22,"check":23,"severity":24,"summary":25},"Praktischer Nutzen","Relevanz des Problems","pass","Die Beschreibung identifiziert klar das Problem, ClickHouse SQL-Abfragen direkt auf verschiedenen Datenquellen ohne Server auszuführen, und spezifiziert Benutzerabsichten wie das Abfragen von Dateien, die Verwendung von Tabellenfunktionen und den Aufbau analytischer Pipelines.",{"category":22,"check":27,"severity":24,"summary":28},"Alleinstellungsmerkmal","Die Fähigkeit bietet einen erheblichen Mehrwert gegenüber einer einfachen Aufforderung, indem sie eine dedizierte In-Process-SQL-Engine für ClickHouse bereitstellt, die komplexe Abfragen und plattformübergreifende Joins direkt in Python ohne externe Server-Einrichtung ermöglicht.",{"category":22,"check":30,"severity":24,"summary":31},"Produktionsreife","Das Fähigkeitspaket scheint vollständig zu sein und unterstützt die angegebenen Anwendungsfälle für die Ausführung von ClickHouse SQL-Abfragen auf verschiedenen Datenquellen und stellt die notwendigen APIs für verschiedene Interaktionsmuster bereit.",{"category":33,"check":34,"severity":24,"summary":35},"Umfang","Single Responsibility Principle","Die Erweiterung konzentriert sich ausschließlich auf die Bereitstellung einer In-Process-ClickHouse-SQL-Engine für Python, definiert ihren Umfang klar und vermeidet nicht verwandte Domänen.",{"category":33,"check":37,"severity":24,"summary":38},"Qualität der Beschreibung","Die Beschreibung spiegelt die Fähigkeiten der Fähigkeit genau wider, umreißt klar ihren Zweck, liefert spezifische Anwendungsfälle und gibt explizit Nicht-Ziele an, was die Verständlichkeit und Nutzung erleichtert.",{"category":40,"check":41,"severity":24,"summary":42},"Aufruf","Gezielte Werkzeuge","Die Fähigkeit nutzt eine klare API (`chdb.query`, `Session`, `dbapi.connect`), die die zugrunde liegende SQL-Ausführung abstrahiert und direkte willkürliche Befehlsausführung verhindert.",{"category":44,"check":45,"severity":24,"summary":46},"Dokumentation","Konfigurations- & Parameterreferenz","Die API-Referenz beschreibt alle Parameter für `chdb.query`, `Session` und `dbapi.connect`, einschließlich Ausgabeformate und Parametrisierung, mit bereitgestellten Beispielen.",{"category":33,"check":48,"severity":24,"summary":49},"Werkzeugbenennung","Die Kernschnittstellen (`chdb.query`, `Session`, `dbapi.connect`) sind beschreibend und entsprechen der Domäne der SQL-Abfrage.",{"category":33,"check":51,"severity":24,"summary":52},"Minimale I/O-Oberfläche","Die API-Parameter sind gut definiert und strukturiert (SQL-Abfrage, Ausgabeformat, Pfad, Parameter), und die Ausgabe wird in verschiedenen strukturierten Formaten (CSV, DataFrame, JSON usw.) präsentiert, wodurch überflüssige Daten minimiert werden.",{"category":54,"check":55,"severity":24,"summary":56},"Lizenz","Lizenznutzbarkeit","Die Erweiterung ist unter der Apache-2.0-Lizenz lizenziert, einer permissiven Open-Source-Lizenz.",{"category":58,"check":59,"severity":24,"summary":60},"Wartung","Aktualität der Commits","Das Repository hat aktuelle Commits innerhalb der letzten 3 Monate, was auf eine aktive Wartung hindeutet.",{"category":58,"check":62,"severity":24,"summary":63},"Abhängigkeitsverwaltung","Die Anweisung `pip install chdb` und die Anwesenheit einer Sperrdatei (basierend auf Vertrauenssignalen) deuten auf eine angemessene Abhängigkeitsverwaltung hin.",{"category":65,"check":66,"severity":24,"summary":67},"Sicherheit","Geheimnisverwaltung","Die Fähigkeit scheint keine Geheimnisse zu verarbeiten oder auszugeben; Verbindungsdetails für externe Datenbanken werden als Parameter übergeben, nicht hartcodiert oder protokolliert.",{"category":65,"check":69,"severity":24,"summary":70},"Injection","Die Fähigkeit führt SQL-Abfragen über eine definierte API (`chdb.query`, `Session`) aus, die SQL bereinigt und ausführt, wodurch direkte Befehlsinjektionsrisiken gemindert werden.",{"category":65,"check":72,"severity":24,"summary":73},"Transitive Lieferketten-Granaten","Die Fähigkeit stützt sich auf das Python-Paket `chdb` und scheint zur Laufzeit keinen externen Code oder keine externen Daten abzurufen oder auszuführen.",{"category":65,"check":75,"severity":24,"summary":76},"Sandbox-Isolation","Die Fähigkeit läuft innerhalb von Python und interagiert über definierte APIs mit Datendateien oder Datenbanken, ohne zu versuchen, in beliebige Dateipfade zu schreiben oder Shell-Befehle außerhalb ihres Geltungsbereichs auszuführen.",{"category":65,"check":78,"severity":24,"summary":79},"Sandbox-Escape-Primitive","Es wurden keine getrennten Prozessaufrufe oder Deny-Retry-Schleifen im bereitgestellten Quellcode beobachtet.",{"category":65,"check":81,"severity":24,"summary":82},"Datenexfiltration","Die Kernfunktionalität der Fähigkeit besteht darin, Daten abzufragen, nicht sie zu exfiltrieren. Anmeldeinformationen für externe Datenbanken werden als Parameter übergeben und es ist nicht dokumentiert, dass sie an Dritte übermittelt werden.",{"category":65,"check":84,"severity":24,"summary":85},"Versteckte Texttricks","Der gebündelte Inhalt und die Beschreibungen sind frei von versteckten Texttricks oder unsichtbaren Unicode-Zeichen.",{"category":87,"check":88,"severity":24,"summary":89},"Hooks","Opake Codeausführung","Der Python-Code der Fähigkeit ist lesbar und verwendet keine Verschleierungstechniken wie Base64-Kodierung oder Laufzeit-Skriptabruf.",{"category":91,"check":92,"severity":24,"summary":93},"Portabilität","Strukturelle Annahme","Die Fähigkeit arbeitet hauptsächlich mit vom Benutzer bereitgestellten Datenpfaden oder in einem definierten Sitzungskontext, ohne starre Annahmen über die Projektdateistruktur zu treffen.",{"category":95,"check":96,"severity":97,"summary":98},"Vertrauen","Aufmerksamkeit für Probleme","info","Offene Probleme: 2, Geschlossene Probleme: 0. Die Maintainer haben in den letzten 90 Tagen keine Probleme geschlossen, und es gibt derzeit 2 offene Probleme.",{"category":100,"check":101,"severity":24,"summary":102},"Versionierung","Release-Management","Die Fähigkeit hat eine deklarierte Version ('4.1') im Frontmatter, was eine klare Versionierung anzeigt.",{"category":104,"check":105,"severity":24,"summary":106},"Ausführung","Validierung","Die API (`chdb.query`) verarbeitet SQL und Parameter, was auf eine interne Validierung hindeutet. Die Ausgabe wird in strukturierten Formaten zurückgegeben.",{"category":65,"check":108,"severity":24,"summary":109},"Ungeschützte destruktive Operationen","Die Fähigkeit ist hauptsächlich analytisch. Obwohl das Erstellen von Tabellen in einer Sitzung möglich ist, sind destruktive Operationen nicht inhärent ungeschützt und typische SQL DDL/DML erfordern eine explizite Benutzerabsicht.",{"category":111,"check":112,"severity":24,"summary":113},"Codeausführung","Fehlerbehandlung","Die zugrunde liegende `chdb`-Bibliothek behandelt Fehler wahrscheinlich robust, und die Python-API bietet strukturierte Ausgaben oder löst Ausnahmen aus, was eine aussagekräftige Fehlerberichterstattung ermöglicht.",{"category":111,"check":115,"severity":116,"summary":117},"Protokollierung","not_applicable","Diese Fähigkeit ist primär analytisch und führt keine destruktiven Aktionen oder ausgehenden Aufrufe durch, die eine lokale Audit-Protokollierung erfordern.",{"category":119,"check":120,"severity":24,"summary":121},"Compliance","DSGVO","Die Fähigkeit arbeitet mit vom Benutzer bereitgestellten Datenquellen. Sie verarbeitet nicht inhärent personenbezogene Daten, es sei denn, die Eingabedaten enthalten diese, und sie übermittelt keine Daten an Dritte.",{"category":119,"check":123,"severity":24,"summary":124},"Zielmarkt","Die Erweiterung arbeitet mit lokalen Dateien, Datenbanken und Cloud-Speichern und ist nicht an bestimmte geografische oder rechtliche Gerichtsbarkeiten gebunden.",{"category":91,"check":126,"severity":24,"summary":127},"Laufzeitstabilität","Die Fähigkeit stützt sich auf das Python-Paket `chdb` und die Standard-Python-Ausführung, wodurch sie auf kompatiblen Betriebssystemen portierbar ist.",{"category":44,"check":129,"severity":24,"summary":130},"README","Die README-Datei existiert, ist gut strukturiert und gibt den Zweck der Erweiterung und die Installationsanweisungen klar an.",{"category":33,"check":132,"severity":24,"summary":133},"Größe der Werkzeugoberfläche","Die Erweiterung stellt hauptsächlich SQL-Abfragefunktionen über einige gut definierte API-Einstiegspunkte (`chdb.query`, `Session`) bereit und hält die Oberflächengröße überschaubar.",{"category":40,"check":135,"severity":24,"summary":136},"Überlappende Synonym-Werkzeuge","Die Fähigkeit stellt unterschiedliche Schnittstellen für verschiedene Interaktionsmuster (`query`, `Session`, `dbapi`) bereit und vermeidet redundante oder überlappende Werkzeuge.",{"category":44,"check":138,"severity":24,"summary":139},"Phantom-Funktionen","Alle beworbenen Funktionen, wie das Abfragen verschiedener Dateitypen und Datenquellen, werden direkt über die `chdb`-Bibliothek und ihre APIs implementiert.",{"category":141,"check":142,"severity":24,"summary":143},"Installation","Installationsanleitung","Das README enthält klare Installationsanweisungen (`npx skills add`) und ein Aufrufbeispiel im Frontmatter von `SKILL.md` und in `examples.md`.",{"category":145,"check":146,"severity":24,"summary":147},"Fehler","Aktionsorientierte Fehlermeldungen","Der bereitgestellte Fehlerbehebungsabschnitt in `examples.md` und die allgemeine Struktur von API-Fehlern bieten Anleitungen, was fehlgeschlagen ist und mögliche Korrekturen.",{"category":104,"check":149,"severity":24,"summary":150},"Angepinnte Abhängigkeiten","Die Erweiterung listet `pip install chdb` und erwähnt Python 3.9+, was auf eine Abhängigkeitsverwaltung hindeutet. Vertrauenssignale deuten auf eine vorhandene Sperrdatei hin.",{"category":33,"check":152,"severity":116,"summary":153},"Dry-Run-Vorschau","Die Hauptfunktion der Fähigkeit ist Datenanalyse und -abfrage, die von Natur aus schreibgeschützt ist und keine zustandsändernden Operationen beinhaltet, die einen Dry-Run-Modus erfordern.",{"category":155,"check":156,"severity":24,"summary":157},"Protokoll","Idempotente Wiederholungsversuche & Timeouts","Die zugrunde liegende `chdb`-Bibliothek verarbeitet die Abfrageausführung, die für Select-Anweisungen im Allgemeinen idempotent ist. Timeouts werden von der Python-Umgebung und den zugrunde liegenden Bibliotheken verwaltet.",{"category":119,"check":159,"severity":24,"summary":160},"Telemetrie-Opt-in","Die Fähigkeit scheint keine Telemetrie zu senden. Jegliche Telemetrie würde wahrscheinlich von der Kernbibliothek `chdb` oder dem Agenten-Framework verwaltet, nicht direkt von dieser Fähigkeit.",{"category":40,"check":162,"severity":24,"summary":163},"Präziser Zweck","Die Beschreibung benennt präzise das Artefakt (ClickHouse SQL-Engine), die Benutzerabsicht (SQL-Abfragen ausführen) und liefert klare Anwendungsfälle und Nicht-Ziele.",{"category":40,"check":165,"severity":24,"summary":166},"Prägnanter Frontmatter","Der Frontmatter ist prägnant, in sich geschlossen und fasst die Kernfunktionalität und Auslöser-Phrasen effektiv innerhalb des empfohlenen Zeichenlimits zusammen.",{"category":44,"check":168,"severity":24,"summary":169},"Prägnanter Körper","Der Hauptteil von SKILL.md ist prägnant und nutzt effektiv externe Markdown-Dateien für tiefere Materialien wie API-Referenzen und Beispiele.",{"category":171,"check":172,"severity":24,"summary":173},"Kontext","Progressive Offenlegung","Detaillierte Informationen wie API-Referenzen, Tabellenfunktionen und SQL-Funktionen werden ordnungsgemäß an separate Markdown-Dateien delegiert, die von SKILL.md verlinkt sind.",{"category":171,"check":175,"severity":116,"summary":176},"Gabel-Erkundung","Diese Fähigkeit konzentriert sich nicht auf tiefe Erkundung oder Code-Überprüfung; ihr Zweck ist die direkte Datenabfrage, daher ist `context: fork` nicht anwendbar.",{"category":22,"check":178,"severity":24,"summary":179},"Anwendungsbeispiele","Die Datei `examples/examples.md` bietet eine umfassende Reihe von ausführbaren End-to-End-Beispielen, die verschiedene Funktionalitäten demonstrieren, einschließlich Dateilabfragen, Joins, Sitzungen und UDFs.",{"category":22,"check":181,"severity":24,"summary":182},"Randfälle","Die Datei `examples/examples.md` enthält einen Abschnitt über häufige Fehler und deren Behebung, der Probleme wie nicht gefundene Dateien, falsche Funktionsnamen und Verbindungsprobleme mit vorgeschlagenen Wiederherstellungsschritten behandelt.",{"category":111,"check":184,"severity":116,"summary":185},"Werkzeug-Fallback","Die Fähigkeit stützt sich auf das Kernpaket `chdb` für Python und verfügt über keine externen Werkzeugabhängigkeiten, die einen Fallback-Mechanismus erfordern würden.",{"category":65,"check":187,"severity":24,"summary":188},"Halt bei unerwartetem Zustand","Die bereitgestellten Beispiele und die API-Struktur deuten darauf hin, dass ungültige Eingaben oder Zustände zu Fehlern oder Ausnahmen führen würden, anstatt unerwartete Konsequenzen fortzusetzen.",{"category":91,"check":190,"severity":24,"summary":191},"Übergreifende Kopplung","Die Fähigkeit ist in sich geschlossen und konzentriert sich auf SQL-Abfragen über `chdb`; sie scheint nicht implizit von anderen Fähigkeiten abhängig zu sein, und Querverweise sind nicht erkennbar.",1778684035463,"Diese Fähigkeit bietet eine In-Process-ClickHouse-SQL-Engine für Python, mit der Benutzer SQL-Abfragen direkt auf lokalen Dateien (Parquet, CSV, JSON), entfernten Datenbanken (MySQL, PostgreSQL) und Cloud-Speicher (S3, GCS, Azure Blob) ausführen können, ohne einen separaten ClickHouse-Server zu benötigen. Sie unterstützt erweiterte ClickHouse-Funktionen wie Tabellenfunktionen, parametrisierte Abfragen und Fensterfunktionen und kann Python-Datenstrukturen als Tabellen aufnehmen.",[195,196,197,198,199,200,201],"ClickHouse SQL-Abfragen im Prozess ausführen","Lokale Dateien (Parquet, CSV, JSON) abfragen","Verbindung zu entfernten Datenbanken (MySQL, PostgreSQL) herstellen","Zugriff auf Cloud-Speicher (S3, GCS, Azure Blob)","Erweiterte ClickHouse SQL-Funktionen nutzen (Tabellenfunktionen, Fensterfunktionen, parametrisierte Abfragen)","Python-Datenstrukturen (Dicts, DataFrames) als SQL-Tabellen integrieren","Zustandsbehaftete analytische Pipelines mit der Session-API erstellen",[203,204,205],"Durchführen von pandas-ähnlichen DataFrame-Operationen (verwenden Sie stattdessen `chdb-datastore`).","Ausführen eines eigenständigen ClickHouse-Servers.","Als allgemeiner Datenbankclient für alle SQL-Dialekte fungieren.","3.0.0","4.4.0","Benutzern die Nutzung der Leistungsfähigkeit von ClickHouse SQL direkt in ihrer Python-Umgebung für effiziente Datenabfragen und -analysen über verschiedene Datenquellen hinweg zu ermöglichen.","Hervorragende Dokumentation und Funktionalität mit klaren Beispielen und umfassenden API-Referenzen. Keine kritischen oder Warnmeldungen.",98,"Eine qualitativ hochwertige Fähigkeit zum Ausführen von ClickHouse SQL-Abfragen im Prozess über Python.",[213,214,215,216,217,218,219,220],"sql","clickhouse","query","python","data-analysis","parquet","csv","json","verified",[223,224,225,226],"Abfragen von Daten aus Parquet-, CSV- oder JSON-Dateien mit SQL.","Zusammenführen von Daten aus verschiedenen Quellen (z. B. MySQL und S3) mit SQL.","Erstellen von mehrstufigen Analyse-Pipelines mit persistenten Sitzungen.","Nutzung des reichhaltigen SQL-Dialekts von ClickHouse innerhalb eines Python-Skripts.",{"codeQuality":228,"collectedAt":230,"documentation":231,"maintenance":234,"security":241,"testCoverage":243},{"hasLockfile":229},true,1778684011129,{"descriptionLength":232,"readmeSize":233},649,6756,{"closedIssues90d":8,"forks":235,"hasChangelog":236,"manifestVersion":237,"openIssues90d":238,"pushedAt":239,"stars":240},25,false,"4.1",2,1778669462000,425,{"hasNpmPackage":236,"license":242,"smitheryVerified":236},"Apache-2.0",{"hasCi":229,"hasTests":236},{"updatedAt":245},1778684237051,{"basePath":247,"githubOwner":214,"githubRepo":248,"locale":18,"slug":13,"type":249},"skills/chdb-sql","agent-skills","skill",{"_creationTime":251,"_id":252,"community":253,"display":254,"identity":258,"parentExtension":262,"providers":292,"relations":301,"tags":302,"workflow":303},1778683910609.9004,"k171w0wat3qnkfpas7mn7yqtb986mfgf",{"reviewCount":8},{"description":255,"installMethods":256,"name":257,"sourceUrl":14},"28 best practice rules for ClickHouse schema design, query optimization, and data ingestion — prioritized by impact",{"claudeCode":257},"clickhouse-best-practices",{"basePath":259,"githubOwner":214,"githubRepo":248,"locale":260,"slug":248,"type":261},"","en","plugin",{"_creationTime":263,"_id":264,"community":265,"display":266,"identity":270,"providers":272,"relations":285,"tags":287,"workflow":288},1778683910609.9001,"k1790kh9nnyedb58t0bhb9k83s86mcna",{"reviewCount":8},{"description":267,"installMethods":268,"name":269,"sourceUrl":14},"Official ClickHouse best practices for Claude Code",{"claudeCode":12},"clickhouse-agent-skills",{"basePath":259,"githubOwner":214,"githubRepo":248,"locale":260,"slug":248,"type":271},"marketplace",{"evaluate":273,"extract":280},{"promptVersionExtension":274,"promptVersionScoring":207,"score":275,"tags":276,"targetMarket":279,"tier":221},"3.1.0",95,[214,277,213,217,278],"database","developer-tools","global",{"commitSha":281,"marketplace":282,"plugin":283},"HEAD",{"name":269,"pluginCount":238},{"mcpCount":8,"provider":284,"skillCount":8},"classify",{"repoId":286},"kd7723v6kvsmj7pd0jntz17bkn86ne4f",[214,217,277,278,213],{"evaluatedAt":289,"extractAt":290,"updatedAt":291},1778683929817,1778683910609,1778684301942,{"evaluate":293,"extract":298},{"promptVersionExtension":206,"promptVersionScoring":207,"score":294,"tags":295,"targetMarket":279,"tier":221},97,[214,277,213,216,296,297],"devops","analytics",{"commitSha":281,"license":242,"plugin":299},{"mcpCount":8,"provider":284,"skillCount":300},6,{"parentExtensionId":264,"repoId":286},[297,214,277,296,216,213],{"evaluatedAt":304,"extractAt":290,"updatedAt":305},1778683955196,1778684302148,{"evaluate":307,"extract":309},{"promptVersionExtension":206,"promptVersionScoring":207,"score":210,"tags":308,"targetMarket":279,"tier":221},[213,214,215,216,217,218,219,220],{"commitSha":281},{"parentExtensionId":252,"repoId":286,"translatedFrom":311},"k17c4ydtqa4by58w512pxnpgan86n7a4",{"_creationTime":313,"_id":286,"identity":314,"providers":315,"workflow":452},1778683905800.361,{"githubOwner":214,"githubRepo":248,"sourceUrl":14},{"classify":316,"discover":444,"github":447},{"commitSha":281,"extensions":317},[318,331,352,362,380,394,411,420,428,436],{"basePath":259,"description":267,"displayName":269,"installMethods":319,"rationale":320,"selectedPaths":321,"source":330,"sourceLanguage":260,"type":271},{"claudeCode":12},"marketplace.json at .claude-plugin/marketplace.json",[322,325,327],{"path":323,"priority":324},".claude-plugin/marketplace.json","mandatory",{"path":326,"priority":324},"README.md",{"path":328,"priority":329},"LICENSE","high","rule",{"basePath":259,"description":255,"displayName":257,"installMethods":332,"license":242,"rationale":333,"selectedPaths":334,"source":330,"sourceLanguage":260,"type":261},{"claudeCode":257},"plugin manifest at .claude-plugin/plugin.json",[335,337,338,339,342,344,346,348,350],{"path":336,"priority":324},".claude-plugin/plugin.json",{"path":326,"priority":324},{"path":328,"priority":329},{"path":340,"priority":341},"skills/chdb-datastore/SKILL.md","medium",{"path":343,"priority":341},"skills/chdb-sql/SKILL.md",{"path":345,"priority":341},"skills/clickhouse-architecture-advisor/SKILL.md",{"path":347,"priority":341},"skills/clickhouse-best-practices/SKILL.md",{"path":349,"priority":341},"skills/clickhousectl-cloud-deploy/SKILL.md",{"path":351,"priority":341},"skills/clickhousectl-local-dev/SKILL.md",{"basePath":353,"description":354,"displayName":355,"installMethods":356,"rationale":357,"selectedPaths":358,"source":330,"sourceLanguage":260,"type":261},"skills/clickhouse-architecture-advisor","Workload-aware architecture decision skill for ClickHouse — ingestion strategies, partitioning, enrichment, upsert patterns, and pre-aggregation with explicit official/derived/field provenance","clickhouse-architecture-advisor",{"claudeCode":355},"inline plugin source from marketplace.json at skills/clickhouse-architecture-advisor",[359,360],{"path":326,"priority":324},{"path":361,"priority":329},"SKILL.md",{"basePath":363,"description":364,"displayName":365,"installMethods":366,"rationale":367,"selectedPaths":368,"source":330,"sourceLanguage":260,"type":249},"skills/chdb-datastore","Drop-in pandas replacement with ClickHouse performance. Use `import chdb.datastore as pd` (or `from datastore import DataStore`) and write standard pandas code — same API, 10-100x faster on large datasets. Supports 16+ data sources (MySQL, PostgreSQL, S3, MongoDB, ClickHouse, Iceberg, Delta Lake, etc.) and 10+ file formats (Parquet, CSV, JSON, Arrow, ORC, etc.) with cross-source joins. Use this skill when the user wants to analyze data with pandas-style syntax, speed up slow pandas code, query remote databases or cloud storage as DataFrames, or join data across different sources — even if they don't explicitly mention chdb or DataStore. Do NOT use for raw SQL queries, ClickHouse server administration, or non-Python languages.","chdb-datastore",{"claudeCode":12},"SKILL.md frontmatter at skills/chdb-datastore/SKILL.md",[369,370,371,374,376,378],{"path":361,"priority":324},{"path":326,"priority":329},{"path":372,"priority":373},"examples/examples.md","low",{"path":375,"priority":341},"references/api-reference.md",{"path":377,"priority":341},"references/connectors.md",{"path":379,"priority":373},"scripts/verify_install.py",{"basePath":247,"description":381,"displayName":13,"installMethods":382,"rationale":383,"selectedPaths":384,"source":330,"sourceLanguage":260,"type":249},"In-process ClickHouse SQL engine for Python — run ClickHouse SQL queries directly on local files, remote databases, and cloud storage without a server. Use when the user wants to write SQL queries against Parquet/CSV/ JSON files, use ClickHouse table functions (mysql(), s3(), postgresql(), iceberg(), deltaLake() etc.), build stateful analytical pipelines with Session, use parametrized queries, window functions, or other advanced ClickHouse SQL features. Also use when the user explicitly mentions chdb.query(), ClickHouse SQL syntax, or wants cross-source SQL joins. Do NOT use for pandas-style DataFrame operations — use chdb-datastore instead.",{"claudeCode":12},"SKILL.md frontmatter at skills/chdb-sql/SKILL.md",[385,386,387,388,389,391,393],{"path":361,"priority":324},{"path":326,"priority":329},{"path":372,"priority":373},{"path":375,"priority":341},{"path":390,"priority":341},"references/sql-functions.md",{"path":392,"priority":341},"references/table-functions.md",{"path":379,"priority":373},{"basePath":353,"description":395,"displayName":355,"installMethods":396,"rationale":397,"selectedPaths":398,"source":330,"sourceLanguage":260,"type":249},"MUST USE when designing ClickHouse architectures, selecting between ingestion or modeling patterns, or translating best practices into workload-specific system designs. Complements clickhouse-best-practices with decision frameworks and explicit provenance labels.",{"claudeCode":12},"SKILL.md frontmatter at skills/clickhouse-architecture-advisor/SKILL.md",[399,400,401,403,405,407,409],{"path":361,"priority":324},{"path":326,"priority":329},{"path":402,"priority":341},"AGENTS.md",{"path":404,"priority":373},"examples/README.md",{"path":406,"priority":373},"examples/finserv-market-surveillance.md",{"path":408,"priority":373},"examples/observability-high-throughput.md",{"path":410,"priority":373},"examples/siem-security-analytics.md",{"basePath":412,"description":413,"displayName":257,"installMethods":414,"rationale":415,"selectedPaths":416,"source":330,"sourceLanguage":260,"type":249},"skills/clickhouse-best-practices","MUST USE when reviewing ClickHouse schemas, queries, or configurations. Contains 31 rules that MUST be checked before providing recommendations. Always read relevant rule files and cite specific rules in responses.",{"claudeCode":12},"SKILL.md frontmatter at skills/clickhouse-best-practices/SKILL.md",[417,418,419],{"path":361,"priority":324},{"path":326,"priority":329},{"path":402,"priority":341},{"basePath":421,"description":422,"displayName":423,"installMethods":424,"rationale":425,"selectedPaths":426,"source":330,"sourceLanguage":260,"type":249},"skills/clickhouse-client-js/clickhouse-js-node-troubleshooting","Troubleshoot and resolve common issues with the ClickHouse Node.js client (@clickhouse/client). Use this skill whenever a user reports errors, unexpected behavior, or configuration questions involving the Node.js client specifically — including socket hang-up errors, Keep-Alive problems, stream handling issues, data type mismatches, read-only user restrictions, proxy/TLS setup problems, or long-running query timeouts. Trigger even when the user hasn't precisely named the issue; vague symptoms like \"my inserts keep failing\" or \"connection drops randomly\" in a Node.js context are strong signals to use this skill. Do NOT use for browser/Web client issues.\n","clickhouse-js-node-troubleshooting",{"claudeCode":12},"SKILL.md frontmatter at skills/clickhouse-client-js/clickhouse-js-node-troubleshooting/SKILL.md",[427],{"path":361,"priority":324},{"basePath":429,"description":430,"displayName":431,"installMethods":432,"rationale":433,"selectedPaths":434,"source":330,"sourceLanguage":260,"type":249},"skills/clickhousectl-cloud-deploy","Use when a user wants to deploy ClickHouse to the cloud, go to production, use ClickHouse Cloud, host a managed ClickHouse service, or migrate from a local ClickHouse setup to ClickHouse Cloud.","clickhousectl-cloud-deploy",{"claudeCode":12},"SKILL.md frontmatter at skills/clickhousectl-cloud-deploy/SKILL.md",[435],{"path":361,"priority":324},{"basePath":437,"description":438,"displayName":439,"installMethods":440,"rationale":441,"selectedPaths":442,"source":330,"sourceLanguage":260,"type":249},"skills/clickhousectl-local-dev","Use when a user wants to build an application with ClickHouse, set up a local ClickHouse development environment, install ClickHouse, create a local server, create tables, or start developing with ClickHouse. Covers the full flow from zero to a working local ClickHouse setup.","clickhousectl-local-dev",{"claudeCode":12},"SKILL.md frontmatter at skills/clickhousectl-local-dev/SKILL.md",[443],{"path":361,"priority":324},{"sources":445},[446],"manual",{"closedIssues90d":8,"description":448,"forks":235,"homepage":449,"license":242,"openIssues90d":238,"pushedAt":239,"readmeSize":233,"stars":240,"topics":450},"The official Agent Skills for ClickHouse and ClickHouse Cloud","https://clickhouse.ai",[451,214],"agents",{"classifiedAt":453,"discoverAt":454,"extractAt":455,"githubAt":455,"updatedAt":453},1778683910082,1778683905800,1778683908184,[214,219,217,220,218,216,215,213],{"evaluatedAt":458,"extractAt":290,"updatedAt":245},1778684035570,[],[461,490,519,547,575,599],{"_creationTime":462,"_id":463,"community":464,"display":465,"identity":471,"providers":475,"relations":483,"tags":486,"workflow":487},1778695548458.3613,"k17dx6tyy2yb3z5pp1vgmg46ad86nm18",{"reviewCount":8},{"description":466,"installMethods":467,"name":469,"sourceUrl":470},"Fit cognitive drift-diffusion models (Ratcliff DDM) to reaction time and accuracy data with parameter estimation (drift rate, boundary separation, non-decision time), model comparison, and parameter recovery validation. Use when modeling binary decision-making with reaction time data, estimating cognitive parameters from experimental data, comparing sequential sampling model variants, or decomposing speed-accuracy tradeoff effects into latent cognitive components.\n",{"claudeCode":468},"pjt222/agent-almanac","fit-drift-diffusion-model","https://github.com/pjt222/agent-almanac",{"basePath":472,"githubOwner":473,"githubRepo":474,"locale":260,"slug":469,"type":249},"skills/fit-drift-diffusion-model","pjt222","agent-almanac",{"evaluate":476,"extract":482},{"promptVersionExtension":206,"promptVersionScoring":207,"score":477,"tags":478,"targetMarket":279,"tier":221},100,[479,480,481,216,217],"cognitive-science","modeling","statistics",{"commitSha":281},{"parentExtensionId":484,"repoId":485},"k170h0janaa9kwn7cfgfz2ykss86mmh9","kd7aryv63z61j39n2td1aeqkvh86mh12",[479,217,480,216,481],{"evaluatedAt":488,"extractAt":489,"updatedAt":488},1778698191612,1778695548458,{"_creationTime":491,"_id":492,"community":493,"display":494,"identity":500,"providers":504,"relations":511,"tags":514,"workflow":515},1778683670334.5781,"k178v2rfnpxdwx78kb20ey1ga986nhye",{"reviewCount":8},{"description":495,"installMethods":496,"name":498,"sourceUrl":499},"Anleitung zum Abfragen von Datenbanken über den DBHub MCP-Server. Verwenden Sie diese Fähigkeit immer dann, wenn Sie Datenbankschemata untersuchen, Tabellen inspizieren oder SQL-Abfragen über die MCP-Tools von DBHub ausführen müssen (search_objects, execute_sql). Aktiviert bei jeder Datenbankabfrageaufgabe, Schemadeckung, Datenabfrage oder SQL-Ausführung über MCP – auch wenn der Benutzer nur „Datenbank prüfen“ oder „mir Daten finden“ sagt. Diese Fähigkeit stellt sicher, dass Sie dem richtigen Workflow „zuerst erkunden“ folgen, anstatt Tabellenstrukturen zu erraten.",{"claudeCode":497},"bytebase/dbhub","DBHub Database Query Guide","https://github.com/bytebase/dbhub",{"basePath":501,"githubOwner":502,"githubRepo":503,"locale":18,"slug":503,"type":249},"skills/dbhub","bytebase","dbhub",{"evaluate":505,"extract":509},{"promptVersionExtension":206,"promptVersionScoring":207,"score":477,"tags":506,"targetMarket":279,"tier":221},[277,213,215,507,508,502],"schema","mcp",{"commitSha":281,"license":510},"MIT",{"repoId":512,"translatedFrom":513},"kd75gz890g3h6zj0xf3qtbrdjd86mpw3","k17a9cav35ya4h38sccx3r3d5d86mr2y",[502,277,508,215,507,213],{"evaluatedAt":516,"extractAt":517,"updatedAt":518},1778683601748,1778683522639,1778683670334,{"_creationTime":520,"_id":521,"community":522,"display":523,"identity":529,"providers":533,"relations":541,"tags":543,"workflow":544},1778682862751.9475,"k177bn4hpsv2417q7fvbdtwav586ny65",{"reviewCount":8},{"description":524,"installMethods":525,"name":527,"sourceUrl":528},"Build with Aurora DSQL — manage schemas, execute queries, handle migrations, diagnose query plans, and develop applications with a serverless, distributed SQL database. Covers IAM auth, multi-tenant patterns, MySQL-to-DSQL migration, DDL operations, query plan explainability, and SQL compatibility validation. Triggers on phrases like: DSQL, Aurora DSQL, create DSQL table, DSQL schema, migrate to DSQL, distributed SQL database, serverless PostgreSQL-compatible database, DSQL query plan, DSQL EXPLAIN ANALYZE, why is my DSQL query slow.",{"claudeCode":526},"awslabs/mcp","dsql","https://github.com/awslabs/mcp",{"basePath":530,"githubOwner":531,"githubRepo":508,"locale":260,"slug":532,"type":249},"src/aurora-dsql-mcp-server/skills/dsql-skill","awslabs","dsql-skill",{"evaluate":534,"extract":540},{"promptVersionExtension":206,"promptVersionScoring":207,"score":477,"tags":535,"targetMarket":279,"tier":221},[277,213,536,537,527,538,507,215,539],"aws","aurora","migration","performance",{"commitSha":281},{"repoId":542},"kd71cq56hfddetnwspw92kb09x86mbzy",[537,536,277,527,538,539,215,507,213],{"evaluatedAt":545,"extractAt":546,"updatedAt":545},1778682978663,1778682862752,{"_creationTime":548,"_id":549,"community":550,"display":551,"identity":557,"providers":562,"relations":568,"tags":571,"workflow":572},1778696833339.6248,"k1704jzrc3jb9sv90n1mpz61hn86n2pp",{"reviewCount":8},{"description":552,"installMethods":553,"name":555,"sourceUrl":556},"Execute read-only SQL queries against multiple MySQL databases. Use when: (1) querying MySQL databases, (2) exploring database schemas/tables, (3) running SELECT queries for data analysis, (4) checking database contents. Supports multiple database connections with descriptions for intelligent auto-selection. Blocks all write operations (INSERT, UPDATE, DELETE, DROP, etc.) for safety.",{"claudeCode":554},"sanjay3290/ai-skills","MySQL Read-Only Query Skill","https://github.com/sanjay3290/ai-skills",{"basePath":558,"githubOwner":559,"githubRepo":560,"locale":260,"slug":561,"type":249},"skills/mysql","sanjay3290","ai-skills","mysql",{"evaluate":563,"extract":567},{"promptVersionExtension":206,"promptVersionScoring":207,"score":564,"tags":565,"targetMarket":279,"tier":221},99,[213,561,277,215,566],"read-only",{"commitSha":281,"license":242},{"parentExtensionId":569,"repoId":570},"k17es37z10n1sw6t2m3f0vsydx86mnje","kd71np0fyqg23qg8w2hcfw0h0h86nkn0",[277,561,215,566,213],{"evaluatedAt":573,"extractAt":574,"updatedAt":573},1778697138135,1778696833339,{"_creationTime":576,"_id":577,"community":578,"display":579,"identity":583,"providers":585,"relations":595,"tags":596,"workflow":597},1778695548458.3975,"k17ejn0j9x7ebtqhjz56mw3fbs86mn1z",{"reviewCount":8},{"description":580,"installMethods":581,"name":582,"sourceUrl":470},"Serialize and deserialize data across common formats including JSON, XML, YAML, Protocol Buffers, MessagePack, and Apache Arrow/Parquet. Covers format selection criteria, encoding/decoding patterns, performance trade-offs, and interoperability considerations. Use when choosing a wire format for API communication, persisting structured data to disk, exchanging data between systems written in different languages, optimizing transfer size or parsing speed, or migrating from one serialization format to another.\n",{"claudeCode":468},"serialize-data-formats",{"basePath":584,"githubOwner":473,"githubRepo":474,"locale":260,"slug":582,"type":249},"skills/serialize-data-formats",{"evaluate":586,"extract":594},{"promptVersionExtension":206,"promptVersionScoring":207,"score":294,"tags":587,"targetMarket":279,"tier":221},[588,589,220,590,591,592,218,593,539],"serialization","data-formats","xml","yaml","protobuf","arrow",{"commitSha":281},{"parentExtensionId":484,"repoId":485},[593,589,220,218,539,592,588,590,591],{"evaluatedAt":598,"extractAt":489,"updatedAt":598},1778701236156,{"_creationTime":600,"_id":601,"community":602,"display":603,"identity":607,"providers":608,"relations":616,"tags":618,"workflow":619},1778684256894.2214,"k17177mwhd96xma2scwvkvnbdn86m3pn",{"reviewCount":8},{"description":604,"installMethods":605,"name":606,"sourceUrl":14},"MUSS VERWENDET WERDEN, wenn ClickHouse-Schemas, Abfragen oder Konfigurationen überprüft werden. Enthält 31 Regeln, die VOR der Bereitstellung von Empfehlungen überprüft werden MÜSSEN. Lesen Sie immer relevante Regelsdateien und zitieren Sie spezifische Regeln in Antworten.",{"claudeCode":12},"ClickHouse Best Practices",{"basePath":412,"githubOwner":214,"githubRepo":248,"locale":18,"slug":257,"type":249},{"evaluate":609,"extract":615},{"promptVersionExtension":206,"promptVersionScoring":207,"score":610,"tags":611,"targetMarket":279,"tier":614},88,[214,277,612,507,215,539,613],"optimization","data-ingestion","community",{"commitSha":281,"license":242},{"parentExtensionId":252,"repoId":286,"translatedFrom":617},"k17cwmsnj5cbb1s2zvz5waqwvx86n75w",[214,613,277,612,539,215,507],{"evaluatedAt":620,"extractAt":290,"updatedAt":621},1778684090643,1778684256894]