[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"extension-skill-digitalsamba-ltx2-de":3,"guides-for-digitalsamba-ltx2":404,"similar-k178fyzn0qnv7wztxkea9555as86n8k7-de":405},{"_creationTime":4,"_id":5,"children":6,"community":7,"display":9,"evaluation":15,"identity":249,"isFallback":244,"parentExtension":254,"providers":255,"relations":261,"repo":264,"tags":400,"workflow":401},1778686570015.4111,"k178fyzn0qnv7wztxkea9555as86n8k7",[],{"reviewCount":8},0,{"description":10,"installMethods":11,"name":13,"sourceUrl":14},"KI-Videogenerierung mit LTX-2.3 22B — Text-zu-Video, Bild-zu-Video-Clips für die Videoproduktion. Verwenden Sie es zur Generierung von Videoclips, zur Animation von Bildern, zur Erstellung von B-Roll, animierten Hintergründen oder Motion Content. Trigger sind Videoerstellung, Bild animieren, B-Roll, Motion, Videoclip, Text-zu-Video, Bild-zu-Video.",{"claudeCode":12},"digitalsamba/claude-code-video-toolkit","ltx2","https://github.com/digitalsamba/claude-code-video-toolkit",{"_creationTime":16,"_id":17,"extensionId":5,"locale":18,"result":19,"trustSignals":230,"workflow":247},1778686570015.4114,"kn7ewv9gzsmyx7g0vha2y78pxd86n82d","de",{"checks":20,"evaluatedAt":195,"extensionSummary":196,"features":197,"nonGoals":204,"promptVersionExtension":209,"promptVersionScoring":210,"purpose":211,"rationale":212,"score":213,"summary":214,"tags":215,"tier":223,"useCases":224},[21,26,29,32,36,39,43,47,50,53,57,61,64,69,72,75,78,81,84,87,91,95,99,103,107,110,114,117,122,125,128,131,134,137,140,144,148,151,154,158,161,164,167,170,174,177,180,183,186,189,192],{"category":22,"check":23,"severity":24,"summary":25},"Praktischer Nutzen","Relevanz des Problems","pass","Die Beschreibung erklärt klar das Problem der KI-Videogenerierung mit LTX-2.3 und identifiziert spezifische Anwendungsfälle wie Text-zu-Video- und Bild-zu-Video-Clips.",{"category":22,"check":27,"severity":24,"summary":28},"Einzigartiges Verkaufsargument","Die Fähigkeit nutzt das LTX-2.3 22B DiT-Modell für die KI-Videogenerierung und bietet spezialisierte Funktionen über die Standard-LLM-Textgenerierung hinaus.",{"category":22,"check":30,"severity":24,"summary":31},"Produktionsreife","Die Fähigkeit bietet einen vollständigen Workflow zur Generierung von Videoclips, einschließlich detaillierter Parameter, Style-LoRAs und Integration mit anderen Tools. Die Einrichtungsanweisungen sind klar.",{"category":33,"check":34,"severity":24,"summary":35},"Umfang","Single Responsibility Principle","Die Erweiterung konzentriert sich auf die KI-Videogenerierung mit LTX-2.3, mit verwandten Tools für unterstützende Aufgaben wie Bildbearbeitung und Voiceover, und behält einen kohärenten Bereich bei.",{"category":33,"check":37,"severity":24,"summary":38},"Qualität der Beschreibung","Die angezeigte Beschreibung spiegelt die Fähigkeiten der Erweiterung genau wider und erläutert klar ihren Zweck und ihre Anwendungsfälle für die KI-Videogenerierung.",{"category":40,"check":41,"severity":24,"summary":42},"Aufruf","Geltungsbereich von Tools","Die Erweiterung stellt spezifische, eingegrenzte Tools wie `ltx2.py` mit klar definierten Parametern für Videogenerierungsaufgaben bereit.",{"category":44,"check":45,"severity":24,"summary":46},"Dokumentation","Konfigurations- & Parameterreferenz","Alle Parameter für das LTX-2.3-Modell sind im SKILL.md klar dokumentiert, einschließlich Standardwerten und Beschreibungen.",{"category":33,"check":48,"severity":24,"summary":49},"Tool-Namensgebung","Toolnamen wie `ltx2.py` und `voiceover.py` sind beschreibend und folgen gängigen Konventionen.",{"category":33,"check":51,"severity":24,"summary":52},"Minimale I/O-Oberfläche","Die Eingabeparameter für das Tool `ltx2.py` sind spezifisch für Videogenerierungsaufgaben, und die Ausgabe ist eine Videodatei.",{"category":54,"check":55,"severity":24,"summary":56},"Lizenz","Nutzbarkeit der Lizenz","Die Erweiterung ist unter der MIT-Lizenz lizenziert, einer permissiven Open-Source-Lizenz.",{"category":58,"check":59,"severity":24,"summary":60},"Wartung","Aktualität der Commits","Der letzte Commit war am 11. Mai 2026, was innerhalb der letzten 3 Monate liegt.",{"category":58,"check":62,"severity":24,"summary":63},"Abhängigkeitsmanagement","Das Projekt enthält eine `requirements.txt` für Python-Abhängigkeiten und eine `package.json` für Node.js-Abhängigkeiten, was auf die Verwaltung von Drittanbieterbibliotheken hinweist.",{"category":65,"check":66,"severity":67,"summary":68},"Sicherheit","Geheimnisverwaltung","warning","Das SKILL.md erwähnt die Anforderung von `MODAL_LTX2_ENDPOINT_URL` in `.env`, und die Einrichtungsanweisungen erwähnen ein HuggingFace-Token und die Akzeptanz der Gemma 3-Lizenz, aber es gibt keine explizite Anleitung, wie diese Geheimnisse sicher gehandhabt oder protokolliert werden.",{"category":65,"check":70,"severity":24,"summary":71},"Injektion","Die Fähigkeit verwendet hauptsächlich direkte Toolaufrufe mit strukturierten Parametern, was das Risiko einer Prompt-Injection durch gebündelte Skripte reduziert.",{"category":65,"check":73,"severity":24,"summary":74},"Transitive Lieferketten-Granaten","Die Erweiterung bündelt ihre Abhängigkeiten und Skripte, und Cloud-GPU-Aufrufe werden über spezifische Tool-Schnittstellen verwaltet, wodurch die externe Codeausführung zur Laufzeit vermieden wird.",{"category":65,"check":76,"severity":24,"summary":77},"Sandbox-Isolation","Die bereitgestellten Skripte und Tools arbeiten innerhalb ihrer definierten Bereiche, konzentrieren sich auf Videogenerierungsaufgaben und versuchen nicht, Dateien außerhalb ihres beabsichtigten Verzeichnisses zu ändern.",{"category":65,"check":79,"severity":24,"summary":80},"Sandbox-Escape-Primitive","In den bereitgestellten Skripten wurden keine Beweise für abgetrennte Prozessaufrufe oder Do-Retry-Schleifen gefunden.",{"category":65,"check":82,"severity":24,"summary":83},"Datenexfiltration","Die Hauptfunktion der Fähigkeit ist die Videogenerierung, und es gibt keine Hinweise darauf, dass vertrauliche Benutzerdaten gelesen oder an Dritte übermittelt werden.",{"category":65,"check":85,"severity":24,"summary":86},"Versteckte Texttricks","Der gebündelte Inhalt scheint frei von versteckten Steuerungs-Tricks zu sein, und Beschreibungen verwenden Standard-druckbare Zeichen.",{"category":88,"check":89,"severity":24,"summary":90},"Hooks","Opake Codeausführung","Die gebündelten Skripte sind reines Python und Node.js, ohne Anzeichen von Verschleierung, Base64-Payloads oder Laufzeit-Codeabruf.",{"category":92,"check":93,"severity":24,"summary":94},"Portabilität","Strukturelle Annahme","Die Einrichtungsanweisungen und Skriptbeispiele gehen von einer Standardprojektstruktur und Befehlszeilenverwendung aus und geben klare Anleitungen.",{"category":96,"check":97,"severity":24,"summary":98},"Vertrauen","Aufmerksamkeit für Probleme","In den letzten 90 Tagen wurde 1 Issue geöffnet und 4 geschlossen, was auf ein aktives Engagement der Maintainer und eine gesunde Abschlussrate hinweist.",{"category":100,"check":101,"severity":24,"summary":102},"Versionierung","Release-Management","Das Projekt hat GitHub-Releases, und die README verweist auf Versionsinformationen, was eine klare Erkennung neuer Versionen ermöglicht.",{"category":104,"check":105,"severity":24,"summary":106},"Ausführung","Validierung","Die Python-Skripte validieren Eingabeparameter wie Prompts, Breiten und Höhen und stellen sicher, dass sie die erwarteten Formate und Einschränkungen erfüllen.",{"category":65,"check":108,"severity":24,"summary":109},"Ungeschützte destruktive Operationen","Die Hauptoperationen beinhalten die Generierung von Videodateien, die nicht destruktiv sind. Konfigurationsschritte für Cloud-GPUs sind geführt und explizit.",{"category":111,"check":112,"severity":24,"summary":113},"Codeausführung","Fehlerbehandlung","Die Python-Skripte enthalten Fehlerbehandlung für Parameter und Cloud-Operationen, und die Dokumentation beschreibt Einschränkungen und Wiederherstellungsschritte.",{"category":111,"check":115,"severity":24,"summary":116},"Protokollierung","Die Einrichtungsanweisungen und Cloud-Deployment-Skripte implizieren die Protokollierung über die Infrastruktur von Modal/RunPod, und die `--debug`-Flagge wird für ausführliche Ausgaben erwähnt.",{"category":118,"check":119,"severity":120,"summary":121},"Compliance","DSGVO","not_applicable","Die Erweiterung konzentriert sich auf die Videogenerierung und scheint nicht mit personenbezogenen Daten zu arbeiten.",{"category":118,"check":123,"severity":24,"summary":124},"Zielmarkt","Die Erweiterung ist global anwendbar, ohne spezifische regionale oder gerichtliche Einschränkungen in der Dokumentation.",{"category":92,"check":126,"severity":24,"summary":127},"Laufzeitstabilität","Das Toolkit gibt Python 3.9+ und Node.js 18+ als Anforderungen an und liefert klare Einrichtungsanleitungen für Cloud-Umgebungen, was eine breite Kompatibilität gewährleistet.",{"category":44,"check":129,"severity":24,"summary":130},"README","Das README ist umfassend und bietet Installationsanleitungen, Anwendungsbeispiele, Funktionen und technische Details.",{"category":33,"check":132,"severity":24,"summary":133},"Größe der Tool-Oberfläche","Die Erweiterung stellt eine angemessene Anzahl von Python-Tools und Claude Code-Befehlen bereit, die alle auf die Videoproduktion ausgerichtet sind.",{"category":40,"check":135,"severity":24,"summary":136},"Überlappende Nahe-Synonym-Tools","Toolnamen und -funktionen sind eindeutig und decken spezifische Aspekte der Videogenerierung und -produktion ohne nennenswerte Überschneidungen ab.",{"category":44,"check":138,"severity":24,"summary":139},"Phantom-Funktionen","Alle beworbenen Funktionen wie KI-Videogenerierung, Voiceover und Musik haben entsprechende Tools und detaillierte Dokumentationen.",{"category":141,"check":142,"severity":24,"summary":143},"Installation","Installationsanleitung","Das README bietet klare, schrittweise Installationsanleitungen, einschließlich der Einrichtung für Cloud-GPUs und KI-Modelle, mit kopierbaren Beispielen.",{"category":145,"check":146,"severity":24,"summary":147},"Fehler","Handlungsfähige Fehlermeldungen","Die Dokumentation beschreibt mögliche Fehlerfälle und Wiederherstellungsschritte, insbesondere für die Cloud-GPU-Einrichtung und Tool-Parameter.",{"category":104,"check":149,"severity":24,"summary":150},"Angepinnte Abhängigkeiten","Abhängigkeiten werden über `requirements.txt` und `package.json` verwaltet, was auf angepinnte Versionen für die Reproduzierbarkeit hinweist.",{"category":33,"check":152,"severity":120,"summary":153},"Dry-Run-Vorschau","Die Hauptoperation ist die Videogenerierung, die keine zustandsändernde Operation im herkömmlichen Sinne ist, die von einem Dry-Run-Flag profitieren würde.",{"category":155,"check":156,"severity":24,"summary":157},"Protokoll","Idempotente Wiederholungsversuche & Timeouts","Cloud-Operationen über Modal und RunPod verwalten typischerweise Wiederholungsversuche und Timeouts, und die Skriptstruktur legt diskrete, zustandslose Aufrufe für jede Generierungsaufgabe nahe.",{"category":118,"check":159,"severity":24,"summary":160},"Telemetry-Opt-in","Die Erweiterung scheint standardmäßig keine Telemetrie zu senden; Cloud-Anbieter-Integrationen und optionale lokale Tools würden ihre eigenen Telemetrie-Richtlinien verwalten.",{"category":40,"check":162,"severity":24,"summary":163},"Präziser Zweck","Der Zweck der Fähigkeit ist präzise als KI-Videogenerierung mit LTX-2.3 definiert, einschließlich Text-zu-Video und Bild-zu-Video, mit klaren Anwendungsfällen und Triggern.",{"category":40,"check":165,"severity":24,"summary":166},"Prägnante Frontmatter","Die SKILL.md-Frontmatter ist prägnant, erklärt klar die Kernfunktionalität und liefert relevante Trigger-Phrasen.",{"category":44,"check":168,"severity":24,"summary":169},"Prägnanter Textteil","Die SKILL.md ist gut strukturiert und vermeidet übermäßige Wortwahl, indem sie tiefergehende Inhalte an separate Dateien wie `references` und `examples` delegiert.",{"category":171,"check":172,"severity":24,"summary":173},"Kontext","Progressive Offenlegung","Die Dokumentation verwendet progressive Offenlegung effektiv, wobei die Haupt-SKILL.md Verfahren beschreibt und auf separate Dateien für detaillierte Informationen verlinkt.",{"category":171,"check":175,"severity":120,"summary":176},"Gabelung der Erkundung","Diese Fähigkeit konzentriert sich auf die Generierung und beinhaltet keine tiefe Codeüberprüfung oder Erkundung, die `context: fork` erfordern würde.",{"category":22,"check":178,"severity":24,"summary":179},"Anwendungsbeispiele","Die SKILL.md und das README bieten zahlreiche klare, sofort einsatzbereite Beispiele für Text-zu-Video, Bild-zu-Video und verschiedene Parameter, die beobachtbare Ergebnisse zeigen.",{"category":22,"check":181,"severity":24,"summary":182},"Randfälle","Die Dokumentation der SKILL.md erwähnt bekannte Einschränkungen wie Textdarstellungsprobleme und maximale Dauer sowie Vorschläge zur Wiederherstellung (z. B. verschiedene Seeds, Stitching).",{"category":111,"check":184,"severity":24,"summary":185},"Tool-Fallback","Die Erweiterung ermöglicht die optionale Nutzung von Cloud-GPUs mit Modal oder RunPod, und das `ltx2.py`-Tool kann lokal ausgeführt werden, wenn keine Cloud-Endpunkte konfiguriert sind, was einen Fallback bietet.",{"category":92,"check":187,"severity":24,"summary":188},"Stack-Annahmen","Das Projekt deklariert klar die Anforderungen an Node.js- und Python-Versionen und gibt Cloud-Umgebungen (Modal/RunPod) für GPU-Aufgaben an.",{"category":65,"check":190,"severity":24,"summary":191},"Halt bei unerwartetem Zustand","Die Einrichtungsanweisungen führen den Benutzer durch die Konfigurationsschritte, was impliziert, dass der Workflow bei Nichterfüllung von Voraussetzungen mit klaren Fehlern angehalten wird.",{"category":92,"check":193,"severity":24,"summary":194},"Kopplung zwischen Skills","Die Fähigkeit ist in sich geschlossen und auf die Videogenerierung konzentriert, ohne implizite Abhängigkeit von anderen spezifischen Fähigkeiten, die gleichzeitig geladen werden.",1778686374491,"Diese Fähigkeit ermöglicht die KI-Videogenerierung unter Verwendung des LTX-2.3 22B DiT-Modells, unterstützt die Erstellung von Text-zu-Video- und Bild-zu-Video-Clips. Sie bietet detaillierte Parametersteuerungen, Style-LoRAs und integriert sich mit Cloud-GPUs über Modal oder RunPod.",[198,199,200,201,202,203],"Text-zu-Video-Generierung","Bild-zu-Video-Animation","Anpassbare Video-Parameter (Auflösung, Dauer, Qualität)","Anwendung von Style-LoRAs zur ästhetischen Steuerung","Integration mit Cloud-GPU-Plattformen (Modal, RunPod)","Detaillierte Prompt-Anleitung und Anwendungsbeispiele",[205,206,207,208],"Generierung von fotorealistischen menschlichen Lippensynchronisationen, bei denen Präzision entscheidend ist","Produktion von Videos, die länger als ca. 8 Sekunden sind, ohne Zusammenfügen","Generierung von lesbarem Text direkt in Videoframes","Direkte Bereitstellung von Voiceover oder Musik (erfordert Integration mit anderen Tools)","3.0.0","4.4.0","Generierung von KI-gesteuerten Videoclips aus Text-Prompts oder vorhandenen Bildern für verschiedene Videoproduktionsanforderungen, wie z. B. Erstellung von B-Roll, animierten Hintergründen oder Motion Content.","Die Erweiterung hat eine hohe Punktzahl aufgrund ihrer umfassenden Dokumentation, klaren Beispiele und ihres gut definierten Umfangs. Die geringfügige Warnung bezüglich der Handhabung von Geheimnissen in `.env`-Dateien verhindert eine perfekte Punktzahl.",96,"Hervorragende KI-Videogenerierungsfähigkeit mit gründlicher Dokumentation und Beispielen.",[216,217,218,219,220,221,222],"video-generation","ltx-2-3","text-to-video","image-to-video","modal","runpod","ai-video","community",[225,226,227,228,229],"Generierung von atmosphärischen B-Roll-Clips","Animation von Standbildern für Motion Content","Erstellung von animierten Folienhintergründen","Generierung von stilisierten Charakter-Cameos","Produktion von gebrandeten Intro/Outro Motion-Hintergründen",{"codeQuality":231,"collectedAt":233,"documentation":234,"maintenance":237,"security":243,"testCoverage":246},{"hasLockfile":232},true,1778686338096,{"descriptionLength":235,"readmeSize":236},314,18886,{"closedIssues90d":238,"forks":239,"hasChangelog":232,"openIssues90d":240,"pushedAt":241,"stars":242},4,187,1,1778501732000,1137,{"hasNpmPackage":244,"license":245,"smitheryVerified":244},false,"MIT",{"hasCi":232,"hasTests":244},{"updatedAt":248},1778686570015,{"basePath":250,"githubOwner":251,"githubRepo":252,"locale":18,"slug":13,"type":253},".claude/skills/ltx2","digitalsamba","claude-code-video-toolkit","skill",null,{"evaluate":256,"extract":259},{"promptVersionExtension":209,"promptVersionScoring":210,"score":213,"tags":257,"targetMarket":258,"tier":223},[216,217,218,219,220,221,222],"global",{"commitSha":260},"HEAD",{"repoId":262,"translatedFrom":263},"kd70r97eght58pp9f1x8scdagd86n32q","k174cmwts8pcx7rj20ryz4xf4n86nqrg",{"_creationTime":265,"_id":262,"identity":266,"providers":267,"workflow":396},1778686211924.9185,{"githubOwner":251,"githubRepo":252,"sourceUrl":14},{"classify":268,"discover":379,"github":382},{"commitSha":260,"extensions":269},[270,282,293,302,310,316,324,333,347,356,364,371],{"basePath":271,"description":272,"displayName":273,"installMethods":274,"rationale":275,"selectedPaths":276,"source":280,"sourceLanguage":281,"type":253},".claude/skills/acestep","AI music generation with ACE-Step 1.5 — background music, vocal tracks, covers, stem extraction, audio repainting, and continuation for video production. Use when generating music, soundtracks, jingles, or working with audio stems. Triggers include background music, soundtrack, jingle, music generation, stem extraction, cover, style transfer, repaint, continuation, or musical composition tasks.","acestep",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/acestep/SKILL.md",[277],{"path":278,"priority":279},"SKILL.md","mandatory","rule","en",{"basePath":283,"description":284,"displayName":285,"installMethods":286,"rationale":287,"selectedPaths":288,"source":280,"sourceLanguage":281,"type":253},".claude/skills/elevenlabs","Generate AI voiceovers, sound effects, and music using ElevenLabs APIs. Use when creating audio content for videos, podcasts, or games. Triggers include generating voiceovers, narration, dialogue, sound effects from descriptions, background music, soundtrack generation, voice cloning, or any audio synthesis task.","elevenlabs",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/elevenlabs/SKILL.md",[289,290],{"path":278,"priority":279},{"path":291,"priority":292},"reference.md","medium",{"basePath":294,"description":295,"displayName":296,"installMethods":297,"rationale":298,"selectedPaths":299,"source":280,"sourceLanguage":281,"type":253},".claude/skills/ffmpeg","Video and audio processing with FFmpeg. Use for format conversion, resizing, compression, audio extraction, and preparing assets for Remotion. Triggers include converting GIF to MP4, resizing video, extracting audio, compressing files, or any media transformation task.","ffmpeg",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/ffmpeg/SKILL.md",[300,301],{"path":278,"priority":279},{"path":291,"priority":292},{"basePath":303,"description":304,"displayName":305,"installMethods":306,"rationale":307,"selectedPaths":308,"source":280,"sourceLanguage":281,"type":253},".claude/skills/frontend-design","Create distinctive, production-grade frontend interfaces with high design quality. Use this skill when the user asks to build web components, pages, or applications. Generates creative, polished code that avoids generic AI aesthetics.","frontend-design",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/frontend-design/SKILL.md",[309],{"path":278,"priority":279},{"basePath":250,"description":311,"displayName":13,"installMethods":312,"rationale":313,"selectedPaths":314,"source":280,"sourceLanguage":281,"type":253},"AI video generation with LTX-2.3 22B — text-to-video, image-to-video clips for video production. Use when generating video clips, animating images, creating b-roll, animated backgrounds, or motion content. Triggers include video generation, animate image, b-roll, motion, video clip, text-to-video, image-to-video.",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/ltx2/SKILL.md",[315],{"path":278,"priority":279},{"basePath":317,"description":318,"displayName":319,"installMethods":320,"rationale":321,"selectedPaths":322,"source":280,"sourceLanguage":281,"type":253},".claude/skills/moviepy","Python video composition with moviepy 2.x — overlaying deterministic text on AI-generated video (LTX-2, SadTalker), compositing clips, single-file build.py video projects. Use when adding labels/captions/lower-thirds to LTX-2 or SadTalker outputs, building short ad-style spots in pure Python without Remotion, or doing programmatic video composition. Triggers include text overlay on video, label LTX-2 clip, caption SadTalker output, lower third, build.py video, moviepy, Python video composition, sub-30s ad spot.","moviepy",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/moviepy/SKILL.md",[323],{"path":278,"priority":279},{"basePath":325,"description":326,"displayName":327,"installMethods":328,"rationale":329,"selectedPaths":330,"source":280,"sourceLanguage":281,"type":253},".claude/skills/playwright-recording","Record browser interactions as video using Playwright. Use for capturing demo videos, app walkthroughs, and UI flows for Remotion videos. Triggers include recording a demo, capturing browser video, screen recording a website, or creating walkthrough footage.","playwright-recording",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/playwright-recording/SKILL.md",[331,332],{"path":278,"priority":279},{"path":291,"priority":292},{"basePath":334,"description":335,"displayName":336,"installMethods":337,"rationale":338,"selectedPaths":339,"source":280,"sourceLanguage":281,"type":253},".claude/skills/qwen-edit","AI image editing prompting patterns for Qwen-Image-Edit. Use when editing photos while preserving identity, reframing cropped images, changing clothing or accessories, adjusting poses, applying style transfers, or character transformations. Provides prompt patterns, parameter tuning, and examples.","qwen-edit",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/qwen-edit/SKILL.md",[340,341,343,345],{"path":278,"priority":279},{"path":342,"priority":292},"examples.md",{"path":344,"priority":292},"parameters.md",{"path":346,"priority":292},"prompting.md",{"basePath":348,"description":349,"displayName":350,"installMethods":351,"rationale":352,"selectedPaths":353,"source":280,"sourceLanguage":281,"type":253},".claude/skills/remotion","Toolkit-specific Remotion patterns — custom transitions, shared components, and project conventions. For core Remotion framework knowledge (hooks, animations, rendering, etc.), see the `remotion-official` skill.","remotion",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/remotion/SKILL.md",[354,355],{"path":278,"priority":279},{"path":291,"priority":292},{"basePath":357,"description":358,"displayName":359,"installMethods":360,"rationale":361,"selectedPaths":362,"source":280,"sourceLanguage":281,"type":253},".claude/skills/remotion-official","Best practices for Remotion - Video creation in React","remotion-best-practices",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/remotion-official/SKILL.md",[363],{"path":278,"priority":279},{"basePath":365,"description":366,"displayName":221,"installMethods":367,"rationale":368,"selectedPaths":369,"source":280,"sourceLanguage":281,"type":253},".claude/skills/runpod","Cloud GPU processing via RunPod serverless. Use when setting up RunPod endpoints, deploying Docker images, managing GPU resources, troubleshooting endpoint issues, or understanding costs. Covers all 5 toolkit images (qwen-edit, realesrgan, propainter, sadtalker, qwen3-tts).",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/runpod/SKILL.md",[370],{"path":278,"priority":279},{"basePath":372,"description":373,"displayName":374,"installMethods":375,"rationale":376,"selectedPaths":377,"source":280,"sourceLanguage":281,"type":253},"skills/openclaw-video-toolkit","Create professional videos autonomously using claude-code-video-toolkit — AI voiceovers, image generation, music, talking heads, and Remotion rendering.","openclaw-video-toolkit",{"claudeCode":12},"SKILL.md frontmatter at skills/openclaw-video-toolkit/SKILL.md",[378],{"path":278,"priority":279},{"sources":380},[381],"manual",{"closedIssues90d":238,"description":383,"forks":239,"license":245,"openIssues90d":240,"pushedAt":241,"readmeSize":236,"stars":242,"topics":384},"AI-native video production toolkit for Claude Code",[385,386,387,285,388,389,350,390,391,392,393,394,395],"ai-video-generator","claude-code","developer-tools","playwright","programmatic-video","text-to-speech","video-editing","video-production","open-source","qwen-tts","openclaw",{"classifiedAt":397,"discoverAt":398,"extractAt":399,"githubAt":399,"updatedAt":397},1778686219532,1778686211925,1778686217771,[222,219,217,220,221,218,216],{"evaluatedAt":402,"extractAt":403,"updatedAt":248},1778686374605,1778686219732,[],[406,436,459,490,518,549],{"_creationTime":407,"_id":408,"community":409,"display":410,"identity":416,"providers":420,"relations":428,"tags":431,"workflow":432},1778695488792.803,"k176b71kh6m7td2gjbp3de9bp586mkyp",{"reviewCount":8},{"description":411,"installMethods":412,"name":414,"sourceUrl":415},"Erstellen Sie kurze KI-Videos aus Text oder Bildern – Text-zu-Video, Bild-zu-Video und referenzbasierte Generierung – ohne API-Schlüssel-Einrichtung. Verwenden Sie dies, wenn der Benutzer einen Videoclip erstellen, ein Bild animieren oder ein Video aus einer Beschreibung generieren möchte.\n",{"claudeCode":413},"pexoai/pexo-skills","videoagent-video-studio","https://github.com/pexoai/pexo-skills",{"basePath":417,"githubOwner":418,"githubRepo":419,"locale":18,"slug":414,"type":253},"skills/videoagent-video-studio","pexoai","pexo-skills",{"evaluate":421,"extract":427},{"promptVersionExtension":209,"promptVersionScoring":210,"score":422,"tags":423,"targetMarket":258,"tier":426},100,[424,222,218,219,425],"video","generation","verified",{"commitSha":260},{"repoId":429,"translatedFrom":430},"kd7a11fjbvhz4653zn8wdan1bd86mrja","k17ebhanfep7e674dkqscx6dt586mf11",[222,425,219,218,424],{"evaluatedAt":433,"extractAt":434,"updatedAt":435},1778695435906,1778695321983,1778695488792,{"_creationTime":437,"_id":438,"community":439,"display":440,"identity":443,"providers":444,"relations":453,"tags":455,"workflow":456},1778686647916.154,"k177ch1kefehr75h56pat2bf4186nr0s",{"reviewCount":8},{"description":441,"installMethods":442,"name":374,"sourceUrl":14},"Erstellen Sie professionelle Videos autonom mit claude-code-video-toolkit – KI-Voiceovers, Bilderzeugung, Musik, sprechende Köpfe und Remotion-Rendering.",{"claudeCode":12},{"basePath":372,"githubOwner":251,"githubRepo":252,"locale":18,"slug":374,"type":253},{"evaluate":445,"extract":452},{"promptVersionExtension":209,"promptVersionScoring":210,"score":446,"tags":447,"targetMarket":258,"tier":426},99,[216,448,350,220,449,450,451],"ai-tools","python","typescript","automation",{"commitSha":260},{"repoId":262,"translatedFrom":454},"k17crq1jtpdq6v8et37enw77pd86mtmh",[448,451,220,449,350,450,216],{"evaluatedAt":457,"extractAt":403,"updatedAt":458},1778686517002,1778686647916,{"_creationTime":460,"_id":461,"community":462,"display":463,"identity":469,"providers":473,"relations":482,"tags":485,"workflow":486},1778697580333.4646,"k177wf2f6q1xhnymea9erh91c186npn8",{"reviewCount":8},{"description":464,"installMethods":465,"name":467,"sourceUrl":468},"Entwerfen und verfeinern Sie Prompts für Videoerstellungsmodelle (Text-zu-Video und Bild-zu-Video) und erstellen Sie Charakter-Sheet-Prompts für Bildmodelle, wenn das Ziel die Charakterkonsistenz vor der Bild-zu-Video-Generierung ist. Verwenden Sie, wenn ein Benutzer nach einem \"Video-Prompt\", einem modellspezifischen Prompt wie Seedance 2.0, Ovi, Sora, Veo 3, Wan 2.2, LTX-2 oder LTX-2.3 oder einem konsistenten Charakter-Prompt wie \"character sheet prompt\", \"character turnaround\", \"character reference sheet\" oder \"photographic identity sheet\" fragt.",{"claudeCode":466},"Square-Zero-Labs/video-prompting-skill","Video Prompting Skill","https://github.com/Square-Zero-Labs/video-prompting-skill",{"basePath":470,"githubOwner":471,"githubRepo":472,"locale":18,"slug":470,"type":253},"video-prompting","Square-Zero-Labs","video-prompting-skill",{"evaluate":474,"extract":480},{"promptVersionExtension":209,"promptVersionScoring":210,"score":475,"tags":476,"targetMarket":258,"tier":426},95,[216,477,478,479,218,219],"prompt-engineering","character-consistency","ai-art",{"commitSha":260,"license":481},"Apache-2.0",{"repoId":483,"translatedFrom":484},"kd7a3nw9bpm9b0jdnkskwdnrvx86ndrj","k1778wrb4sjw606cz318m6fc9d86mg0e",[479,478,219,477,218,216],{"evaluatedAt":487,"extractAt":488,"updatedAt":489},1778697559479,1778697542749,1778697580333,{"_creationTime":491,"_id":492,"community":493,"display":494,"identity":499,"providers":503,"relations":511,"tags":514,"workflow":515},1778685615701.8425,"k1707ctze9p8fn1e339nd2czjn86m6p5",{"reviewCount":8},{"description":495,"installMethods":496,"name":424,"sourceUrl":498},"When the user wants to create, generate, or produce video content using AI tools or programmatic frameworks. Also use when the user mentions 'video production,' 'AI video,' 'Remotion,' 'Hyperframes,' 'HeyGen,' 'Synthesia,' 'Veo,' 'Runway,' 'Kling,' 'Pika,' 'video generation,' 'AI avatar,' 'talking head video,' 'programmatic video,' 'video template,' 'explainer video,' 'product demo video,' 'video pipeline,' or 'make me a video.' Use this for video creation, generation, and production workflows. For video content strategy and what to post, see social-content. For paid video ad creative, see ad-creative.",{"claudeCode":497},"coreyhaines31/marketingskills","https://github.com/coreyhaines31/marketingskills",{"basePath":500,"githubOwner":501,"githubRepo":502,"locale":281,"slug":424,"type":253},"skills/video","coreyhaines31","marketingskills",{"evaluate":504,"extract":510},{"promptVersionExtension":209,"promptVersionScoring":210,"score":422,"tags":505,"targetMarket":258,"tier":426},[424,506,222,350,507,508,509],"production","heygen","runway","content-creation",{"commitSha":260},{"parentExtensionId":512,"repoId":513},"k175jvka8cxxkf91gk8qy25r8186npjr","kd7a4vjty5ay3s25r82cm72wdn86nmg0",[222,509,507,506,350,508,424],{"evaluatedAt":516,"extractAt":517,"updatedAt":516},1778686582142,1778685615701,{"_creationTime":519,"_id":520,"community":521,"display":522,"identity":528,"providers":532,"relations":542,"tags":545,"workflow":546},1778695548458.3403,"k17874jrpzpfq3ftmmahe017n586nmy2",{"reviewCount":8},{"description":523,"installMethods":524,"name":526,"sourceUrl":527},"Compose or analyze sacred music in Hildegard von Bingen's distinctive modal style. Covers modal selection, melodic contour (wide-range melodies), text-setting (syllabic and melismatic), neumatic notation, and liturgical context for antiphons, sequences, and responsories. Use when composing a new piece in Hildegardian style, analyzing an existing chant for structure and mode, researching medieval modal music, preparing to perform or teach Hildegard's music, or setting Latin sacred texts.\n",{"claudeCode":525},"pjt222/agent-almanac","compose-sacred-music","https://github.com/pjt222/agent-almanac",{"basePath":529,"githubOwner":530,"githubRepo":531,"locale":281,"slug":526,"type":253},"skills/compose-sacred-music","pjt222","agent-almanac",{"evaluate":533,"extract":541},{"promptVersionExtension":209,"promptVersionScoring":210,"score":422,"tags":534,"targetMarket":258,"tier":426},[535,536,537,220,538,539,540],"hildegard","sacred-music","chant","musicology","composition","analysis",{"commitSha":260},{"parentExtensionId":543,"repoId":544},"k170h0janaa9kwn7cfgfz2ykss86mmh9","kd7aryv63z61j39n2td1aeqkvh86mh12",[540,537,539,535,220,538,536],{"evaluatedAt":547,"extractAt":548,"updatedAt":547},1778696688896,1778695548458,{"_creationTime":550,"_id":551,"community":552,"display":553,"identity":558,"providers":561,"relations":568,"tags":571,"workflow":572},1778691522215.518,"k17328pa2dvj6x16hvtrag3vv186n7z1",{"reviewCount":8},{"description":554,"installMethods":555,"name":395,"sourceUrl":557},"Generieren Sie Bilder und Videos aus Text mit Multi-Provider-Routing – unterstützt GPT Image 2.0 (nahezu perfekte Textdarstellung), Nanobanana 2, Seedream 5.0, Midjourney V8.1 (vereinheitlicht fotorealistisch + Anime), Flux 2 Klein (günstige Entwürfe), Seedance 2.0 / Happyhorse 1.0 / Veo 3.1 Video und lokale ComfyUI-Workflows. Enthält 1.446 kuratierte Prompts und stilbewusste Prompt-Verbesserung. Verwenden Sie es, wenn Benutzer Bilder/Videos erstellen, Assets entwerfen, Fotos animieren, Prompts verbessern oder KI-Kunst-Workflows verwalten möchten. NICHT für: allgemeine Chats, Code-Generierung, Dokumentenerstellung, Videobearbeitung von vorhandenem Material, Audio/TTS oder Aufgaben, die nichts mit der Erstellung von KI-Bildern/Videos zu tun haben.",{"claudeCode":556},"jau123/MeiGen-AI-Design-MCP","https://github.com/jau123/MeiGen-AI-Design-MCP",{"basePath":395,"githubOwner":559,"githubRepo":560,"locale":18,"slug":395,"type":253},"jau123","MeiGen-AI-Design-MCP",{"evaluate":562,"extract":567},{"promptVersionExtension":209,"promptVersionScoring":210,"score":422,"tags":563,"targetMarket":258,"tier":426},[564,216,479,565,477,566],"image-generation","comfyui","design-assistant",{"commitSha":260},{"repoId":569,"translatedFrom":570},"kd7b1trrphkh2efj71w89w7qzh86nh22","k175txezbab4wcy00m9gcdq8qx86mz9k",[479,565,566,564,477,216],{"evaluatedAt":573,"extractAt":574,"updatedAt":575},1778691399174,1778691316210,1778691522215]