[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"extension-skill-digitalsamba-elevenlabs-de":3,"guides-for-digitalsamba-elevenlabs":402,"similar-k17ag2v6bksvp8jr65mfx7101986n6h4-de":403},{"_creationTime":4,"_id":5,"children":6,"community":7,"display":9,"evaluation":15,"identity":248,"isFallback":243,"parentExtension":253,"providers":254,"relations":260,"repo":263,"tags":398,"workflow":399},1778686551076.347,"k17ag2v6bksvp8jr65mfx7101986n6h4",[],{"reviewCount":8},0,{"description":10,"installMethods":11,"name":13,"sourceUrl":14},"Generieren Sie KI-Voiceovers, Soundeffekte und Musik mit ElevenLabs-APIs. Verwenden Sie dies bei der Erstellung von Audioinhalten für Videos, Podcasts oder Spiele. Trigger umfassen die Generierung von Voiceovers, Erzählungen, Dialogen, Soundeffekten aus Beschreibungen, Hintergrundmusik, Musikgenerierung, Stimmenklonung oder jede Aufgabe zur Audiosynthese.",{"claudeCode":12},"digitalsamba/claude-code-video-toolkit","ElevenLabs Audio Generation","https://github.com/digitalsamba/claude-code-video-toolkit",{"_creationTime":16,"_id":17,"extensionId":5,"locale":18,"result":19,"trustSignals":229,"workflow":246},1778686551076.3472,"kn7f5cvf53y842k4gc9hjhrv7s86m703","de",{"checks":20,"evaluatedAt":183,"extensionSummary":184,"features":185,"nonGoals":191,"practices":195,"prerequisites":199,"promptVersionExtension":203,"promptVersionScoring":204,"purpose":205,"rationale":206,"score":207,"summary":208,"tags":209,"tier":218,"useCases":219,"workflow":224},[21,26,29,32,36,39,43,46,50,54,58,61,64,67,71,75,78,81,85,89,93,96,100,104,108,112,115,119,122,125,128,131,134,137,141,144,148,152,156,159,162,165,168,171,174,177,180,181],{"category":22,"check":23,"severity":24,"summary":25},"Praktischer Nutzen","Problemrelevanz","pass","Die Beschreibung gibt klar das Problem der Generierung von KI-Audioinhalten für verschiedene Medien an und nennt spezifische Anwendungsfälle wie Voiceovers, Soundeffekte und Musik.",{"category":22,"check":27,"severity":24,"summary":28},"Alleinstellungsmerkmal","Die Fähigkeit bietet ein umfassendes Set von Tools zur KI-Audiogenerierung mithilfe der ElevenLabs-APIs, einschließlich Text-to-Speech, Voice Cloning, Soundeffekte und Musikgenerierung, und geht über einfache API-Aufrufe hinaus.",{"category":22,"check":30,"severity":24,"summary":31},"Produktionsreife","Das Toolkit bietet funktionierende Python-Skripte und Remotion-Integrationsbeispiele, die den Workflow von Skript bis zu synchronisierten Szenen abdecken, was auf Produktionsreife hindeutet.",{"category":33,"check":34,"severity":24,"summary":35},"Umfang","Single Responsibility Principle","Die Fähigkeit konzentriert sich speziell auf die KI-Audiogenerierung mit ElevenLabs und verwandten Tools wie FFmpeg und Remotion zur Audiointegration, wodurch ein kohärenter Umfang erhalten bleibt.",{"category":33,"check":37,"severity":24,"summary":38},"Qualität der Beschreibung","Die Beschreibung spiegelt die Fähigkeiten der Fähigkeit zur Generierung von KI-Voiceovers, Soundeffekten und Musik mithilfe der ElevenLabs-APIs genau wider und liefert relevante Trigger.",{"category":40,"check":41,"severity":24,"summary":42},"Aufruf","Präziser Zweck","Die Beschreibung gibt den Zweck der Generierung von KI-Audioinhalten klar an und listet spezifische Trigger und Anwendungsfälle auf, wodurch ihre Funktion und Anwendbarkeit leicht verständlich werden.",{"category":40,"check":44,"severity":24,"summary":45},"Prägnantes Frontmatter","Das Frontmatter ist prägnant, gibt die Kernfunktionalität klar an und liefert relevante Trigger-Phrasen ohne überflüssige Schlüsselwörter.",{"category":47,"check":48,"severity":24,"summary":49},"Dokumentation","Prägnanter Hauptteil","Die Datei SKILL.md ist gut strukturiert mit Codebeispielen und klaren Erklärungen, wobei die detaillierte API-Referenz in eine separate Datei ausgelagert ist.",{"category":51,"check":52,"severity":24,"summary":53},"Kontext","Progressive Offenlegung","Detaillierte API-Referenz und Workflow-Erklärungen werden in separaten Dateien (`reference.md`) bereitgestellt, wodurch die Hauptdatei SKILL.md fokussiert bleibt.",{"category":51,"check":55,"severity":56,"summary":57},"Forked Exploration","not_applicable","Diese Fähigkeit beinhaltet keine tiefgehende Erkundung oder Code-Überprüfung, die einen verzweigten Kontext erfordert; ihre Operationen sind direkt und kurz.",{"category":22,"check":59,"severity":24,"summary":60},"Nutzungsbeispiele","Die Dateien SKILL.md und README bieten zahlreiche klare, End-to-End-Python-Codebeispiele für verschiedene Audiogenerierungsaufgaben, einschließlich Remotion-Integration.",{"category":22,"check":62,"severity":24,"summary":63},"Randfälle","Die Datei `reference.md` dokumentiert die Fehlerbehandlung für API-Aufrufe, und der Abschnitt zur Remotion-Integration zeigt die Fehlerbehandlung beim Laden von Audio.",{"category":40,"check":65,"severity":56,"summary":66},"Tool-Fallback","Die Fähigkeit verwendet hauptsächlich die ElevenLabs-API direkt und scheint nicht auf optionale externe Tools mit Fallbacks angewiesen zu sein.",{"category":68,"check":69,"severity":24,"summary":70},"Sicherheit","Halt bei unerwartetem Zustand","Die Datei `reference.md` beschreibt die Fehlerbehandlung für API-Aufrufe, was darauf hindeutet, dass unerwartete Zustände während der API-Interaktion den Prozess stoppen würden.",{"category":72,"check":73,"severity":24,"summary":74},"Portabilität","Cross-Skill-Kopplung","Die Fähigkeit ist in sich abgeschlossen und konzentriert sich auf ElevenLabs API-Interaktionen, ohne implizit von anderen spezifischen geladenen Fähigkeiten abhängig zu sein.",{"category":40,"check":76,"severity":24,"summary":77},"Überlappende Nahe-Synonym-Tools","Die präsentierten Tools und Befehle scheinen keine überlappenden Nahe-Synonym-Namen für ähnliche Funktionen zu haben.",{"category":47,"check":79,"severity":24,"summary":80},"Phantomfunktionen","Alle beworbenen Funktionen wie Text-to-Speech, Voice Cloning und Musikgenerierung haben entsprechende Implementierungsdetails und Beispiele in der Dokumentation.",{"category":82,"check":83,"severity":24,"summary":84},"Installation","Installationsanleitung","Die README bietet klare Installationsanweisungen, einschließlich des Klonens des Repositories und der Installation von Abhängigkeiten.",{"category":86,"check":87,"severity":24,"summary":88},"Fehler","Aktionsfähige Fehlermeldungen","Die Datei `reference.md` bietet spezifische Fehlercodes und umsetzbare Ratschläge für ElevenLabs API-Fehler wie Ratenbegrenzungen und ungültige API-Schlüssel.",{"category":90,"check":91,"severity":24,"summary":92},"Ausführung","Angepinnte Abhängigkeiten","Die Datei `tools/requirements.txt` listet Abhängigkeiten auf, und das Vorhandensein einer Lock-Datei (`package-lock.json` wird durch `npm install` in den README-Beispielen impliziert) deutet auf angepinnte Abhängigkeiten für Node.js hin.",{"category":33,"check":94,"severity":56,"summary":95},"Dry-Run-Vorschau","Die Hauptfunktionen der Fähigkeit beinhalten die Generierung von Audio und Musik, was von Natur aus kreative und keine zustandsverändernden Operationen sind, die typischerweise eine Dry-Run-Vorschau erfordern würden.",{"category":97,"check":98,"severity":56,"summary":99},"Protokoll","Idempotente Wiederholung & Timeouts","Die Kernoperationen sind API-Aufrufe an ElevenLabs, die ihre eigenen Ratenbegrenzungen und Timeouts handhaben. Die Fähigkeit selbst führt keine zustandsverändernden Mutationen durch, die Idempotenz erfordern.",{"category":101,"check":102,"severity":56,"summary":103},"Konformität","Telemetry-Opt-in","Es gibt keine Anzeichen dafür, dass diese Fähigkeit Telemetrie aussendet.",{"category":105,"check":106,"severity":24,"summary":107},"Lizenz","Lizenznutzbarkeit","Die Erweiterung ist unter der MIT-Lizenz lizenziert, wie die Anwesenheit einer LICENSE-Datei bestätigt.",{"category":109,"check":110,"severity":24,"summary":111},"Wartung","Aktualität der Commits","Der letzte Commit war am 11. Mai 2026, was auf eine aktive Wartung innerhalb der letzten 90 Tage hindeutet.",{"category":109,"check":113,"severity":24,"summary":114},"Abhängigkeitsverwaltung","Das Projekt enthält eine `requirements.txt` für Python-Abhängigkeiten und `npm install` wird in Beispielen verwendet, was auf eine durchgeführte Abhängigkeitsverwaltung hindeutet.",{"category":68,"check":116,"severity":117,"summary":118},"Geheimnisverwaltung","warning","Die Fähigkeit erfordert eine Umgebungsvariable `ELEVENLABS_API_KEY`, aber die Dokumentation (`.claude/skills/elevenlabs/SKILL.md`) beschreibt nicht explizit, wie dieses Geheimnis sicher verwaltet oder rotiert werden sollte, was ein potenzielles Risiko darstellt, wenn es nicht richtig gehandhabt wird.",{"category":68,"check":120,"severity":24,"summary":121},"Injektion","Die Python-Skripte der Fähigkeit interagieren über Parameter mit ElevenLabs APIs, und es gibt keine Hinweise auf dynamisches Laden oder Ausführen von externem, nicht vertrauenswürdigem Code oder Daten.",{"category":68,"check":123,"severity":24,"summary":124},"Transitive Lieferketten-Granaten","Die Fähigkeit stützt sich auf API-Aufrufe an ElevenLabs und lokale Python-Skripte; es gibt keine Hinweise auf Laufzeitabruf von Code oder Anweisungen von entfernten URLs.",{"category":68,"check":126,"severity":24,"summary":127},"Sandbox-Isolation","Die Python-Skripte funktionieren durch API-Aufrufe oder die Verarbeitung lokaler Dateien, und es gibt keine Hinweise auf Versuche, außerhalb des Projektverzeichnisses zu schreiben oder Systemdateien zu manipulieren.",{"category":68,"check":129,"severity":24,"summary":130},"Sandbox-Escape-Primitive","Es wurden keine getrennten Prozess-Spawns oder No-Retry-Schleifen in den bereitgestellten Skripten oder der Dokumentation erkannt.",{"category":68,"check":132,"severity":24,"summary":133},"Datenexfiltration","Die Fähigkeit generiert Audio basierend auf Benutzereingaben und scheint keine vertraulichen Benutzerdaten zu lesen oder an Dritte zu übermitteln.",{"category":68,"check":135,"severity":24,"summary":136},"Versteckte Text-Tricks","Der gebündelte Inhalt und die Dokumentation enthalten keine versteckten Texttricks, unsichtbaren Zeichen oder verschleierten Anweisungen.",{"category":138,"check":139,"severity":24,"summary":140},"Hooks","Undurchsichtige Codeausführung","Die bereitgestellten Python-Skripte sind klar und lesbar, ohne Anzeichen von Verschleierung, Base64-Payloads oder Laufzeit-Codeabruf.",{"category":72,"check":142,"severity":24,"summary":143},"Strukturelle Annahme","Die Python-Skripte der Fähigkeit und die Remotion-Beispiele verwenden relative Pfade für Dateioperationen und Asset-Referenzierungen, wodurch Annahmen über absolute benutzerspezifische Projektstrukturen vermieden werden.",{"category":145,"check":146,"severity":24,"summary":147},"Vertrauen","Aufmerksamkeit für Issues","In den letzten 90 Tagen wurde 1 Issue geöffnet und 4 geschlossen, was auf eine gute Reaktionsrate und aktive Wartung hindeutet.",{"category":149,"check":150,"severity":24,"summary":151},"Versionierung","Release-Management","Das Projekt hat ein GitHub-Release-Tag und eine `CHANGELOG.md`, was auf eine klare Versionierungsstrategie hindeutet.",{"category":153,"check":154,"severity":24,"summary":155},"Codeausführung","Validierung","Eingabeparameter für Python-Skripte werden im Allgemeinen über Funktionsargumente behandelt, und API-Aufrufe an ElevenLabs würden deren Validierung unterliegen. Remotion-Beispiele verwenden typsichere Komponenten.",{"category":68,"check":157,"severity":24,"summary":158},"Ungeschützte destruktive Operationen","Die Operationen der Fähigkeit umfassen die Generierung von Audiodateien und API-Aufrufe, was keine destruktiven Operationen sind, die eine explizite Bestätigung erfordern.",{"category":153,"check":160,"severity":24,"summary":161},"Fehlerbehandlung","Die `reference.md` beschreibt die Fehlerbehandlung für ElevenLabs API-Aufrufe, und das Remotion-Integrationsbeispiel zeigt, wie Fehler beim Laden von Audio ordnungsgemäß behandelt werden.",{"category":153,"check":163,"severity":24,"summary":164},"Protokollierung","Das Remotion-Integrationsbeispiel demonstriert die Fehlerprotokollierung in der Konsole für Fehler beim Laden von Audio, und Python-Skripte würden normalerweise Ausgaben oder Fehler während der Ausführung protokollieren.",{"category":101,"check":166,"severity":56,"summary":167},"DSGVO","Die Fähigkeit generiert Audioinhalte und scheint keine personenbezogenen Daten zu verarbeiten.",{"category":101,"check":169,"severity":24,"summary":170},"Zielmarkt","Die Funktionalität der Erweiterung ist global und nicht an eine bestimmte geografische oder rechtliche Gerichtsbarkeit gebunden.",{"category":72,"check":172,"severity":24,"summary":173},"Laufzeitstabilität","Die Python-Skripte gehen von einer Standard-Python-Umgebung aus und die Remotion-Beispiele von einer Node.js/React-Umgebung, ohne dass spezifische Betriebssystem- oder Shell-Abhängigkeiten vermerkt sind.",{"category":47,"check":175,"severity":24,"summary":176},"README","Die README-Datei ist umfassend und beschreibt Installation, Verwendung, Funktionen und Projektstruktur.",{"category":33,"check":178,"severity":24,"summary":179},"Größe der Tool-Oberfläche","Die Fähigkeit bietet eine überschaubare Anzahl von Python-Tools und konzeptionellen Befehlen für Audiogenerierungsaufgaben.",{"category":82,"check":83,"severity":24,"summary":84},{"category":33,"check":178,"severity":24,"summary":182},"Die Python-Skripte und die dokumentierten Befehle sind fokussiert und überschreiten keine angemessene Anzahl für den Zweck der Fähigkeit.",1778686286364,"Dieses Toolkit bietet Python-Skripte und Integrationsbeispiele zum Generieren von KI-Voiceovers, Soundeffekten und Musik mithilfe der ElevenLabs-APIs. Es enthält detaillierte Dokumentation zur API-Nutzung, zu Spracheinstellungen, zum Klonen und zur Integration generierter Audiodaten in Remotion-Videokompositionen.",[186,187,188,189,190],"KI-Voiceovers aus Text generieren","Stimmenklonung für benutzerdefinierte Stimmen durchführen","Soundeffekte und Musik erstellen","Audio-Generierung in Remotion-Videoprojekte integrieren","ElevenLabs API mit detaillierten Beispielen nutzen",[192,193,194],"Komplexe Videobearbeitung über Audiointegration hinaus","Direkte Steuerung der Verwaltung von Cloud-GPU-Instanzen (wird von anderen Fähigkeiten gehandhabt)","Bereitstellung einer Alternative zur ElevenLabs-Plattform selbst",[196,197,198],"API-Integration","Audiosynthese","Videoproduktions-Workflow",[200,201,202],"ELEVENLABS_API_KEY Umgebungsvariable","Python 3.9+ empfohlen","Node.js 18+ für Remotion-Integration","3.0.0","4.4.0","Benutzer in die Lage versetzen, professionelle Audioinhalte für Videos, Podcasts und Spiele mithilfe von KI zu erstellen und den Prozess vom Skript bis zum finalen Rendering zu optimieren.","Die Fähigkeit ist gut dokumentiert, produktionsreif und hat einen klaren Umfang. Die einzige geringfügige Warnung betrifft die explizite Handhabung des API-Schlüssels.",95,"Ein umfassendes Toolkit für KI-gestützte Audiogenerierung und Integration in Videoproduktions-Workflows.",[210,211,212,213,214,215,216,217],"audio","voiceover","elevenlabs","tts","music-generation","sound-effects","remotion","video-production","community",[220,221,222,223],"Erzählungen für Erklärvideos erstellen","Dialoge für Spielfiguren generieren","Hintergrundmusik für Podcasts produzieren","Soundeffekte zu Videoprojekten hinzufügen",[225,226,227,228],"Skript oder Beschreibung lesen","ElevenLabs API für Audiogenerierung aufrufen","Generierte Audiodatei speichern","Audio in Videoprojekt integrieren (z.B. Remotion)",{"codeQuality":230,"collectedAt":232,"documentation":233,"maintenance":236,"security":242,"testCoverage":245},{"hasLockfile":231},true,1778686262309,{"descriptionLength":234,"readmeSize":235},314,18886,{"closedIssues90d":237,"forks":238,"hasChangelog":231,"openIssues90d":239,"pushedAt":240,"stars":241},4,187,1,1778501732000,1137,{"hasNpmPackage":243,"license":244,"smitheryVerified":243},false,"MIT",{"hasCi":231,"hasTests":243},{"updatedAt":247},1778686551076,{"basePath":249,"githubOwner":250,"githubRepo":251,"locale":18,"slug":212,"type":252},".claude/skills/elevenlabs","digitalsamba","claude-code-video-toolkit","skill",null,{"evaluate":255,"extract":258},{"promptVersionExtension":203,"promptVersionScoring":204,"score":207,"tags":256,"targetMarket":257,"tier":218},[210,211,212,213,214,215,216,217],"global",{"commitSha":259,"license":244},"HEAD",{"repoId":261,"translatedFrom":262},"kd70r97eght58pp9f1x8scdagd86n32q","k1747054r5n93tcfhvebmz2a4n86mjm4",{"_creationTime":264,"_id":261,"identity":265,"providers":266,"workflow":394},1778686211924.9185,{"githubOwner":250,"githubRepo":251,"sourceUrl":14},{"classify":267,"discover":378,"github":381},{"commitSha":259,"extensions":268},[269,281,290,299,307,315,323,332,346,354,362,370],{"basePath":270,"description":271,"displayName":272,"installMethods":273,"rationale":274,"selectedPaths":275,"source":279,"sourceLanguage":280,"type":252},".claude/skills/acestep","AI music generation with ACE-Step 1.5 — background music, vocal tracks, covers, stem extraction, audio repainting, and continuation for video production. Use when generating music, soundtracks, jingles, or working with audio stems. Triggers include background music, soundtrack, jingle, music generation, stem extraction, cover, style transfer, repaint, continuation, or musical composition tasks.","acestep",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/acestep/SKILL.md",[276],{"path":277,"priority":278},"SKILL.md","mandatory","rule","en",{"basePath":249,"description":282,"displayName":212,"installMethods":283,"rationale":284,"selectedPaths":285,"source":279,"sourceLanguage":280,"type":252},"Generate AI voiceovers, sound effects, and music using ElevenLabs APIs. Use when creating audio content for videos, podcasts, or games. Triggers include generating voiceovers, narration, dialogue, sound effects from descriptions, background music, soundtrack generation, voice cloning, or any audio synthesis task.",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/elevenlabs/SKILL.md",[286,287],{"path":277,"priority":278},{"path":288,"priority":289},"reference.md","medium",{"basePath":291,"description":292,"displayName":293,"installMethods":294,"rationale":295,"selectedPaths":296,"source":279,"sourceLanguage":280,"type":252},".claude/skills/ffmpeg","Video and audio processing with FFmpeg. Use for format conversion, resizing, compression, audio extraction, and preparing assets for Remotion. Triggers include converting GIF to MP4, resizing video, extracting audio, compressing files, or any media transformation task.","ffmpeg",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/ffmpeg/SKILL.md",[297,298],{"path":277,"priority":278},{"path":288,"priority":289},{"basePath":300,"description":301,"displayName":302,"installMethods":303,"rationale":304,"selectedPaths":305,"source":279,"sourceLanguage":280,"type":252},".claude/skills/frontend-design","Create distinctive, production-grade frontend interfaces with high design quality. Use this skill when the user asks to build web components, pages, or applications. Generates creative, polished code that avoids generic AI aesthetics.","frontend-design",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/frontend-design/SKILL.md",[306],{"path":277,"priority":278},{"basePath":308,"description":309,"displayName":310,"installMethods":311,"rationale":312,"selectedPaths":313,"source":279,"sourceLanguage":280,"type":252},".claude/skills/ltx2","AI video generation with LTX-2.3 22B — text-to-video, image-to-video clips for video production. Use when generating video clips, animating images, creating b-roll, animated backgrounds, or motion content. Triggers include video generation, animate image, b-roll, motion, video clip, text-to-video, image-to-video.","ltx2",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/ltx2/SKILL.md",[314],{"path":277,"priority":278},{"basePath":316,"description":317,"displayName":318,"installMethods":319,"rationale":320,"selectedPaths":321,"source":279,"sourceLanguage":280,"type":252},".claude/skills/moviepy","Python video composition with moviepy 2.x — overlaying deterministic text on AI-generated video (LTX-2, SadTalker), compositing clips, single-file build.py video projects. Use when adding labels/captions/lower-thirds to LTX-2 or SadTalker outputs, building short ad-style spots in pure Python without Remotion, or doing programmatic video composition. Triggers include text overlay on video, label LTX-2 clip, caption SadTalker output, lower third, build.py video, moviepy, Python video composition, sub-30s ad spot.","moviepy",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/moviepy/SKILL.md",[322],{"path":277,"priority":278},{"basePath":324,"description":325,"displayName":326,"installMethods":327,"rationale":328,"selectedPaths":329,"source":279,"sourceLanguage":280,"type":252},".claude/skills/playwright-recording","Record browser interactions as video using Playwright. Use for capturing demo videos, app walkthroughs, and UI flows for Remotion videos. Triggers include recording a demo, capturing browser video, screen recording a website, or creating walkthrough footage.","playwright-recording",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/playwright-recording/SKILL.md",[330,331],{"path":277,"priority":278},{"path":288,"priority":289},{"basePath":333,"description":334,"displayName":335,"installMethods":336,"rationale":337,"selectedPaths":338,"source":279,"sourceLanguage":280,"type":252},".claude/skills/qwen-edit","AI image editing prompting patterns for Qwen-Image-Edit. Use when editing photos while preserving identity, reframing cropped images, changing clothing or accessories, adjusting poses, applying style transfers, or character transformations. Provides prompt patterns, parameter tuning, and examples.","qwen-edit",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/qwen-edit/SKILL.md",[339,340,342,344],{"path":277,"priority":278},{"path":341,"priority":289},"examples.md",{"path":343,"priority":289},"parameters.md",{"path":345,"priority":289},"prompting.md",{"basePath":347,"description":348,"displayName":216,"installMethods":349,"rationale":350,"selectedPaths":351,"source":279,"sourceLanguage":280,"type":252},".claude/skills/remotion","Toolkit-specific Remotion patterns — custom transitions, shared components, and project conventions. For core Remotion framework knowledge (hooks, animations, rendering, etc.), see the `remotion-official` skill.",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/remotion/SKILL.md",[352,353],{"path":277,"priority":278},{"path":288,"priority":289},{"basePath":355,"description":356,"displayName":357,"installMethods":358,"rationale":359,"selectedPaths":360,"source":279,"sourceLanguage":280,"type":252},".claude/skills/remotion-official","Best practices for Remotion - Video creation in React","remotion-best-practices",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/remotion-official/SKILL.md",[361],{"path":277,"priority":278},{"basePath":363,"description":364,"displayName":365,"installMethods":366,"rationale":367,"selectedPaths":368,"source":279,"sourceLanguage":280,"type":252},".claude/skills/runpod","Cloud GPU processing via RunPod serverless. Use when setting up RunPod endpoints, deploying Docker images, managing GPU resources, troubleshooting endpoint issues, or understanding costs. Covers all 5 toolkit images (qwen-edit, realesrgan, propainter, sadtalker, qwen3-tts).","runpod",{"claudeCode":12},"SKILL.md frontmatter at .claude/skills/runpod/SKILL.md",[369],{"path":277,"priority":278},{"basePath":371,"description":372,"displayName":373,"installMethods":374,"rationale":375,"selectedPaths":376,"source":279,"sourceLanguage":280,"type":252},"skills/openclaw-video-toolkit","Create professional videos autonomously using claude-code-video-toolkit — AI voiceovers, image generation, music, talking heads, and Remotion rendering.","openclaw-video-toolkit",{"claudeCode":12},"SKILL.md frontmatter at skills/openclaw-video-toolkit/SKILL.md",[377],{"path":277,"priority":278},{"sources":379},[380],"manual",{"closedIssues90d":237,"description":382,"forks":238,"license":244,"openIssues90d":239,"pushedAt":240,"readmeSize":235,"stars":241,"topics":383},"AI-native video production toolkit for Claude Code",[384,385,386,212,387,388,216,389,390,217,391,392,393],"ai-video-generator","claude-code","developer-tools","playwright","programmatic-video","text-to-speech","video-editing","open-source","qwen-tts","openclaw",{"classifiedAt":395,"discoverAt":396,"extractAt":397,"githubAt":397,"updatedAt":395},1778686219532,1778686211925,1778686217771,[210,212,214,216,215,213,217,211],{"evaluatedAt":400,"extractAt":401,"updatedAt":247},1778686286487,1778686219732,[],[404,432,461,486,513,543],{"_creationTime":405,"_id":406,"community":407,"display":408,"identity":414,"providers":418,"relations":426,"tags":428,"workflow":429},1778690923100.0378,"k17cvy6yv9xmtby9b03sb83ep586n46a",{"reviewCount":8},{"description":409,"installMethods":410,"name":412,"sourceUrl":413},"ElevenLabs text-to-speech with 22+ premium voices, multilingual support, and voice tuning via inference.sh CLI. Models: eleven_multilingual_v2 (highest quality), eleven_turbo_v2_5 (low latency), eleven_flash_v2_5 (ultra-fast). Capabilities: text-to-speech, voice selection, stability/style control, 32 languages. Use for: voiceovers, audiobooks, video narration, podcasts, accessibility, IVR. Triggers: elevenlabs, eleven labs, elevenlabs tts, premium tts, professional voice, ai voice, high quality tts, multilingual tts, eleven labs voice, voice generation, natural speech, realistic voice, voice over, speech synthesis",{"claudeCode":411},"inferen-sh/skills","elevenlabs-tts","https://github.com/inferen-sh/skills",{"basePath":415,"githubOwner":416,"githubRepo":417,"locale":280,"slug":412,"type":252},"tools/audio/elevenlabs-tts","inferen-sh","skills",{"evaluate":419,"extract":425},{"promptVersionExtension":203,"promptVersionScoring":204,"score":420,"tags":421,"targetMarket":257,"tier":424},99,[389,213,212,210,422,423],"voice-generation","multilingual","verified",{"commitSha":259},{"repoId":427},"kd75bmkxfkvvw504knzzpkzjph86n71t",[210,212,423,389,213,422],{"evaluatedAt":430,"extractAt":431,"updatedAt":430},1778692055679,1778690923100,{"_creationTime":433,"_id":434,"community":435,"display":436,"identity":442,"providers":446,"relations":454,"tags":457,"workflow":458},1778696833339.6235,"k173202da6bz9n3t2ytqn33f3h86n9e0",{"reviewCount":8},{"description":437,"installMethods":438,"name":440,"sourceUrl":441},"Convert documents and text to audio using Google Cloud Text-to-Speech.\nUse this skill when the user wants to: narrate a document, read aloud text,\ngenerate audio from a file, convert text to speech, create a recording\nof documentation or analysis, create a podcast from a document, or use\nGoogle TTS/text-to-speech. Trigger phrases: \"read this aloud\", \"narrate this\",\n\"create a recording\", \"text to speech\", \"TTS\", \"convert to audio\",\n\"audio from document\", \"listen to this\", \"generate audio\", \"google tts\",\n\"create a podcast\".\n",{"claudeCode":439},"sanjay3290/ai-skills","google-tts","https://github.com/sanjay3290/ai-skills",{"basePath":443,"githubOwner":444,"githubRepo":445,"locale":280,"slug":440,"type":252},"skills/google-tts","sanjay3290","ai-skills",{"evaluate":447,"extract":453},{"promptVersionExtension":203,"promptVersionScoring":204,"score":448,"tags":449,"targetMarket":257,"tier":424},100,[213,450,210,451,452],"speech","google-cloud","python",{"commitSha":259},{"parentExtensionId":455,"repoId":456},"k17es37z10n1sw6t2m3f0vsydx86mnje","kd71np0fyqg23qg8w2hcfw0h0h86nkn0",[210,451,452,450,213],{"evaluatedAt":459,"extractAt":460,"updatedAt":459},1778697061989,1778696833339,{"_creationTime":462,"_id":463,"community":464,"display":465,"identity":471,"providers":474,"relations":480,"tags":482,"workflow":483},1778695021936.5625,"k1703jnec5x3fdsmasfekwt56s86m8bv",{"reviewCount":8},{"description":466,"installMethods":467,"name":469,"sourceUrl":470},"Use when the user asks for text-to-speech narration or voiceover, accessibility reads, audio prompts, or batch speech generation via the OpenAI Audio API; run the bundled CLI (`scripts/text_to_speech.py`) with built-in voices and require `OPENAI_API_KEY` for live calls. Custom voice creation is out of scope.",{"claudeCode":468},"openai/skills","Speech Generation Skill","https://github.com/openai/skills",{"basePath":472,"githubOwner":473,"githubRepo":417,"locale":280,"slug":450,"type":252},"skills/.curated/speech","openai",{"evaluate":475,"extract":478},{"promptVersionExtension":203,"promptVersionScoring":204,"score":448,"tags":476,"targetMarket":257,"tier":424},[450,210,473,213,389,477],"narration",{"commitSha":259,"license":479},"Apache-2.0",{"repoId":481},"kd75n2zj3yh472p25zffgycved86mnpx",[210,477,473,450,389,213],{"evaluatedAt":484,"extractAt":485,"updatedAt":484},1778695652845,1778695021936,{"_creationTime":487,"_id":488,"community":489,"display":490,"identity":496,"providers":500,"relations":507,"tags":509,"workflow":510},1778697652123.8977,"k17dredz1hs8xzqz5p5er1qsgh86n8x6",{"reviewCount":8},{"description":491,"installMethods":492,"name":494,"sourceUrl":495},"Local text-to-speech via sherpa-onnx (offline, no cloud)",{"claudeCode":493},"steipete/clawdis","sherpa-onnx-tts","https://github.com/steipete/clawdis",{"basePath":497,"githubOwner":498,"githubRepo":499,"locale":280,"slug":494,"type":252},"skills/sherpa-onnx-tts","steipete","clawdis",{"evaluate":501,"extract":506},{"promptVersionExtension":203,"promptVersionScoring":204,"score":420,"tags":502,"targetMarket":257,"tier":424},[213,503,504,505,210],"local","offline","sherpa-onnx",{"commitSha":259},{"repoId":508},"kd738npxg9yh3xf3vddzy9fyfh86nhng",[210,503,504,505,213],{"evaluatedAt":511,"extractAt":512,"updatedAt":511},1778698917372,1778697652123,{"_creationTime":514,"_id":515,"community":516,"display":517,"identity":523,"providers":528,"relations":537,"tags":539,"workflow":540},1778688112811.7288,"k170zam9mq6m2v8w98jep3fkw586mp6g",{"reviewCount":8},{"description":518,"installMethods":519,"name":521,"sourceUrl":522},"Master the essential audio post-production techniques—normalization, compression, EQ, and noise reduction—using the correct processing order to achieve professional-quality audio. Use when: Editing podcast episodes or video soundtracks; Cleaning up recorded voiceovers; Improving audio quality for marketing content; Preparing audio files for distribution; Troubleshooting common audio issues",{"claudeCode":520},"guia-matthieu/clawfu-skills","Audio Editing Fundamentals","https://github.com/guia-matthieu/clawfu-skills",{"basePath":524,"githubOwner":525,"githubRepo":526,"locale":280,"slug":527,"type":252},"skills/audio/audio-editing","guia-matthieu","clawfu-skills","audio-editing",{"evaluate":529,"extract":536},{"promptVersionExtension":203,"promptVersionScoring":204,"score":420,"tags":530,"targetMarket":257,"tier":424},[210,531,532,533,211,534,535],"editing","post-production","podcast","eq","compression",{"commitSha":259,"license":244},{"repoId":538},"kd72qvzyvm658ya7pbyh5ey47h86md53",[210,535,531,534,533,532,211],{"evaluatedAt":541,"extractAt":542,"updatedAt":541},1778688372051,1778688112811,{"_creationTime":544,"_id":545,"community":546,"display":547,"identity":550,"providers":551,"relations":558,"tags":560,"workflow":561},1778686545849.374,"k177hrzhj7kq341ne6zye4qwrx86n1hp",{"reviewCount":8},{"description":548,"installMethods":549,"name":293,"sourceUrl":14},"Videobearbeitung und -verarbeitung mit FFmpeg. Verwenden Sie es für Formatkonvertierung, Größenänderung, Komprimierung, Audioextraktion und die Vorbereitung von Assets für Remotion. Trigger umfassen die Konvertierung von GIF in MP4, die Größenänderung von Videos, die Extraktion von Audio, die Komprimierung von Dateien oder jede Medien transformations aufgabe.",{"claudeCode":12},{"basePath":291,"githubOwner":250,"githubRepo":251,"locale":18,"slug":293,"type":252},{"evaluate":552,"extract":557},{"promptVersionExtension":203,"promptVersionScoring":204,"score":420,"tags":553,"targetMarket":257,"tier":424},[554,210,293,216,555,535,556],"video","media-processing","conversion",{"commitSha":259},{"repoId":261,"translatedFrom":559},"k172sbg4kfrq84d08e4rk1ghp586nk45",[210,535,556,293,555,216,554],{"evaluatedAt":562,"extractAt":401,"updatedAt":563},1778686320284,1778686545849]