Ltx2
技能 活跃使用 LTX-2.3 22B 进行 AI 视频生成 — 视频制作的文本到视频、图像到视频片段。在生成视频片段、动画图像、制作备用镜头、动画背景或动态内容时使用。触发器包括视频生成、动画图像、备用镜头、动态、视频片段、文本到视频、图像到视频。
从文本提示或现有图像生成 AI 驱动的视频片段,以满足各种视频制作需求,例如创建备用镜头、动画背景或动态内容。
功能
- 文本到视频生成
- 图像到视频动画
- 可自定义的视频参数(分辨率、时长、质量)
- 用于美学控制的样式 LoRA 应用
- 与云 GPU 平台集成(Modal、RunPod)
- 详细的提示指南和用例示例
使用场景
- 生成氛围备用镜头片段
- 为动态内容制作静态图像动画
- 创建动画幻灯片背景
- 生成风格化角色客串
- 制作品牌片头/片尾动态背景
非目标
- 生成精度至关重要的逼真人物唇语同步视频
- 生成超过约 8 秒的视频而不进行拼接
- 直接在视频帧中生成可读文本
- 直接提供画外音或音乐(需要与其他工具集成)
Security
- warning:Secret ManagementSKILL.md 提到了 `.env` 中需要 `MODAL_LTX2_ENDPOINT_URL`,并且设置说明提到了 HuggingFace token 和 Gemma 3 许可证接受,但没有明确说明这些 secrets 如何被安全地处理或记录。
安装
npx skills add digitalsamba/claude-code-video-toolkit通过 npx 运行 Vercel skills CLI(skills.sh)— 需要本地安装 Node.js,以及至少一个兼容 skills 的智能体(Claude Code、Cursor、Codex 等)。前提是仓库遵循 agentskills.io 格式。
质量评分
类似扩展
Videoagent Video Studio
100从文本或图像生成短的 AI 视频——文本到视频、图像到视频和基于参考的生成——无需设置 API 密钥。当用户想要创建视频片段、制作图像动画或根据描述生成视频时使用。
Openclaw Video Toolkit
99使用 claude-code-video-toolkit 自主创建专业视频 — AI 配音、图像生成、音乐、谈话头像和 Remotion 渲染。
Video Prompting Skill
95起草和优化视频生成模型(文本到视频和图像到视频)的提示,并在目标是角色一致性后再进行图像到视频生成时,为图像模型创建角色表提示。当用户请求“视频提示”、特定模型提示(如 Seedance 2.0、Ovi、Sora、Veo 3、Wan 2.2、LTX-2 或 LTX-2.3)或一致性角色提示(如“角色表提示”、“角色轮廓”、“角色参考表”或“照片身份表”)时使用。
Video
100When the user wants to create, generate, or produce video content using AI tools or programmatic frameworks. Also use when the user mentions 'video production,' 'AI video,' 'Remotion,' 'Hyperframes,' 'HeyGen,' 'Synthesia,' 'Veo,' 'Runway,' 'Kling,' 'Pika,' 'video generation,' 'AI avatar,' 'talking head video,' 'programmatic video,' 'video template,' 'explainer video,' 'product demo video,' 'video pipeline,' or 'make me a video.' Use this for video creation, generation, and production workflows. For video content strategy and what to post, see social-content. For paid video ad creative, see ad-creative.
Compose Sacred Music
100Compose or analyze sacred music in Hildegard von Bingen's distinctive modal style. Covers modal selection, melodic contour (wide-range melodies), text-setting (syllabic and melismatic), neumatic notation, and liturgical context for antiphons, sequences, and responsories. Use when composing a new piece in Hildegardian style, analyzing an existing chant for structure and mode, researching medieval modal music, preparing to perform or teach Hildegard's music, or setting Latin sacred texts.
Openclaw
100使用多提供商路由从文本生成图像和视频 — 支持 GPT Image 2.0(近乎完美的文本渲染)、Nanobanana 2、Seedream 5.0、Midjourney V8.1(统一的逼真+动漫风格)、Flux 2 Klein(经济高效的草稿)、Seedance 2.0 / Happyhorse 1.0 / Veo 3.1 视频,以及本地 ComfyUI 工作流。包含 1,446 个精选提示和风格感知提示增强。当用户想要创建图像/视频、设计素材、制作照片动画、增强提示或管理 AI 艺术工作流时使用。不适用于:通用聊天、代码生成、文档编写、现有素材的视频编辑、音频/TTS,或任何与 AI 图像/视频创建无关的任务。