RunPod Cloud GPU
技能 已验证 活跃通过 RunPod serverless 进行云 GPU 处理。在设置 RunPod 端点、部署 Docker 映像、管理 GPU 资源、排查端点问题或了解成本时使用。涵盖所有 5 个工具包映像(qwen-edit、realesrgan、propainter、sadtalker、qwen3-tts)。
使用户能够通过 RunPod serverless 利用云 GPU 处理能力,从而高效地部署和管理 AI 模型和 Docker 映像。
功能
- 设置和部署 RunPod 端点
- 管理 GPU 资源和 Docker 映像
- 排查端点问题
- 详细的 RunPod API 参考(GraphQL 和 REST)
- 成本了解和优化指南
使用场景
- 设置用于 AI 模型部署的 RunPod 端点时
- 将自定义 Docker 映像部署到云 GPU
- 管理 GPU 资源和扩展配置
- 排查 RunPod 端点的问题
- 了解和优化云 GPU 成本
非目标
- 直接在本地运行 AI 模型
- 管理本地计算机硬件
- 提供通用的云管理工具
- 取代 RunPod Web 控制台的所有任务
工作流
- 将 RunPod API 密钥添加到 .env
- 为特定工具(image_edit、upscale 等)运行 `--setup`
- 配置端点工作程序(最小/最大、idleTimeout)
- 通过 RunPod 仪表板或 API 参考进行管理
- 排查常见问题(冷启动、OOM、工作程序可用性)
先决条件
- RunPod 帐户和 API 密钥
- Cloudflare R2 凭证(可选,用于文件传输回退)
- 建议使用 Python 3.9+
安装
npx skills add digitalsamba/claude-code-video-toolkit通过 npx 运行 Vercel skills CLI(skills.sh)— 需要本地安装 Node.js,以及至少一个兼容 skills 的智能体(Claude Code、Cursor、Codex 等)。前提是仓库遵循 agentskills.io 格式。
质量评分
已验证类似扩展
Modal Serverless Gpu
98Serverless GPU cloud platform for running ML workloads. Use when you need on-demand GPU access without infrastructure management, deploying ML models as APIs, or running batch jobs with automatic scaling.
Alterlab Modal
98Part of the AlterLab Academic Skills suite. Run Python code in the cloud with serverless containers, GPUs, and autoscaling. Use when deploying ML models, running batch processing jobs, scheduling compute-intensive tasks, or serving APIs that require GPU acceleration or dynamic scaling.
Modal Serverless Gpu
95Serverless GPU cloud platform for running ML workloads. Use when you need on-demand GPU access without infrastructure management, deploying ML models as APIs, or running batch jobs with automatic scaling.
Modal
95Cloud computing platform for running Python on GPUs and serverless infrastructure. Use when deploying AI/ML models, running GPU-accelerated workloads, serving web endpoints, scheduling batch jobs, or scaling Python code to the cloud. Use this skill whenever the user mentions Modal, serverless GPU compute, deploying ML models to the cloud, serving inference endpoints, running batch processing in the cloud, or needs to scale Python workloads beyond their local machine. Also use when the user wants to run code on H100s, A100s, or other cloud GPUs, or needs to create a web API for a model.
Trader Regime
100Detect current market regime using npx neural-trader — bull/bear/ranging/volatile classification with recommended strategy
Trading Memory
100AI交易记忆的领域知识 — 结果加权记忆 (OWM) 架构、5种记忆类型、回忆评分和行为分析。用于记录交易、回忆相似的上下文、分析性能或检查行为漂移。在 "record trade"、"remember trade"、"recall"、"similar trades"、"performance"、"behavioral"、"disposition"、"affective state"、"confidence" 时触发。