湾大北交大开源 CutClaw,自动踩点音乐的 AI 智能视频剪辑师!
发布时间:2026-04-08 12:00:35 浏览量:4
做视频剪辑的人都懂,从几小时的素材里剪出一段踩点精准、叙事流畅的短视频有多折磨人。
特别是对于旅拍博主和Vlogger来说,拍了一天5-6小时的素材,回来还要花好几个小时慢慢剪,真正的创作热情都被这种机械劳动消磨掉了。
更别说搞营销的,要批量生成不同风格的宣传片,工作量更是大到离谱。
传统的剪辑要么是自己手动拉时间轴、调节奏,要么是用模板工具,但模板往往不够灵活,很难做到真正的音画合一。
而且很多AI剪辑工具都是先剪好视频再配BGM,根本做不到音乐驱动的剪辑决策,节奏总是差那么点意思。
最近看到大湾区大学GVC实验室和北京交通大学团队开源的
CutClaw
,彻底解决了这个痛点。
这玩意儿不是简单的AI剪辑,而是一个模拟专业后期流程的多智能体系统,能把几小时的长视频和一段音乐丢进去,给一句文字指令,它就能自动剪出一部叙事性、节奏感、视觉都在线的电影感短片。
简单说,
CutClaw
是一个端到端的长视频+音乐剪辑系统。
它先把原始的视频和音频拆解成结构化的字幕,然后用多智能体流水线来规划镜头、选择片段时间戳、验证最终质量,最后渲染出成片。
1、音乐驱动剪辑,而不是后配BGM
这是 CutClaw 最核心的亮点。
绝大多数AI剪辑工具都是先剪好视频再配音乐,或者只是简单地把剪辑点和音乐节拍对齐,但CutClaw是真正的音乐驱动剪辑决策。
它会先分析音乐的节拍、重拍、音高、能量曲线,把音乐拆解成主歌、副歌这样的结构单元,然后让视觉叙事严格对应到这个听觉骨架上。
每个音乐段落分配什么样的场景,每个剪辑点落在哪一拍,都是由音乐决定的。
2、一句话指令,AI自动理解风格
你不需要手动拉时间轴,不需要一个个选片段,只需要给一句文字指令,CutClaw就能自动理解并执行。
这种指令控制不是简单的关键词匹配,而是通过多智能体系统来理解你的意图,然后转化成具体的剪辑决策。
3、智能自动裁剪,适配各社交平台
现在的视频要发抖音、小红书、视频号,每个平台的比例都不一样。CutClaw有内容感知裁剪功能,能自动识别画面中的核心主体,然后调整画面比例,适配各种社交平台。
4、一键解构,素材变成可搜索的资产
第一次处理视频时,CutClaw会进行素材解构,把几小时的长视频拆分成镜头、场景,给每个镜头生成语义描述,包括摄影手法、人物动态、环境等等。
音频方面也会提取节拍、音高、能量,生成结构化的音频标注。
这个解构过程虽然第一次慢一点,但后面再用同样的素材剪辑时,就可以直接复用缓存结果,速度会快很多。而且这些结构化的素材也变成了可搜索的资产,你以后想找某个场景也很方便。
git clone https://github.com/GVCLab/CutClaw.gitcd CutClawconda create -n CutClaw python=3.12conda activate CutClawpip install -r requirements.txt
官方强烈推荐使用GPU加速的Decord/NVDEC构建,可以大幅提升视频解码速度。
然后把你的素材放到对应的目录:
resource/├── video/ # 放你的 .mp4 / .mkv 视频├── audio/ # 放你的 .mp3 / .wav 音乐└── subtitle/ # 可选的 .srt 字幕文件,可以跳过ASR,节省时间
运行方式
方式一:Streamlit可视化界面(推荐)
streamlit run app.py
然后在浏览器打开 http://localhost:8501。在界面里直接选择你放好的视频和音频文件,输入指令就可以了。
方式二:CLI命令行(高级用户)
python local_run.py \ --Video_Path "resource/video/你的视频.mp4" \ --Audio_Path "resource/audio/你的音乐.mp3" \ --Instruction "你的剪辑指令"
你还可以覆盖配置参数,比如:
python local_run.py \ --Video_Path "resource/video/xxxx.mp4" \ --Audio_Path "resource/audio/xxxx.mp3" \ --Instruction "xxxx" \ --config.MAIN_CHARACTER_NAME "主角名字" \ --config.VIDEO_FPS 2 \ --config.AUDIO_TOTAL_SHOTS 50
CutClaw支持多种模型,官方推荐:
视频模型
:Gemini-3、Qwen3.5、GPT-5.3(用于镜头/场景理解和视觉字幕)
音频模型
:Gemini-3(用于ASR和音乐结构解析)
智能体模型
:MiniMax-2.7、Kimi-2.5、Claude-4.5(用于驱动编剧+剪辑师+审阅者循环)
它用LiteLLM作为API管理网关,模型名称格式比如 'openai/MiniMax-2.7'。
CutClaw 的出现,让视频剪辑从一项需要专业技能和大量时间的工作,变成了普通人也能轻松搞定的事情。
它不是简单的自动化工具,而是真正理解音乐和叙事的AI剪辑师。
如果你是旅拍博主、Vlogger,或者需要经常做视频营销,建议试试这个项目。GitHub地址放在下面了,赶紧去Star一下,有空的时候玩一玩。
GitHub:https://github.com/GVCLab/CutClaw
