TrajectoryCrafter使用教程
1. 项目介绍
TrajectoryCrafter是一个开源项目,它通过扩散模型实现了对单目视频的相机轨迹重定向,能够从随意拍摄的单目视频中生成高保真的新颖视角,并且支持高度精确的姿态控制。
2. 项目快速启动
环境要求
- GPU显存要求:建议使用显存大于等于28GB的GPU。
克隆项目
git clone --recursive https://github.com/TrajectoryCrafter/TrajectoryCrafter.git
cd TrajectoryCrafter
设置环境
conda create -n trajcrafter python=3.10
conda activate trajcrafter
pip install -r requirements.txt
下载预训练模型
- 推荐使用HuggingFace下载预训练模型:
sh download/download_hf.sh
- 如果连接HuggingFace有问题,可以使用git-lfs下载:
sh download/download_lfs.sh
- 在
inference.py
中修改预训练模型的默认路径为你本地的路径。
运行推理
- 命令行运行
inference.py
:
sh run.sh
- 本地运行gradio demo:
python gradio_app.py
3. 应用案例和最佳实践
TrajectoryCrafter适用于处理定义良好的物体和清晰运动的视频。以下是一些应用案例和最佳实践:
- 在视频编辑中,使用TrajectoryCrafter生成新的相机视角,增加视觉效果。
- 在虚拟现实应用中,利用生成的视角提供更丰富的用户交互体验。
请参考项目提供的demo视频,了解模型在不同场景下的表现。
4. 典型生态项目
TrajectoryCrafter的相关项目包括但不限于:
- CogVideo-Fun
- ViewCrafter
- DepthCrafter
- GCD
- NVS-Solver
- DimensionX
- ReCapture
- TrajAttention
- GS-DiT
- DaS
- RecamMaster
- GEN3C
- CAT4D
这些项目共同推动了视频处理和相机轨迹控制技术的发展。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考