MotionGPT是一个统一的和容易使用的运动语言模型学习两种模态的语义耦合并生成高质量的运动和文本描述多运动任务.
github:https://github.com/OpenMotionLab/MotionGPT?tab=readme-ov-file
1.安装smpl
https://drive.google.com/uc?id=1qrFkPZyRwRGd0Q3EY76K8oJaIgs_WK9i
2.安装flan-t5-base 在deps/ 目录下
https://huggingface.co/google/flan-t5-base
3.安装t2m 在deps/ 目录下
https://drive.google.com/uc?id=1AYsmEG8I3fAAoraT4vau0GnesWBWyeT8
4.预训练模型安装在checkpoints\MotionGPT-base
https://huggingface.co/OpenMotionLab/MotionGPT-base
5.下载数据集:datasets\humanml3d 目录下,可以看我的另一篇https://blog.youkuaiyun.com/qq_53930200/article/details/137646272?spm=1001.2014.3001.5501
6.运行demo,可以使用测试集,或者自己定义 --example YOU_TXT.txt
python demo.py --cfg ./configs/config_h3d_stage3.yaml --example ./demos/t2m.txt
结果输出在 results/mgpt/debug--Instruct_HumanML3D/samples_*******
0_out.npy 为输出 22个关键点的结果(1,frame,22,3)
7.可以通过 npy 转 bvh 可视化查看
https://download.youkuaiyun.com/download/qq_53930200/89148948?spm=1001.2014.3001.5503