本人实测发现,本地配备的 16GB 显存显卡无法运行 LongCat-Image(龙猫图片编辑)项目,即便开启 CPU offloading(CPU 卸载)功能缓解显存压力,依然因显存不足导致运行失败。
为此,我在网上寻找共享算力资源,最终选择租用 4090 显卡进行测试,所使用的算力平台为【共绩算力】(官网:https://www.gongjiyun.com/)。

值得一提的是,该平台对个人开发者提供免费算力申请的机会,降低了测试和开发的成本。

该平台创建云主机的流程十分便捷,基础镜像已预装Miniconda等开发必备软件,无需额外配置基础环境,极大节省了前期准备时间。考虑到需妥善保存项目数据,我额外开通了共享存储卷并挂载至云主机。不过结合两次创建云主机的实测体验来看,共享存储卷存在明显短板——读写速度较慢;而云主机自带的本地存储则表现更优,读写效率显著更高,建议大家根据实际需求选择存储方式。
登录云主机后,可直接参照 LongCat-Image 的官方仓库(https://github.com/meituan-longcat/LongCat-Image)执行以下安装步骤:
# 克隆项目仓库(仅拉取main分支)
git clone --single-branch --branch main https://github.com/meituan-longcat/LongCat-Image
cd LongCat-Image
# 创建并激活conda虚拟环境(指定Python 3.10版本)
conda create -n longcat-image python=3.10
conda activate longcat-image
# 安装项目依赖并以开发模式安装项目
pip install -r requirements.txt
python setup.py develop
# 配置Hugging Face镜像并下载模型权重
pip install "huggingface_hub[cli]"
export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download meituan-longcat/LongCat-Image-Edit --local-dir ./weights/LongCat-Image-Edit
环境配置完成后,运行示例脚本进行图片编辑测试:
python scripts/inference_edit.py
需要说明的是,项目代码中已内置CPU offloading机制,核心代码如下,其作用是将部分模型权重卸载至CPU,以此降低显存占用、避免出现OOM(显存溢出)错误:
pipe.enable_model_cpu_offload() # Offload to CPU to save VRAM (Required ~19 GB); slower but prevents OOM
generator = torch.Generator("cpu").manual_seed(43)
即便开启了该优化机制,实测运行过程中显卡显存峰值占用仍达约17GB。这也印证了本地16GB显存显卡无法运行的核心原因——显存容量不足;而4090显卡的24GB显存,恰好能满足项目稳定运行的需求。

以下为本次测试的实际效果对比:
demo中编辑前的原图:

经过LongCat-Image编辑实现将“车换成摩托车”后的效果:

从编辑效果来看,整体表现十分出色:不仅成功实现了“车换摩托车”的核心需求,细节处理也相当到位,就连阴影部分都还原得自然逼真,没有出现明显的违和感。
7837

被折叠的 条评论
为什么被折叠?



