2023.8.19-2023.8.24 周报【人脸3D+虚拟服装方向基础调研-Cycle Diffusion\Diffusion-GAN\PV3D\EG3D\3D人脸调研汇总】

目录

学习内容

学习时间

学习产出

后续学习计划


学习目标

1.  这篇是做diffusion和gan结合的,可以参照一下看看能不能做cyclegan的形式,同时也可以调研一下有没有人follow这篇论文做了类似cyclegan的事情

Diffusion-GAN论文https://arxiv.org/abs/2206.02262

2.  https://arxiv.org/abs/2212.06384 这个是一篇比较新的视频人脸3d重构的论文,可以顺着这篇论文找一找有没有相关的做视频3d重构的论文和数据集

PV3D-A论文https://arxiv.org/abs/2212.06384

3.  继续大修图像处理那篇论文,新方向做好调研,详细列好后续学习计划

学习内容

《Diffusion-GAN: Training GANs with Diffusion》

《UNIFYING DIFFUSION MODELS’ LATENT SPACE, WITH APPLICATIONS TO CYCLEDIFFUSION AND GUIDANCE》

《PV3D-A 3D GENERATIVE MODEL FOR PORTRAIT》

《EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks》

学习时间

2023.8.19--8.24

学习产出

Diffusion-GAN论文精读https://blog.youkuaiyun.com/qq_53826699/article/details/132176044

Cycle-Diffusion论文精读https://blog.youkuaiyun.com/qq_53826699/article/details/132381987?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22132381987%22%2C%22source%22%3A%22qq_53826699%22%7D

PV3D 论文精读https://blog.youkuaiyun.com/qq_53826699/article/details/132391072?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22132391072%22%2C%22source%22%3A%22qq_53826699%22%7D
EG3D论文精读https://blog.youkuaiyun.com/qq_53826699/article/details/132459041?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22132459041%22%2C%22source%22%3A%22qq_53826699%22%7D


3D人脸重构最新论文汇总https://blog.youkuaiyun.com/qq_53826699/article/details/132474262?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22132474262%22%2C%22source%22%3A%22qq_53826699%22%7D

论文调研篇icon-default.png?t=N6B9https://blog.youkuaiyun.com/qq_53826699/article/details/132458301?spm=1001.2014.3001.5501
后续学习计划

读论文补充基础知识;生成模型、MCMC、重要性采样、吉布斯采样、GAN、VAE、条件GAN、条件VAE、DDPM和条件DDPM、DDPM、DDIM、StableDiffusion;

cmake --build . --target help The following are some of the valid targets for this Makefile: ... all (the default if no target is provided) ... clean ... depend ... edit_cache ... install ... install/local ... install/strip ... list_install_components ... rebuild_cache ... test ... Continuous ... ContinuousBuild ... ContinuousConfigure ... ContinuousCoverage ... ContinuousMemCheck ... ContinuousStart ... ContinuousSubmit ... ContinuousTest ... ContinuousUpdate ... Experimental ... ExperimentalBuild ... ExperimentalConfigure ... ExperimentalCoverage ... ExperimentalMemCheck ... ExperimentalStart ... ExperimentalSubmit ... ExperimentalTest ... ExperimentalUpdate ... Nightly ... NightlyBuild ... NightlyConfigure ... NightlyCoverage ... NightlyMemCheck ... NightlyMemoryCheck ... NightlyStart ... NightlySubmit ... NightlyTest ... NightlyUpdate ... build_info ... common ... ggml ... ggml-base ... ggml-cpu ... llama ... llama-batched ... llama-batched-bench ... llama-bench ... llama-cli ... llama-convert-llama2c-to-ggml ... llama-cvector-generator ... llama-diffusion-cli ... llama-embedding ... llama-eval-callback ... llama-export-lora ... llama-finetune ... llama-gemma3-cli ... llama-gen-docs ... llama-gguf ... llama-gguf-hash ... llama-gguf-split ... llama-imatrix ... llama-llava-cli ... llama-logits ... llama-lookahead ... llama-lookup ... llama-lookup-create ... llama-lookup-merge ... llama-lookup-stats ... llama-minicpmv-cli ... llama-mtmd-cli ... llama-parallel ... llama-passkey ... llama-perplexity ... llama-q8dot ... llama-quantize ... llama-qwen2vl-cli ... llama-retrieval ... llama-run ... llama-save-load-state ... llama-server ... llama-simple ... llama-simple-chat ... llama-speculative ... llama-speculative-simple ... llama-tokenize ... llama-tts ... llama-vdot ... mtmd ... sha1 ... sha256 ... test-alloc ... test-arg-parser ... test-autorelease ... test-backend-ops ... test-barrier ... test-c ... test-chat ... test-chat-parser ... test-chat-template ... test-gbnf-validator ... test-gguf ... test-grammar-integration ... test-grammar-parser ... test-json-partial ... test-json-schema-to-grammar ... test-llama-grammar ... test-log ... test-model-load-cancel ... test-mtmd-c-api ... test-opt ... test-quantize-fns ... test-quantize-perf ... test-quantize-stats ... test-regex-partial ... test-rope ... test-sampling ... test-thread-safety ... test-tokenizer-0 ... test-tokenizer-1-bpe ... test-tokenizer-1-spm ... xxhash
最新发布
10-04
你运行了: ```bash cmake --build . --target help ``` 输出列出了所有可用的构建目标(targets),其中包括: - `llama-cli` - `llama-server` - `llama-quantize` - `llama-perplexity` - `test-chat` - 等等 但 **没有 `main` 和 `server`**。 --- ## ✅ 正确答案:在当前版本的 `llama.cpp` 中 > 🔴 `main` 已被重命名为 `llama-cli` > 🔴 `server` 已被重命名为 `llama-server` 所以你看到的是最新命名规范的结果! --- ## 📌 如何构建命令行推理程序? 使用: ```bash cmake --build . --target llama-cli -j ``` ✅ 生成可执行文件: ``` build/examples/llama-cli ``` 📌 功能:加载模型并进行文本推理(即旧版 `main` 的功能) --- ## 📌 如何构建 HTTP 服务端? 使用: ```bash cmake --build . --target llama-server -j ``` ✅ 生成可执行文件: ``` build/examples/llama-server ``` 📌 功能:提供类似 OpenAI API 的 HTTP 接口,支持 `/completion`, `/embedding` 等。 > ⚠️ 注意:需要启用 `-DLLAMA_CURL=ON` 才能完整支持网络功能。 --- ## ✅ 完整推荐构建流程 ```bash cd llama.cpp/build rm -rf * # 配置项目(建议开启 curl 支持 server) cmake .. \ -DCMAKE_BUILD_TYPE=Release \ -DLLAMA_CURL=ON \ -DLLAMA_METAL=ON # macOS M系列芯片加速 -DLLAMA_CUDA=ON # NVIDIA GPU 加速(可选) -DLLAMA_BLAS=ON # 启用 BLAS 数学库优化 # 查看所有目标(可选) cmake --build . --target help # 构建核心工具 cmake --build . --target llama-cli llama-server llama-quantize -j ``` --- ## 🧩 为什么改名?背景说明 从 2023 年底开始,`llama.cpp` 社区对代码结构进行了重构: | 旧名称 | 新名称 | 原因 | |-------|--------|------| | `main` | `llama-cli` | 更明确表示是“命令行接口” | | `server` | `llama-server` | 统一命名风格,避免歧义 | | `quantize` | `llama-quantize` | 模块化命名,便于扩展 | 👉 所有 example 程序现在都加上了 `llama-` 前缀,提升一致性。 --- ## ✅ 验证是否成功构建 ```bash ./examples/llama-cli --help ./examples/llama-server --port 8080 ``` 你应该能看到帮助信息或启动日志。 示例运行: ```bash # 运行一个本地推理 ./examples/llama-cli \ -m ./models/llama3-8b-instruct.Q4_K_M.gguf \ -p "Hello, how are you?" \ -n 128 # 启动服务器 ./examples/llama-server \ -m ./models/llama3-8b-instruct.Q4_K_M.gguf \ --port 8080 ``` 然后你可以通过 curl 测试: ```bash curl http://localhost:8080/completion \ -d '{"prompt": "Hello, who are you?", "temperature": 0.7}' ``` --- ## 💡 小技巧:创建别名方便使用 ```bash ln -s examples/llama-cli main ln -s examples/llama-server server ln -s examples/llama-quantize quantize ./main --help ./server --port 8080 ``` 这样就可以继续用旧习惯命名。 --- ## ❌ 常见错误总结 | 错误操作 | 结果 | 正确做法 | |--------|------|---------| | `cmake --build . --target main` | 报错:no such target | 改为 `llama-cli` | | `cmake --build . --target server` | 报错:no such target | 改为 `llama-server` | | 忽略 `-DLLAMA_CURL=ON` | server 缺少 HTTPS 下载支持 | 构建时开启 | | 使用过时教程中的 `BUILD_MAIN=ON` | 变量未被使用 | 不再需要 | ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值