SD 修复 Midjourney 有瑕疵照片

本文讲述了MidjourneyV6在图像生成中的优点和问题,特别是在人物细节上。尽管Midjourney有局部重绘功能,但在V6版本中不可控。相比之下,StableDiffusion在修复脸部和手部瑕疵方面更为有效。作者分享了如何通过3D模型和AIGC工具如ControlNet和Adetailer进行细致的图像修复过程。
部署运行你感兴趣的模型镜像

Midjourney V6 生成的照片在质感上有了一个巨大的提升。下面4张图就是 Midjourney V6 生成的。

如果仔细观察人物和老虎的面部,细节真的很丰富。

但仔细观察上面四张图的手部细节,就会发现至少有两只手是有问题的。这也是目前所有 AI 绘图工具面临的问题。当人物在画面中占的比例很大,这样的问题出现的频率就会小些。通过 Reroll (抽卡) 有很大概率能得到一张没有问题的图片。

然而,当人物在画面中的比例占的比较小时,人物的细节 (比如面部和手部)就更容易出问题。即使不停地Reroll (抽卡) 也无法解决这个问题。

当然,Midjourney 有局部重绘功能,可以修复一些画面中的瑕疵,不过目前还无法在 V6 版本上使用。即使可以使用,也无法精确控制生成的效果。Midjourney 的局部重绘是通过提示词来控制的,但很多画面是无法用语言来精确描述的。比如手部的姿势,手指的弯曲度等等。

下面这张图也是用 Midjourney V6 生成的,就像前面说过的,由于人物在画面中的比例比较小,人物的细节很容易出问题。

如果放大来看,脸部,双手都有问题。

既然 V6 没有局部重绘来修复细节,最佳方案便是 Stable Diffusion。它比 Midjourney 更容易产生我们想要的效果。


脸部在 Stable Diffusion 中比较容易修复,让我们从最难的部分开始,就是上图中的左手。

上图中的左手指甲盖有问题,而且手是攥在一起的,显得人物很紧张,不优雅。

首先我用一个 3D 模型软件 DesignDoll 做出想要的手部姿势。

下载地址是 terawell.net。免费的版本就够用了。

然后我把这只手 P 到了被修复的图片上。

这里的效果比较假也没事,因为后面可以通过 Stable Diffusion 修复。主要是轮廓和姿势没问题就行。

接着,我在网上找了一个白虎的耳朵,然后也把这只耳朵 P 到被修复的图片上。

OK,准备工作都做好了,接着就可以利用 Stable Diffusion 对图片进行重绘,让有瑕疵的地方恢复自然。

进入图生图,然后把要修复的图片上传到局部重绘的界面。选择一个写实的模型。我选择的是 majicMIX realistic。我想先重绘左手,所以就用画笔在左手上进行涂抹。接着对局部重绘的参数进行了如下的设置:

主要是两个参数:“绘制区域” 我选择的是 “仅蒙版”;重绘幅度设置了一个比较低的数值。

为了精确控制手部的姿势,我使用了 ControlNet 的 OpenPose。

为了给手部增加细节,我又使用了 Adetailer 插件。

接着对右手和脸部进行局部重绘。不过它们就简单多了,不需要使用 ControlNet。修复脸部倒是可以用 Adetailer 插件,选择一个以“face”开头的针对脸部的模型就好。脸部我设置了一个稍大的重绘强度,为了把容貌变一变。

三个部分的局部重绘结束以后,就得到了如下图片。

这张图片的尺寸是 768x768,所以在细节方面还有些欠缺。所以下一步我又用 ControlNet 的 Tile 模型进行了放大处理。

放大的幅度根据自己需要进行设置。重绘幅度设置一个很低的数值就好。

最终就得到了下面的图像。

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

第一章 基础篇1. 第1节 - Mid journey register Discord和Midjourney 并将Midjourney BOT添加至自己的服务器 Midjourney入门到精通2. 第2节 - Midjourney教程 用Mid journey画一条狗 知识点:Midjourney基本用法、U和V是什么、查询账号信息和Midjourney付费套餐说明3. 第3节 - Midjourney 教程 Mid journey imagine指令详解 知识点:Midjourney prompt结构、AR指令4. 第4节 - Midjourney教学 Mid journey imagine指令详解 知识点:用Midjourney V4和Niji模型 画出卡通风格的绘图5. 第5节 - Midjourney教程 CHAOS参数详解 知识点:用Chaos指令激发Mid journey的创造力 第二章 进阶篇6. 第6节 - Midjourney 教学 Seed参数 以图作图 知识点:用Seed指令在Mid journey中进行连续创作7. 第7节 - Midjourney进阶教程 光和权重 知识点:如何通过在midjourney中打光提高图片质感 双冒号权重的实战用法8. 第8节 - Midjourney 角色设计 知识点:在midjourney中进行卡通角色概念设计 通过修改种子角色达到对角色的控制9. 第9节 - Midjourney LOGO设计教学 知识点:--no参数 | remix mode | ChatGPT + Midjourney结合使用10. 第10节 - Midjourney + DALL·E 2 角色设计以图作图 知识点:用DALL·E 2将Midjourney的图片进行拓图和改图 实现角色的连续创作11. 第11节 - Midjourney VS DALL·E 2 AI绘图网站哪家强?用Midjourney和DALL·E 2风别进行人物⧸动物⧸风景⧸风格化⧸设计创作 最全测评12. 第12节 - Midjourney + DALL·E 2 手部修复 知识点:用DALL·E 2修复Mid journey图片的一些问题 通过渐进式修复实现对AI的控制13. 第13节 - Midjourney生成风格化图片 知识点:提交Midjourney一张照片 通过Midjourney进行照片的风格化创作14. 第14节 - Midjourney生成风格化图片 知识点:用过渡图的方式,在Midjourney中进行照片的风格化创作15. 第15节 - Midjourney生成风格化照片 知识点:用过渡图的方式在Midjourney中进行照片的风格化的一点补充说明16. 第16节 - ⧸describe 是啥?Midjourney最新命令⧸describe魔鬼测试 知识点:describe命令用法 | describe风格测试17. 第17节 - ⧸describe 是啥?Midjourney最新命令⧸describe魔鬼测试 知识点:用describe命令识别logo 第三章 常见问题18. 第18节 - Midjourney常见问题解答 知识点:seed获取 | 如何写prompt | 试用和付费 | 描述报错等问题19. 第19节 - Midjourney V5来了!全网最全V5模型测试视频 包括手部⧸面部修复、图片分辨率提升、--iw参数在以图作图中的应用
### SDMidjourney的区别对比 #### 工作原理与技术特点 Stable Diffusion 是一种开源的扩散模型,能够通过复杂的算法生成高质量的图像。它依赖本地计算资源运行,并允许用户对生成过程中的多个参数进行微调[^2]。相比之下,Midjourney 则是由 Midjourney, Inc. 开发的一种闭源人工智能服务,主要基于云端运行,用户无需担心硬件性能限制即可获得高效的图像生成体验[^4]。 #### 图像质量与适用场景 在图像生成的质量方面,两者各有侧重。Stable Diffusion 更擅长处理细节丰富的图像,尤其适用于需要精确控制的产品设计、场景还原以及后期编辑的任务[^3]。而 Midjourney 则更注重整体的艺术风格表现力,能够在短时间内生成具有强烈视觉冲击力的情绪板或创意参考图,非常适合用于头脑风暴和初步概念开发[^3]。 #### 用户操作难度 对于初学者而言,Midjourney 的使用门槛较低,只需简单的文字输入就能快速获取结果;然而如果追求更高的定制化程度,则可能需要一定的学习成本去掌握其高级功能设置方法[^4]。另一方面,尽管 Stable Diffusion 提供了极大的灵活性让使用者可以完全掌控整个创作流程,但这同时也意味着较高的初期调试时间投入需求——即所谓的“效率曲线先慢后快”的特性。 #### 运行环境要求 值得注意的是,由于 Stable Diffusion 需要安装到个人设备上执行运算任务,因此对电脑配置有一定要求(比如显卡规格),这可能会成为部分用户的障碍因素之一[^2]。相反地,得益于云架构的支持,无论何时何地只要有网络连接便可轻松访问并享受 Midjourney 所带来的便利性[^4]。 ```python # 示例代码展示两种工具的基本命令差异 (假设存在这样的API接口) # 使用Stable Diffusion生成一张图片 from diffusers import StableDiffusionPipeline import torch model_id = "CompVis/stable-diffusion-v1-4" device = "cuda" pipe = StableDiffusionPipeline.from_pretrained(model_id).to(device) prompt = "a photo of an astronaut riding a horse on mars" image = pipe(prompt).images[0] # 使用Midjourney生成一张图片(伪代码) !mj /imagine prompt:a photo of an astronaut riding a horse on mars --v 5 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值