一键把二次元老婆拉进现实(Stable Diffusion进阶:ControlNet LineArt模型)

能将二次元老婆拉进现实,成为你的专属女友。本文将带你深入了解ControlNetLineArt模型的使用方法,助你轻松实现这一梦想。

ControlNet LineArt模型是StableDiffusion的最新进阶版本,它能够将二次元动漫人物以LineArt的形式生成现实中的照片。这一功能的出现,让二次元老婆瞬间变得触手可及,成为现实中的女友。
在这里插入图片描述

其实在很早之前我曾和我的爸妈说过我找了一个喜欢玩cos的女朋友,并借此申请了一些经费用于购买服饰啥的。

当然我没有说谎,我真的拿去买新衣服了,也是买给我的老婆“们”的。

我也用了一些Stable Diffusion的小技巧画出了一张张cos图,虽然每张图片长得都有丢丢不太一样不过好在我爸妈那边是过关了。

当然后续还是得学习一下怎么炼模型好让自己的图片产出不要差别太大,但是这个不是今天的主题。

前段时间可能大伙都听过了海贼王的真人版开播

有很多人觉得这是难得的真人比较符合动漫形象的漫改,而在更早期就有人用AI制作出了他们心目中海贼王在现实里的形象。

大部分是利用类似于Lora不断地喂养素材,让AI能够更好地画出一个“coser”而不是本人。

而今天的内容则是学习如何利用ControlNet LineArt模型及其应用原理,从而实现真人化转绘、线稿填色、三维渲染等以前我想都不敢想的操作。

看到这里相信各位都已经迫不及待准备将“老婆们”带进三次元世界,那我也就不卖关子让我们开始今天的学习吧!


图生图转绘

到目前为止学会的知识点中直接用图生图功能进行三次元转绘是最简单的方法,也就相当于AI在原图的基础上进行关键元素的抽取,然后根据这些元素再进行重绘。

而像是一些模型例如我比较喜欢的majic

这类模型都会喂养大量的真实人物图片,AI就可以根据这些图片绘画出十分贴近现实的人物图像了。

当然这步骤也很简单,只需要跟着我操作就行。

第一步:挑选一张合适的角色原图

将这张图导入图生图中,这个时候可以自己填写提示词或者利用DeepBooru反推功能进行提示词的反推。

又或者可以用WD1.4 标签器这个插件进行提示词反推,不过记得删改那些觉得不合适的提示词。

第二步:选择合适的模型

  • 像是MajicMix Realistic适合东亚面孔以及年轻的女性,就很适合绝大部分符合东南亚审美的角色。

  • 而Realistic Vision则适合西方面孔以及男性角色,会显得比较硬朗的那种。

  • A-Zovya Photoreal则适合非亚洲面孔以及一些少数族裔面孔。

第三部:参数的调整

因为是重绘,所以下方的重绘幅度不适合过高(小于0.5),之后点击生成就可以得到一份“三次元”写真了!

这么看下来效果其实还ok,不过图生图这么用还是有些不足的地方,最直观的就是图片清晰度不够从而细节方面有些对不上号。

例如这个椅子、发夹、胸前的头发等,如果想要让生成的结果更符合预期,那么还得给AI来点猛的。

ControlNet LineArt

ControlNet这东西蛮早就学习过了,在后续其他知识点的学习运用中也不止一次地出现,究其原因还是太好用了。

ControlNet可以将图像中人物的姿势、画面细节等东西提炼出来塞给AI,目前的ControlNet有着18种控制类型以及数不清的新模型和预处理器。

而这篇文章的主力也就是之前提起过的老朋友-LineArt线稿,这功能本质上是一种基于边缘萧条的图像控制引导。

也就是将一幅画的人物轮廓等画成一张线稿图,然后在根据这幅线稿图重新绘画,这样就起到了固定形体和细节特征。

来到下方的ControlNet后选择启用,在图生图中不需要再单独上传图像,如果需要的话也可以上传。

选择Lineart线稿并且选择动漫线稿提取,其余的参数就不变动了,直接点击生成。

在有了线条的指引之后可以看出AI绘画的图片更加接近原作的效果。

而在上面选择了动漫线稿的预处理器可以看出其绘画出来的效果是这样的:

点击下方预处理器右边爆炸的按钮

而不同逻辑的预处理器识别线条也会有所差异,二次元转真人选择lineart_anime就对了,选择去噪的那个则会让线条更精细些。

如果是从真实照片中提取线条就选择Realistic,这一般用于真人转动漫的绘画。

Standard和Invert一般用于真正的白底黑线“线稿图”,这两个起到反色的作用,将白底黑线的线稿图转化为AI可以识别的黑底白线。

而Coarse则是可以让AI有更多创作空间,因为这个选项会让线稿没那么细致,AI就可以自己发挥了。

IP-Adapter

如果就到此结束今天的内容就有点少了,对于二次元角色而言有着多套衣服是很正常的事情,而这个全新的IP-Adapter控制模型也就是这一部分内容的主角。

这个IP-Adapter是由腾讯AI实验室开发的图片生成项目

在以往的学习中往往只能通过提示词的方式来向AI传递一些内容方面的信息,图生图功能严格意义上来说更像是复制色彩上的相似性。

而IP-Adapter则会真正地去理解这张图片的含义,并用学习到的东西去微调输出的结果,从而让结果无论是色彩、形象上都更像输入的那张参考图。

当IP-Adapter与其他模型组合起来的时候就可以起到“画风迁移”的效果,接下来看一下演示的效果就知道了。

第一步:进入到文生图,在ControlNet的第一个窗口中导入想要制定的风格参考图

控制权重和引导终止时机一般设置在0.8会比较好,这样AI就不会过度发挥

第二步:打开第二个ControlNet Unit将角色原图导入进去

第二个Unit还是选择LineArt就可以了

第三步:选择与原图画风相似的模型

大部分二次元模型都可以,这个看自己选图的结果。

第四步:输入提示词,然后点击生成。

提示词中可以适当补充与该灵感相关的描述,例如我上面例图中绿色,白毛等等。

这里我借用原教程作者演示的图片,我发现目前而言LineArt与IP-Adapter结合的话像是作者例图的纯白背景人物图会比较不容易出错。

也就是白色的背景加上色调没那么杂乱的类似于人物设定图的比较好生成,而我尝试了几次用的图颜色都比较丰富并且结果也不稳定,当然也可能是我自己操作漏了或者什么情况,这个还需要我再研究研究。

看到这里可以发现其实IP-Adapter像是一个一键换肤的功能,可以帮助二次元角色进行风格的更换:

今天的内容就到这里结束啦!

主要是一个LineArt和IP-Adapter的学习使用,当然后面还有一小部分我放在下篇文章中去学习。

在LineArt将二次元图像转换为三次元之后就可以拿去超分放大,这样一来细节不足的地方也就可以弥补上了。

那么大伙下篇笔记见,拜了个拜!

但由于AIGC刚刚爆火,网上相关内容的文章博客五花八门、良莠不齐。要么杂乱、零散、碎片化,看着看着就衔接不上了,要么内容质量太浅,学不到干货。

这里分享给大家一份Adobe大神整理的《AIGC全家桶学习笔记》,相信大家会对AIGC有着更深入、更系统的理解。

有需要的朋友,可以长按下方二维码,免费领取!

请添加图片描述

AIGC所有方向的学习路线思维导图

这里为大家提供了总的路线图。它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。如果下面这个学习路线能帮助大家将AI利用到自身工作上去,那么我的使命也就完成了:
在这里插入图片描述

AIGC工具库

AIGC工具库是一个利用人工智能技术来生成应用程序的代码和内容的工具集合,通过使用AIGC工具库,能更加快速,准确的辅助我们学习AIGC
在这里插入图片描述

有需要的朋友,可以点击下方卡片免费领取!

精品AIGC学习书籍手册

书籍阅读永不过时,阅读AIGC经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验,结合自身案例融会贯通。

在这里插入图片描述

AI绘画视频合集

我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,科学有趣才能更方便的学习下去。

在这里插入图片描述

有需要的朋友,可以长按下方二维码,免费领取!

请添加图片描述

### Stable Diffusion ControlNet 模型列表及其作用 #### 控制网络概述 ControlNet 是一种用于增强 Stable Diffusion 图像生成能力的神经网络模型。它允许用户引入额外的条件信号(如边缘检测、姿态估计等),从而更精确地控制生成图像的内容和风格[^3]。 #### 常见的 ControlNet 模型及功能描述 以下是常见的 ControlNet 模型以及它们各自的作用: 1. **Canny 边缘检测** - Canny Edge Detection Model 使用经典的 Canny 算法提取输入图像的边缘信息作为条件信号。 - 这种模型适用于生成具有清晰轮廓线的艺术作品或插画,能够显著提高线条结构的一致性和准确性[^4]。 2. **Depth Map (深度图)** - Depth Estimation Model 提供场景中物体距离相机远近的信息。 - 利用该模型可以创建带有强烈透视感的画面,特别适合建筑渲染或风景创作任务。 3. **Normal Map (法向量贴图)** - Normal Mapping Model 计算表面方向数据以模拟复杂材质外观。 - 此类模型有助于实现逼真的纹理细节表现,比如金属光泽或者布料褶皱效果。 4. **Pose Estimation (人体姿态估计)** - Human Pose Detection Model 识别并标注人物肢体关节位置关系。 - 当遇到缺少 `mmpose` 库错误时,可能是因为此部分依赖于外部工具包来进行骨骼点预测操作[^1]^。 如果希望正常运行含有人体动作捕捉需求的应用程序,则需安装相应支持库文件。 5. **Segmentation Mask (分割掩码)** - Semantic Segmentation Model 将图片划分为不同语义区域类别标签形式表示出来。 - 用户可以根据这些分类结果指定特定区域内填充颜色或者其他视觉属性变化规则,进而指导AI按照预设意图调整最终产物样式特征. 6. **Line Art / Scribble Sketches (素描草稿)** - Line Drawing Recognition Model 解析手绘线条图案含义,并将其转化为计算机可理解的形式参与后续计算流程当中去. 7. **Openpose Body Keypoints Extraction(开放姿势身体关键点抽取)** - OpenPose Framework Based Module 自动定位视频流帧序列里的人物形象轮廓坐标集合, 并形成骨架连接线路展示给算法参考利用. 8. **MLSD Mid-Level Structure Description Network(Mid-level 结构描述网络)** - MLSD Algorithm Focuses On Detecting Middle Level Features Such As Corners And Intersections Within An Image Scene Which Can Be Utilized To Guide The Generation Process More Accurately Towards Desired Outcomes.[^4] 9. **Recolorization With Color Palette Matching(Color 配色方案匹配重着色处理)** - Recolored Version Of Original Inputs By Comparing Against Predefined Swatches Or Custom Defined Ones Provided By Users Themselves For Consistent Stylistic Choices Across Multiple Outputs Generated Sequentially Over Time Periods. ```python from diffusers import StableDiffusionControlNetPipeline, ControlNetModel import torch controlnet_canny = ControlNetModel.from_pretrained("lllyasviel/sd-controlnet-canny", torch_dtype=torch.float16) pipe_canny = StableDiffusionControlNetPipeline.from_pretrained( "runwayml/stable-diffusion-v1-5", controlnet=controlnet_canny, safety_checker=None, torch_dtype=torch.float16 ) image = pipe_canny(prompt="a cute cat sitting on a chair", image=input_image).images[0] ``` 以上代码片段演示了如何加载基于 Canny 边缘检测技术构建而成的一个具体实例化对象,并调用了对应的方法完成一次简单的图文转换请求作业。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值