Stable Diffusion实现模特换衣等功能

部署运行你感兴趣的模型镜像

Stable
Diffusion是一种基于Latent
Diffusion Models(潜在扩散模型,LDMs)的文图生成(text-to-
image)模型。它使用来自LAION-5B数据库子集的512x512图像进行训练。

Stable
Diffusion通过在一个潜在表示空间中迭代“去噪”数据来生成图像,然后将表示结果解码为完整的图像,让文图生成能够在消费级GPU上,在10秒级别时间生成图片,大大降低了落地门槛,也带来了文图生成领域的大火

想不想跟随小编对SD进一步研究呢?小编最近研究了Lora模型,发现SD的功能很强大,尤其可以通过真人照片来培养自己的Lora模型,AI会让真人摆出各种姿势、自动换装。

1. 训练模型

选择真人模特的个人各种姿势照片,然后:

1.选择Chilloutmix_safetensors模型

2.文生图输入: The best quality, ultra-high definition, extreme detail, 8k,
realistic, 1 boy, solo, detailed ficial features, detailed eyes and mouth,
delicate facial features, fair skin <lora: clear face smile
boy_20230807224121-Num: STRENGTH>

3.负面提示词输入: Fused fingers, too many fingers, extra arms, extra legs

4.迭代步数选择30

5.脚本选择图示要求,即选择所有的输入图片进行模型训练

点击开始,进行模型训练,因为我们选择了STRENGTH值为0.1, 0.2…0.9,
1,由此生成的模型跟真人的相似度比重不同,同时,我们选择了NUM值为000001, 000002…000009,0000010.因此,会生成十个模型。

2. 全新模特姿势

模型建好后,我们选择其中一个模型,然后通过输入不同的提示词,就可以生成不同姿势的模特啦!

3. 模特换装

输入下图中的换装参数(正面指令:Highest quality, masterpiece, 1boy, clear, green shirt, blue
hair, whole body, <lora: clear face smile boy_20230807224121>;负面指令: low
quality,),可以实现各种模特姿势变化以及换装,如果需要更换指定服装,通过PS的一键换装功能,就可以实现各种姿势的换装啦,有了这个功能,以后就不需要现实模特啦,这种技术是淘宝店主的福音,免去雇佣摄影师和模特的花费,如果大家感兴趣,下次小编给大家做PS一键换装的教程!

总结,SD功能强大,配合相关工具,可以大量节省人力资源,大家一起学起来吧!

AI绘画SD整合包、各种模型插件、提示词、GPT人工智能学习资料都已经打包好放在网盘中了,有需要的小伙伴文末扫码自行获取。

写这篇文章的初衷,网上的Stable Diffusion教程太多了,但是我真正去学的时候发现,没有找到一个对小白友好的,被各种复杂的参数、模型的专业词汇劝退。

所以在我学了之后,给大家带来了腾讯出品的Stable Diffusion新手入门手册

希望能帮助完全0基础的小白入门,即使是完全没有代码能力和手绘能力的设计师也可以完全学得会。

软件从来不应该是设计师的限制,设计师真正的门槛是审美。

需要完整版的朋友,戳下面卡片即可直接免费领取了!

目录

img

  • 硬件要求
  • 环境部署
  • 手动部署
  • 整合包

img

  • 文生图最简流程
  • 提示词
  • 提示词内容
  • 提示词语法
  • 提示词模板

img

  • Controlnet
  • 可用预处理/模型
  • 多ControlNet合成

img

  • 模型下载
  • 模型安装
  • 模型训练

img

  • 训练流程
  • 风格训练
  • 人物训练

需要完整版的朋友,戳下面卡片即可直接免费领取了!在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

### 给模型添加服的方法 在Stable Diffusion中给模型添加特定的服可以通过调整提示词(prompt)以及利用控制网络(ControlNet)[^1]来实现。具体来说,在创建图像时,可以在正向提示词(positive prompt)里加入描述所需物的具体词语。 如果希望更精确地控制服装样式,可以采用ControlNet插件配合线稿图或边缘检测等方式引导生成过程。例如准备一张只有人体轮廓而无任何服饰的人体图片作为输入条件之一,并在线稿上标记出期望的新着位置与大致形态;再通过设置合适的权重参数让算法依据此额外指导信息进行创作。 另外一种方法是使用LoRA(Low-Rank Adaptation)微调技术训练专门针对某种类型服装的小规模适配器模块并加载至原有大模型之中。这样不仅能够保持原生风格的一致性还能高效引入新的视觉特征如特殊款式、品牌标志等细节[^2]。 对于已经存在的裸模或其他未穿状态的人物肖像照片,则可通过深度学习领域内的inpainting修复手段先抹除现有装扮部分后再按照上述流程重新设计新外观。 ```python # Python伪代码示例:假设有一个名为controlnet的库用于处理ControlNet功能 from controlnet import ControlNet def add_clothes_to_model(image_path, clothes_description): cn = ControlNet() # 加载原始人物图像 person_image = load_person_image(image_path) # 创建描述性的clothing mask 或者 使用预定义模板 clothing_mask = create_or_load_clothing_template(clothes_description) result = cn.generate_with_control( input=person_image, condition=clothing_mask, guidance_scale=7.5 # 可调节参数以适应不同需求 ) save_result_image(result, "output.png") add_clothes_to_model('path/to/person.jpg', 'red dress with white dots') ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值