Stable Diffusion【应用篇】【三视图】:角色三视图的制作

在角色设计领域,三视图是至关重要的基础环节。本文将详细讲解利用 Stable Diffusion 制作角色三视图的全过程。从模型的选择与准备,到提示词的精准编写,再到参数的精细调整,每一步都清晰剖析。通过实际案例操作,让你轻松掌握如何借助这一强大工具,高效生成准确且富有创意的角色三视图,为后续的设计工作提供坚实保障。

一. 实现方式一: 通过提示词实现

三视图提示词格式:

(three views of character:1.2),(three views of the same character in the same outfit:1.2),full body,front,side,back,front view,side vide,back view,front view of girl,side view of girl,back view of girl,【主体描述】 simple background,white background,masterpiece,best quality

下面我们以具体示例看一下效果。

  • 大模型:IP DESIGN | 3D可爱化模型 V4.0
    这份完整版的模型资料包已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

  • 正向提示词(这里只补充主体描述的关键词)

Prompt:1girl,blonde hair,long hair,princess peach,blue eyes,lips,eyelashes,earrings,crown,hood,casual

提示词:1个女孩,金发,长发,桃公主,蓝眼睛,嘴唇,睫毛,耳环,皇冠,兜帽,休闲

  • 反向提示词

nsfw,lowres,bad anatomy,bad hands,text,error,missing fingers,extra digit,fewer digits,cropped,worst quality,low quality,normal quality,jpeg artifacts,signature,watermark,username,blurry,artist name,

  • 采样器:Euler a
  • 采样迭代步数:25
  • 图片宽高:768*512
  • CFG: 7

我们看一下生成的图片效果。

img

img

img

相关说明:

(1)这种实现方式可控性不太好,需要大量抽签才能抽到符合要求的图片。不管是基于SD1.5还是基于SDXL的大模型,很多大模型对于三视图的准确理解还是不到位的。当然如果有能很好理解三视图关键词的的大模型,那这种实现方式也是很好的哈。

(2)如果出现生成不了三视图中某个视图效果,可以适当提高一下该视图的提示词权重。

二. 实现方式二:借助三视图LORA实现

我们可以在liblibAI的官网,通过关键词"三视图"搜索到相关的LORA。这里有很多支持各种不同风格的三视图LORA模型。

img

这里我们以使用量最大的mw_3d角色ip三视图q版 LORA为示例讲解。该lora模型有支持SDXL大模型的尝鲜版(V2.0.1)和支持SD1.5大模型的版本(最新版V1.1)。

LORA:mw_3d角色ip三视图q版 V2.0.1 尝鲜版

该版本使用的是基于SDXL1.0基础版本的底膜。该版本对动物的支持貌似更好了一些。触发词:mw_sanshitu、three view、full body

下面我们以具体示例看一下效果。

  • 大模型:SDXL_1.0
  • 正向提示词

Prompt:mw_sanshitu,full body,mermaid,simple background,standing,lora:mw_3d角色ip三视图q版_2.0.1:0.9

提示词:Mw_sanshitu,全身,美人鱼,简单背景,站立

  • 反向提示词

easynegative,dark,bad hands,bad feet,worst quality,low quality,normal quality,bad artist,bad anatomy,blurry

  • loar: lora:mw_3d角色ip三视图q版_2.0.1:0.9
  • 采样器:Euler a
  • 采样迭代步数:25
  • 图片宽高:1024*768
  • CFG: 7

我们看一下生成的图片效果。

img

img

img

上面我们没有加三视图的视角关键词,我们把视角关键词添加一下:

Prompt:mw_sanshitu,full body,front view,side view,back view,mermaid,simple background,standing

img

img

当然也不能每次都能正确理解,但是抽签概率已经很大了。

相关说明:这种方式对于创作三视图来说,是相当不错的实现方式,但是没有办法准确的控制主体的姿势。三视图的视角仍然是随机的,虽然可以通过提示词来控制,但是还是需要抽签概率。

**三. 实现方式三:使用ControlNet的*openpose*模型

这种实现方式主要是通过ControlNet的Openpose插件可以实现人物姿势自由控制,我们借助这个插件生成的3种不同视角的人体姿势,从而达到精准控制人物姿势的3视图效果。

关于Openpose灵活人物姿势的控制可以参照之前的文章了解。

下面我们来看一下具体示例操作步骤。

第一步】:制作一张人物三视图的特征图片。

下面这张三视图的特征图片分别对应人物的:正面、侧面、背面。

img

相关说明:对于我们来说制作三视图的特征图片并不容易,我们可以在LiblibAI网站或者C站上找一张三视图的真人图片,然后在ControlNet中使用Openpose模型的Openpose预处理器生成一张三视图的特征图片。具体操作如下。

img

第二步】:大模型选择、提示词编写、相关参数设置

  • 大模型:AWPortaint V1.4
  • 正向提示词

Prompt:(three views of character:1.2),(three views of the same character in the same outfit:1.2),1girl,long hair,wear school uniform,a proud and confident smile expression,studio fashion portrait,studio light,pure white background,

提示词:1个女生,长发,穿着校服,带着骄傲自信的微笑表情,工作室时尚肖像,工作室灯光,纯白色背景

  • 反向提示词

ng_deepnegative_v1_75t,(badhandv4:1.2),(worst quality:2),(low quality:2),(normal quality:2),lowres,bad anatomy,bad hands,((monochrome)),((grayscale)) watermark,moles,large breast,big breast,

  • 采样器:DPM++ 2M Karras
  • 采样迭代步数:30
  • 图片宽高:768*512
  • CFG: 7
  • 高分辨率修复:放大算法Lanczos,重绘幅度0.4 重绘采样步数30
  • Adetailer插件:脸部模型 face_yolov8n

第三步】:ControlNet Openpose模型设置

img

相关参数设置如下:

  • 控制类型:选择"OpenPose(姿态)"
  • 预处理器:none (由于上传的是三视图特征图,这里就不需要再设置预处理器了)
  • 模型: control_v11p_sd15_openpose

第四步】:图片的生成

img

img

img

相关说明:

(1)使用ControlNet的openpose模型制作的三视图相对来说最稳定,每次都可以出三视图的效果。

(2)这种方式可以实现其他任意视图,不仅仅局限在三视图。

上面分享目前最常用的制作三视图的三种方法,在实际应用中,大家可以综合几种方法一起使用,比如结合实现方式二和三,在不同的场景可能会带来更好的效果。

好了,今天的分享就到这里了,希望今天分享的内容对大家有所帮助。

这份完整版的模型资料包已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

### 使用 Stable Diffusion 生成角色三视图 #### 准备工作 为了成功创建高质量的角色三视图,需先安装并配置好Stable Diffusion环境以及必要的插件。特别是ControlNet扩展对于姿态引导至关重要[^2]。 #### 控制网络设置 通过加载预训练好的`openpose`检测器到ControlNet模块内,能够有效捕捉人体骨骼结构特征,从而确保不同视角下的人物形态一致性[^1]。 #### 参数调整建议 当利用文字提示词时,推荐加入特定参数以优化输出效果: - `simple background, white background:1.3`: 创建简洁背景利于突出主体; - `(multiple views:1.2)` 和 `(three views of character:1.2)` : 明确指示希望获得多角度展示; - `front`, `side`, `back:1.2`: 分别强调所需的具体方位[^4]。 #### 执行过程概览 启动程序后,在界面中输入上述定制化指令集作为Prompt;随后选择合适的LoRA模型进一步微调细节表现力;最后点击“Generate”按钮等待成果呈现即可完成整个流程。 ```python from diffusers import StableDiffusionPipeline, ControlNetModel import torch controlnet = ControlNetModel.from_pretrained("lllyasviel/sd-controlnet-openpose") pipe = StableDiffusionPipeline.from_pretrained( "runwayml/stable-diffusion-v1-5", controlnet=controlnet ).to("cuda") prompt = "(simple background, white background:1.3),(multiple views:1.2),Multiple views of the same character in the same outfit:1.3,(three views of character:1.2),(back:1.2),front,side" image = pipe(prompt=prompt).images[0] image.show() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值