AI绘画comfyui光效换背景工作流,产品与背景完美融合!

前言

最近学习comfyui的工作流搭建及应用,发现搭建工作流有点像是炒菜,今天这个工作流我之前拆解过,但是没有给光指定方向和形状,第一次拆解的时候对某些节点的参数还不是很了解,所以今天再重新搭建一次!

老规矩一句话描述工作流原理:文生图搭载光效节点对产品重新打光,并去除背景保留前景对背景进行重绘,制作光源控制光效!接下来开始准备材料,一步步拆解这个工作流!

第一步、搭建easyuse 文生图工作流

这里顺便把将要处理的主体,改变尺寸后输给了emptylatent,尺寸这里限定了不超过768并且是按比例缩放,为什么是768呢?因为cilight目前只支持sd1.5的模型!


整理和输出教程属实不易,觉得这篇教程对你有所帮助的话,可以点击👇二维码领取资料😘

在这里插入图片描述

第二步、搭建IC Light 工作流

apply iclight和conditioning不用连接,这点好像和其他的模型组合步太一样啊,其余的按提示连接即可,至于foreground前景则是连接的需要应用光照条件的图像或图像部分,这个图像传送需要编码之后在连接foreground!

至于multiplier(乘数)它的数值越大,光照的效果越大,这个需要在应用的过程中具体调整!

第三步、将图像进行编码连接到foreground

这里上传到是经过缩放并取出背景的图片,因为我们要给取出背景的人物或者图像应用光照!

第四步:设置中文提示词工具

这里用到两个节点一个是ollama generate advance和stringfunction选择action的方式为append(增加),这样可以把ollama翻译成的提示词和质量提示词连接,方便我们不会英文的同学任意换背景!

然后连接到这里工作流大家完成了,但是你会发现生成的图片是这样的背景和人物的色彩都变色了,如图!

第五步、搭载image detail transfer 恢复主体细节

其中target为刚才文生图生成的图像,source是经过image resize处理过的图像,mask是去removebg处理过的遮罩,其中遮罩给定了限制区域,source给定了限制区域的所有信息!这样是不是把原图像传过来了!

看着这个节点的参数:

blury sigma:模糊程度决定了源图像的细节在传输到目标图像时的清晰度和柔和度。这个参数的作用类似于在图像处理软件中应用高斯模糊滤镜。

  • 较低的模糊值 (如 0.5)

  • 如果设置较低的模糊值,源图像的细节会非常清晰地传输到目标图像上。这意味着每一个细小的纹理和边缘都会被清晰地保留下来,细节非常锐利。例如,如果源图像有很多皮肤的细小纹理,低模糊值会使这些细节非常明显地出现在目标图像上。

  • 较高的模糊值 (如 3.0)

  • **较高的模糊值会使得源图像的细节在传输过程中变得更加平滑和柔和。这种情况下,细小的纹理和边缘会变得模糊,整体效果更柔和。**例如,如果源图像是一个风景图片,较高的模糊值会使得树叶和草地的细节变得不那么锐利,看起来更加梦幻和柔和。

也就是说模糊值越低,人物越清晰但和背景的融合就会差点意思!反之越高则在细节传送过程中会变得更加平滑柔和,融合度越好!具体还需手动测试了!

blend_factor (混合因子)

  • 混合因子控制了源图像细节与目标图像的混合程度。数值为1.000表示完全混合,0.000表示不混合。你可以根据需要调整这个参数,以获得不同的混合效果。

第五步:增加光源效果

先看这个光源的整体框架大小应该和我们之前处理过的自定义图大小一致,也就是这里我已经 转化为输入的frame width和frame
height!然后借助grow mask blur节点让光源不要那么生硬!

1.expand (扩展)

这是掩码扩展的像素数。数值越大,掩码的区域就越大。例如,设置为50表示掩码将扩展50个像素。

2.incremental_expandrate (递增扩展率)

这个参数控制掩码扩展的速度。如果设置为0,扩展是一次性完成的;如果设置为一个正值,掩码会逐步扩展。我认为这是一种过渡效果!

3.tapered_corners (渐变角落)

启用此选项会使扩展的掩码在边缘处渐变,使其边缘更加平滑和自然。

4.flip_input (翻转输入)

当启用这个选项时,输入的掩码图像将会翻转,通常用于特殊效果或需要对图像进行反转处理的情况。

5.blur_radius (模糊半径)

控制掩码模糊的程度。数值越大,模糊效果越强。100表示模糊半径为100个像素,会使掩码边缘变得非常柔和。

为了帮助大家更好地掌握ComfyUI,我在去年花了几个月的时间,撰写并录制了一套ComfyUI的基础教程,共六篇。这套教程详细介绍了选择ComfyUI的理由、其优缺点、下载安装方法、模型与插件的安装、工作流节点和底层逻辑详解、遮罩修改重绘/Inpenting模块以及SDXL工作流手把手搭建。

由于篇幅原因,本文精选几个章节,详细版点击下方卡片免费领取
在这里插入图片描述

一、ComfyUI配置指南
  • 报错指南
  • 环境配置
  • 脚本更新
  • 后记

img

二、ComfyUI基础入门
  • 软件安装篇
  • 插件安装篇

img

三、 ComfyUI工作流节点/底层逻辑详解
  • ComfyUI 基础概念理解
  • Stable diffusion 工作原理
  • 工作流底层逻辑
  • 必备插件补全

img

四、ComfyUI节点技巧进阶/多模型串联
  • 节点进阶详解
  • 提词技巧精通
  • 多模型节点串联

img

五、ComfyUI遮罩修改重绘/Inpenting模块详解
  • 图像分辨率
  • 姿势

img

六、ComfyUI超实用SDXL工作流手把手搭建
  • Refined模型
  • SDXL风格化提示词
  • SDXL工作流搭建

img

由于篇幅原因,本文精选几个章节,详细版点击下方卡片免费领取

在这里插入图片描述

img

/i-blog.csdnimg.cn/direct/d95597db7d9d44ac98bb7a18dcfeacc5.png#pic_center)

img

这里直接将该软件分享出来给大家吧~

1.stable diffusion安装包

随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。

最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本

在这里插入图片描述

2.stable diffusion视频合集

我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。

在这里插入图片描述

3.stable diffusion模型下载

stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。

在这里插入图片描述

4.stable diffusion提示词

提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。

在这里插入图片描述

5.SD从0到落地实战演练

在这里插入图片描述

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。

这份完整版的stable diffusion资料我已经打包好,需要的点击下方插件,即可前往免费领取!

在这里插入图片描述

### 如何在 ComfyUI 中实现背景工作流 #### 基础概念 ComfyUI 是一款功能强大的工具,能够通过图形化界面构建复杂的工作流。它支持多种节点操作,可以完成诸如图像处理、AI生成等任务。对于更背景的需求,可以通过特定的工作流来实现。 #### 工作流概述 更背景的功能通常涉及以下几个核心步骤:分割前景对象、移除原图背景、替背景融合效果。这些过程可以在 ComfyUI工作流中通过一系列预定义的节点组合而成[^2]。 #### 节点配置连接 以下是具体的操作指南: 1. **加载输入图片** 使用 `Load Image` 或者 `Image Loader` 节点导入需要处理的目标图片。 2. **目标检测分割** 利用 `ControlNet` 或其他类似的分割网络节点提取前景物体。此部分可能需要用到预先训练好的模型文件(如 U-Net),以便更精确地识别主体轮廓[^3]。 3. **创建透明区域** 将分割后的掩码应用到原始图片上,从而生成带有 Alpha 通道的新图像,其中背景被设置为完全透明。 4. **准备替代背景** 同样采用 `Load Image` 加载一张或多张作为候选背景使用的素材照片。 5. **合成最终结果** 运用 `Composite` 类型的节点把上述两部分内容结合起来——即将前一步得到的对象放置于指定位置之上并选定背景无缝衔接起来形成完整的画面输出。 6. **保存导出成品** 最后经过调整参数优化视觉呈现之后就可以利用相应选项存储成果了。 ```python from comfyui import Workflow, Node workflow = Workflow() # Step 1: Load input image node. input_image_node = workflow.add_node(Node('load_image', {'path': 'example.jpg'})) # Step 2: Add segmentation model and process the foreground extraction. segmentation_model_node = workflow.add_node(Node('controlnet_segmentation', {})) foreground_extraction_node = workflow.connect_nodes(input_image_node.id, segmentation_model_node.inputs['image']) # Step 3: Generate alpha mask from extracted foreground. alpha_mask_generator_node = workflow.add_node(Node('generate_alpha_mask', {})) transparent_foreground_node = workflow.connect_nodes(foreground_extraction_node.outputs['mask'], alpha_mask_generator_node.inputs['mask']) # Step 4: Load background images into another load_image node. background_loader_node = workflow.add_node(Node('load_image', {'path': 'new_background.png'})) # Step 5: Composite final result by combining transparent foreground with new backgrounds. composite_final_result_node = workflow.add_node(Node('composite_images', {})) final_output_node = workflow.connect_multiple_inputs([ (transparent_foreground_node.outputs['output'], composite_final_result_node.inputs['foreground']), (background_loader_node.outputs['output'], composite_final_result_node.inputs['background']) ]) # Export or display results as needed within your application environment. export_results() ``` 以上代码片段展示了如何使用 Python API 构建一个简化版本的 ComfyUI 自动化脚本用于执行背景的任务。 #### 注意事项 虽然整个流程看似简单明了,但在实际操作过程中仍需注意一些细节问题比如不同分辨率之间匹配度差异可能导致边缘锯齿现象;另外某些特殊情况下单纯依靠算法难以达到理想分离效果这时就需要人工介入辅助修正边界线等问题[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值