AI绘画Stable Diffusion 图生图基础讲解,小白入门图生图必看!

部署运行你感兴趣的模型镜像

大家好,我是程序员晓晓

我们在使用AI绘画Stable Diffusion的时候,文生图比较好理解,就是输入文字生成图片。

那图生图又是啥?

SD 允许我们上传一张图片作为底图,这张底图又称为“引导图”,然后再搭配提示词生成一张新的图片。

引导图主要影响最终要生成图片的颜色和构图,而提示词和文生图的提示词一样,这里就不过多讲述了。

图生图的界面入口在 img2img

这个界面下方也有一个 img2img 标签页,这个标签页就是用来上传引导图的。

我们上传一张引导图,但什么提示词都不写,然后让 SD 根据引导图重新生成一张图片。

此时,SD 会根据引导图的颜色、构图重新生成一张新的图,可以看到右边的图的女孩样子不一样了,衣服也换了一件,背景也从晚上变成下午。但整体的构图和色调还是和原图比较接近的。

而当我在正向提示词里输入蓝色头发(blue hair),SD 就会根据原图的颜色和构图重新生成一张图片,并且主角的头发变成了蓝色。

其他配置项

页面继续往下拉可以看到其他配置项。

Resize mode 项提供了不同的缩放模式:

  • Just resize:仅调整大小。当生成图和原图宽高不一致时,生成的图片内容会被拉伸变形。

  • Crop and resize:裁剪后缩放。当生成图和原图宽高不一致时,生成图片会被裁剪掉多出来的部分。

  • Resize and fill:缩放后填充空白。当生成图和原图宽高不一致时,生成的图片会以长边为基准,短边方向多出来的空白位置用色块来填补。

  • Just resize (latent upscale):调整大小(潜空间放大)。当生成图和原图宽高不一致时,生成的图片内容也会被拉伸变形。而且会出现一些模糊的色块。特点是生成速度快,但出图效果很一般,不建议使用。

当设置了生成图的宽高和原图的宽高不一致时,可以选择这几种缩放的方式对图片进行调整。但最好的方式还是将生成的图片的宽高设置为原图的宽高。如果原图的宽高都很大,至少也要保证生成图的宽高和原图的宽高比例是一致的。

如果想更方便的将生成图的缩放成原图的n倍,可以在 Resize by 里调整。

再往下就是采样方法(Sampling method)和迭代步数(Sampling steps),还有设置图片的宽高等,这里的配置和文生图是一样的,就不过多讲解了。

需要关注的是 Denoising strength,这项的意思是“重绘幅度”,数值越大,生成的图就和原图的差别越大。默认值 0.75 其实是一个比较大的值了。

如果不想大幅度修改原图,可将该值设置在 0.5 以下。


感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

### Stable Diffusion 成的使用方法 #### 一、Stable Diffusion 的基本概念 Stable Diffusion 是一种先进的文成模型,其核心原理在于通过在潜在表示空间中进行迭代去噪操作,并最终将处理后的潜变量解码为完整的像[^2]。该模型不仅支持高质量成,还能依据特定条件成满足需求的像。 此外,Stable Diffusion 完全开源免费,用户可以在本地或云端自行部署并运行此工具[^1]。这种灵活性使其成为 AI 领域中的重要技术之一,在艺术创作和商业应用中有广泛的潜力[^3]。 --- #### 二、本地环境下的安装与配置 如果希望在本地环境中运行 Stable Diffusion,以下是具体的操作流程: 1. **准备开发环境** - 确保计算机具备 NVIDIA GPU 和 CUDA 支持(推荐至少有 8GB 显存),因为训练和推理过程依赖于高性能计算资源。 - 下载 Python (建议版本 >= 3.9),以及要的库文件如 PyTorch 和 Transformers。 ```bash pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117 ``` 2. **克隆官方仓库** 访问 GitHub 上的 Stable Diffusion 开源项目页面,下载最新代码至本地机器。 ```bash git clone https://github.com/Stability-AI/stablediffusion.git cd stablediffusion ``` 3. **加载预训练权重** 模型本身并不附带任何参数;因此需要单独获取已发布的 checkpoint 文件,并将其放置到指定目录下以便后续调用。 4. **启动服务端口** 利用内置脚本快速搭建 WebUI 接口供交互测试之用。 ```bash python scripts/webui.py ``` 此时应该可以通过浏览器访问 `http://localhost:7860` 来查看形化界面[^1]。 --- #### 三、云平台上的部署方案 对于缺乏足够硬件设施或者更倾向于利用第三方基础设施的情况来说,则可以选择借助云计算服务商来完成整个项目的迁移工作。例如 AWS 提供了一个名为 Amazon SageMaker 的托管服务平台,允许开发者轻松构建大规模机器学习流水线而无需担心底层架构管理等问题存在。 在此过程中需要注意的是,虽然理论上所有主流公有云厂商均能胜任这项任务,但由于实际成本考量加上不同区域可用实例类型的差异性等因素影响,最好提前做好充分调研再做决定[^3]。 --- #### 四、成高分辨率片技巧 为了获得最佳视觉效果,请遵循以下几点建议: - 调整采样步数(step count): 更高的数值通常意味着更好的质量但也消耗更多时间; - 设置合适的引导比例(guidance scale): 这决定了结果贴近提示词的程度,默认值设为7.5较为平衡; - 尝试多种风格模板(prompt templates): 不同描述方式可能会带来截然相反的艺术表现形式。 以上就是关于如何开始探索并实践Stable Diffusion的一些基础指导信息了! ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值