StableDiffusion绘画之局部重绘

还是拿我们敬爱的已经退役的日本动作巨星三上老师来举例

比如说,我想要换掉三上老师的发卡,图片中其它元素保持不变,要怎么做呢?

如下图,选择图生图,然后选择局部绘制,把敬爱的三上老师美照上传上去

把鼠标移动到三上老师图片上,可以看到光标变成了个黑点,这个点黑的作用就是用来涂抹我们需要局部绘制的区域。

比如我们涂掉发卡部分(注意右上角的编辑图标,可以调整笔触的大小)

接下来我们就直接生成图片试试,不用填提示词,不过有个注意点:

这个宽高需要保持跟原图一致,否则会会拉伸或剪裁。

下面放在一起对比下

通过这个简单的演示,相信大家对局部重绘功能有了一个大概的理解和认识。

我们可以通过鼠标在图片上绘制蒙板的形式,来控制StableDiffusion作图时影响的区域,这样就可以在保证原图不变的情况下,来对图片的局部进行修改。

如果我们想让三上老师尝试下其它服装,比如我最爱的红色吊带裙(提示词:Red halter dress)

是不是看上去还可以?

到这里,聪明的小伙伴可能已经想到更好的玩法想要跃跃欲试了。。。

如果这篇文章对你有用,欢迎关注点赞转发,我将会带来更多有价值的内容。
AI绘画SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,有需要的小伙伴文末扫码自行获取。

想要SD安装包和相关插件的小伙伴扫码可免费领取哦~

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

在这里插入图片描述

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

在这里插入图片描述

若有侵权,请联系删除

### 鸿蒙系统 StableDiffusion 绘画应用开发教程 #### 1. 开发环境准备 在鸿蒙系统上开发 StableDiffusion 应用,首先需要搭建适合的开发环境。由于鸿蒙系统的生态尚未完全支持像 Windows 或 Linux 这样的复杂计算框架,开发者可能需要借助跨平台工具链完成部分工作流。 为了实现这一点,可以考虑使用 Docker 来模拟一个兼容的运行环境,在其中安装 Python 和 PyTorch 等依赖项[^1]。具体来说,Dockerfile 可能如下所示: ```dockerfile FROM python:3.9-slim RUN apt-get update && \ apt-get install -y git wget libgl1-mesa-glx ffmpeg && \ pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 WORKDIR /app COPY . . CMD ["bash", "start.sh"] ``` 此配置允许开发者在一个隔离环境中测试和调试代码,而无需担心底层操作系统差异带来的影响。 #### 2. 模型集成与优化 StableDiffusion 的核心是一个复杂的深度学习模型,直接将其移植到资源受限设备(如手机和平板电脑)可能会遇到性能瓶颈。为此,推荐采用量化技术和剪枝策略减少模型大小及其推理时间成本[^3]。 例如,利用 ONNX Runtime 提供的功能将原始 PyTorch 模型转换成更高效的中间表示形式,并进一步压缩至 INT8 数据精度级别: ```python import onnxruntime as ort from transformers import AutoModelForImageGeneration, AutoTokenizer model_name_or_path = 'runwayml/stable-diffusion-v1-5' tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForImageGeneration.from_pretrained(model_name_or_path) dummy_input_ids = tokenizer.encode("A photograph of an astronaut riding a horse.", return_tensors='pt') ort_session = ort.InferenceSession('optimized_model.onnx') outputs = ort_session.run(None, {'input_ids': dummy_input_ids}) print(outputs) ``` 以上片段展示了如何加载预训练权并通过 ONNX 导出简化版架构以便后续部署于边缘端硬件之上。 #### 3. 用户界面设计 尽管原生版本缺乏图形化前端组件,但通过引入 Gradio 或 Streamlit 类库能够迅速构建起友好的交互体验界面[^2]。这类第三方解决方案不仅易于定制还具备良好的文档说明指导新用户快速上手操作流程。 假设我们希望制作一个简单的文字转图片功能模块,则对应的 HTML/CSS 结构大致如下所列: ```html <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>HarmonyOS Art Generator</title> <!-- Include necessary CSS styles --> </head> <body> <h1>Welcome to HarmonyOS AI Painter!</h1> <form id="generateForm"> Prompt:<br><textarea name="prompt" rows="4" cols="50"></textarea><br><br> Resolution (Width x Height):<br><select name="resolution"> <option value="512x512">Standard Square Image (512x512)</option> ... </select><br><br> <button type="submit">Generate Picture Now!</button> </form> <div id="resultArea"><!-- Placeholder for generated image display --></div> <!-- Link JavaScript logic here --> </body> </html> ``` 注意这里仅提供了基本布局示意;实际项目当中还需要加入更多细节处理逻辑以及错误恢复机制等内容。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值