期待已久的AI绘画Stable Diffusion 3.0终于开放了,可通过API使用了!

本文介绍了StabilityAI发布的StableDiffusion3模型及其API,强调了其在文本理解和生成图像方面的进步。文章还讨论了模型的使用体验、价格以及未来开源可能性的探讨。

大家好,我是程序员晓晓。

自从今年2月份Stability AI公布了Stable Diffusion3之后,这个宣称他们最强大的文本到图像模型,令AI绘画圈里的人都对该产品充满了无限期待。

就在最近(4月17日),Stability AI终于在其开发者平台上开放了Stable Diffusion 3 和 Stable Diffusion 3 Turbo的API访问接口。

官网:https://stability.ai/news/stable-diffusion-3-api

一. SD3简介

正如 Stable Diffusion 3 研究论文中所揭示的那样,该模型在排版和提示词遵循方面等于或优于最先进的文本到图像生成系统,例如 DALL-E 3 和 Midjourney v6(基于人类偏好)评价。

新的多模态扩散变压器 (MMDiT) 架构对图像和语言表示使用单独的权重集,与之前版本的相比,它提高了文本理解和拼写能力。

和MJ6、DALLE3一样,SD3的模型通过 API 向公众提供服务。但Stability AI仍在不断努力在开放发布之前改进该模型。为了履行对开放生成式 AI 的承诺,其目标是尽快让模型权重可通过 Stability AI 会员资格进行自托管。

二. SD3的使用体验

通过下面的体验网站进入。

体验网址:https://huggingface.co/spaces/latentcat/sd3-api

打开页面之后,需要点击上图中箭头指向的链接去申请一个API Key。

点击该链接,会弹出一个账号登录的界面,我们可以用任意的邮箱去申请注册一个stability.ai的账号,然后登录即可。

注册登录成功之后会进入到有一个API keys的界面,我们点击右边的按钮复制这个key。

然后将API key粘贴到体验的页面,就可以开始使用了。

目前可以调整设置的参数比较简单,主要包括:正向提示词、出图比例、模型选择、随机数种子值和负向提示词。

三. 关于收费

目前SD3定价官网已经披露,从定价看,每1000积分定价为10美金,而每次SD3生成消耗6.5个积分。比SDXL的定价高出10-30倍!

折算成人民币的话,大概是72元人民币可以生成约160张图,单图生成成本约5毛钱元。

目前每个账号(每个key)送25个积分,按每张图消耗6.5个积分,只能生成3-4张图片,积分用完之后页面就一直报错。

我还没有怎么深入体验,就发现积分用完了。这里就分享不了个人体验了。

四. 国外网站SD3绘图欣赏

下面是国外X APP SD3生成的图片,我们来看一下效果。

总体来看,SD3的效果比之前的SD1.5和SDXL1.0等大模型有了质的飞跃。特别是在提示词遵循能力方面具有非常强大的语义理解能力。但是参考目前SD的收费模式,结合之前Stability AI公司的人事变动,未来SD3继续开源可能性要保持怀疑态度了。

好了,今天的分享就到这里了,希望今天分享的内容对大家有所帮助。

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
### Stable Diffusion 3.0 版本介绍 Stable Diffusion 3.0 是由 Stability AI 发布的一个重要版本更新,该模型在图像生成方面表现出显著的进步。新版本不仅提高了图像的质量和细节处理能力,还增强了对不同风格的支持[^1]。 官方强调此版本具有更高的稳定性和效率,在保持高质量输出的同时降低了计算资源的需求。对于开发者而言,这意味着可以在更广泛的硬件环境中部署应用,从而扩大了潜在的应用场景范围[^2]。 ### 安装指南 为了帮助用户顺利安装并使用 Stable Diffusion 3.0 ,以下是详细的安装步骤: #### 准备工作 访问 Hugging Face 平台上的项目主页获取最新的安装包链接: - 进入 SD3 的页面:[HuggingFace](https://huggingface.co/stabilityai/stable-diffusion-3-medium/tree/main) 下载完成后解压缩文件夹,内部包含了必要的组件和支持工具。 #### 执行安装过程 打开命令提示符窗口或终端服务,导航至已解压的目录位置执行以下操作: ```bash cd path_to_extracted_folder ``` 接着运行启动脚本来完成环境搭建以及依赖项加载: ```bash ./start_dependencies.sh # Linux/macOS 用户适用 .\start_dependencies.bat # Windows 用户适用 ``` 上述指令会自动检测当前系统的配置情况,并按需调整设置以确保最佳性能表现[^3]。 ### 使用教程 当一切准备就绪之后,可以通过图形界面轻松上手体验这款强大的AI绘图软件。具体来说,用户能够通过简单的参数调节来控制创作流程中的各个方面,比如分辨率大小、色彩倾向等个性化选项。 针对高级功能如 img2img 转换模式,则建议参照专门文档深入了解其工作机制及应用场景实例[^4]: ```python from diffusers import StableDiffusionPipeline, EulerAncestralDiscreteScheduler model_id = "stabilityai/stable-diffusion-3-medium" scheduler = EulerAncestralDiscreteScheduler.from_pretrained(model_id, subfolder="scheduler") pipe = StableDiffusionPipeline.from_pretrained(model_id, scheduler=scheduler).to("cuda") prompt = "A fantasy landscape with a castle on top of the mountain." image = pipe(prompt=prompt).images[0] output_path = "./outputs/fantasy_landscape.png" image.save(output_path) ``` 这段 Python 代码展示了如何利用预训练好的 Stable Diffusion 模型快速生成一张基于给定描述的文字转图片作品。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值