Ollama+Flux模型会擦出怎样的火花

Hello,大家好。最近,随着Flux模型的开源,越来越多的小伙伴加入了AI画图行列,都立志成为下一位“梵高”。不过呢,很多小伙伴在创作的途径中会灵感枯竭,摆着以往,一般都会上一些素材网站看看别人的作品,对吧!?可是,现在是2024年了,当你没了灵感肯定找人工智能呀。

那么,今天就来分享一下如何不借助大厂的AI,用开源的大语言模型(LLM)来制作一个随时给你灵感的AI机器人。

Ollama启动

图片

要用本地部署的开源大语言模型没有Ollama框架怎么能行呢,首先你得先安装它,安装教程就不在这里赘述了,请看以往的文章。

基于Ollama本地部署Llama3指南!

图片

然后windows用powershell输入命令行:

ollama run gemma2:27b

至于其他模型能不能用,我不是很确定,至少gemma2对于systemprompt的理解能力还是非常棒的。图片

等到模型拉取完毕,我们开始用ollama的modelfile功能创建一个新的模型。在一个文件夹内新建一个文件,*.txt格式就行,参数和system prompt设置如上图,当然啦,还有更多参数可以设置,这里就不一一解释了,同样的,可以查看过去文章。

文档内的参数和提示词设置完成后,保存文档,文档名为:modelfile.txt。

图片

我们在modelfile的文件夹下打开powershell,输入命令:

ollama create SDArt -f modelfile.txt

#注释:SDArt 是新建模型的名称,可以换;modelfile.txt是文档名称和格式,可以换。

图片

命令行里显示success就说明成功了,这样创建模型并不会占用你的硬盘空间。

图片

接下去,我们可以打开第三方应用测试一下。那么,我就用我自己正在开发阶段的一款ollama专用的应用。虽然UI比较丑,还没来得及设计,不过对话功能可以用用了。

图片

从对话中可以看出,对于提示词的理解还是不错的,那么我们就用Flux加上这组提示生成一张海报。

图片

图片

Positive Prompt:text An underwater scene with dim lighting filtering through the surface, an ancient shipwreck partially buried in sand overgrown with seaweed and coral, a mysterious stone structure nearby with intricate carvings eroded by time, vibrant coral reefs teeming with colorful fish, starfish, sea urchins, and shells scattered on the seabed, a large grouper hiding in the shadow of the wreck, jellyfish drifting gracefully in the current, masterpiece, best quality, 4k, illustration style, atmospheric lighting, detailed textures.

图片

图片

图片

Positive Prompttext A solitary Batman overlooking Gotham City from the night sky, in his iconic Batsuit, standing against a backdrop of the city's dark and Gothic architecture illuminated by the night lights, capturing the brooding atmosphere of Gotham City, masterpiece, high quality, detailed character, dramatic cityscape, atmospheric lighting, starry night sky, 4k resolution, illustration style, depth of field, superhero theme, expressive facial features, detailed Batsuit, iconic Gotham buildings, city lights, night ambiance, Batman's flying vehicle or grappling hook in use.

如何学习大模型

现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。

作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。

我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。

在这里插入图片描述

二、AI大模型视频教程

在这里插入图片描述

三、AI大模型各大学习书籍

在这里插入图片描述

四、AI大模型各大场景实战案例

在这里插入图片描述

五、结束语

学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。

再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。

因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。

<think>嗯,用户问的是如何用Ollama下载Flux模型,然后加载到Chatbot里让模型画图。首先,我需要确认几个关键点:Ollama是什么,Flux模型是什么样的模型,以及如何在Chatbot中实现画图功能。 首先,Ollama是一个用来本地运行大型语言模型的工具,支持多种模型,比如Llama、Mistral等。用户可能已经知道怎么用Ollama下载模型,比如通过`ollama pull`命令。但Flux模型具体是哪个呢?目前Ollama的官方模型库中好像没有叫Flux的,可能用户指的是某个自定义模型或者第三方模型,需要确认名称是否正确。 接下来,关于让模型画图的问题。通常语言模型本身不具备生成图像的能力,它们主要是处理文本。不过,可以通过结合其他工具来实现,比如生成Markdown图片链接,或者调用外部API如DALL·E、Stable Diffusion等。但用户提到的是在Chatbot中使用,可能需要集成这些功能到Chatbot里。 可能需要分步骤解释:首先用Ollama下载正确的模型,然后在Chatbot中加载模型,再通过某种方式让模型输出图像生成的指令或链接。或者,模型本身是否支持多模态?比如,有些模型可以生成图片的Base64编码,但需要Chatbot支持解析和显示。 另外,需要检查Flux模型的能力。如果Flux是一个多模态模型,可能支持生成图片,但需要确认。如果只是文本模型,可能需要额外步骤,比如让模型生成描述,再调用画图工具。 可能的问题点:模型是否支持图像生成,Ollama是否支持该模型格式,Chatbot如何集成图像生成功能。需要建议用户确认模型类型,或者考虑结合其他工具实现画图功能。</think>以下分步骤说明: 1️⃣ **确认模型信息** - Ollama官方库暂未收录名为"Flux"的模型(截至2024.7) - 可能情况: ✓ 自定义模型(需确认模型文件格式为GGUF) ✓ 第三方模型别名(如Flux-7B可能对应Mistral变体) ✓ 名称拼写错误(建议用`ollama list`查看可用模型) 2️⃣ **通过Ollama加载模型** ```bash # 若为官方模型ollama pull <model_name> # 若为自定义模型ollama create myflux -f Modelfile # Modelfile需包含: # FROM ./flux-model.q4_0.gguf # PARAMETER num_ctx 4096 ``` 3️⃣ **图像生成实现方案** ❗纯文本LLM无法直接生成图像,需配合
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值