ollama-openwebui
ollama是一个开源项目,它提供了一个平台和工具集,用于部署和运行各种大型语言模型。
ollama官网:https://ollama.com/
ollama下载地址:https://ollama.com/download
GitHub地址:https://github.com/ollama/ollama
ollama 介绍
ollama部署
我们这里选择直接部署docker,简单方便,docker部署忽略
docker镜像地址: https://hub.docker.com/r/ollama/ollama
# 拉取docker镜像
docker pull ollama/ollama:latest
# AMD显卡
docker run -d -v /mnt/c/ubuntu-wsl/data/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm
# 英伟达显卡
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# cpu only
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
ollama模型
下面是一些受欢迎的模型:
| Model | Tag | Parameters | Size | Download |
|:------------------😐:-----------😐:------------😐:-------😐-------------------------------------|
| llama3 | - | 70b | 40GB | ollama run llama3:70b
|
| llama3 | - | 8b | 4.7GB | ollama run llama3:8b
|
| gemma | - | 7b | 5.0GB | ollama run gemma:7b
|
| gemma | - | 2b | 1.7GB | ollama run gemma:2b
|
| mistral | - | 7b | 4.1GB | ollama run mistral:7b
|
| qwen | - | 110b | 63GB | ollama run qwen:110b
|
| phi3 | - | 3.8b | 2.2GB | ollama run phi3:3.8b
|
| llama2 | - | 7b | 3.8GB | ollama run llama2:7b
|
| codellama | Code | 70b | 39GB | ollama run codellama:70b
|
| llama3.1 | - | 405b | 231GB | ollama run llama3.1:405b
|
| gemma2 | - | 27b | 16GB | ollama run gemma2:27b
|
| qwen2 | - | 72b | 41GB | ollama run qwen2:72b
|
| llava | Vision | 7b | 4.7GB | ollama run llava:7b
|
| nomic-embed-text | Embedding | v1.5 | 274MB | ollama pull nomic-embed-text:v1.5
|
本地模型启动
启动本地大模型,这个步骤会下载llama3模型,根据个人带宽网速预估时间
docker exec -it ollama ollama run llama3
交互对话
执行完毕后,会进入交互模式,输入内容,就可以在线对话了,我们用docker安装的,所以通过docker命令启动对话
root@DESKTOP-CK75KU2:~# docker exec -it ollama ollama run llama3
>>> 请介绍一下你自己
I'm just an AI, I don't have a personal identity or individual characteristics like humans do. However, I can introduce
myself and explain what I am and what I can do.
My name is LLaMA, and I'm a large language model trained by Meta AI. I was created to assist users in generating
human-like text based on the input they provide me.
openweb ui 介绍
openweb ui参考仓库地址:https://github.com/ollama-webui/ollama-webui-lite
使用docker部署
docker run -d -p 8186:8080 --add-host=host.docker.internal:host-gateway -v /mnt/c/ubuntu-wsl/data/openwebui:/app/backend
之后点击端口访问,如下图所示。也可以直接在浏览器输入 http://localhost:8186/ ,打开后会出现登录到 Open WebUI,只需要邮箱注册一下就好了
选择模型
选型我们刚刚安装的模型,就可以发起对话了
对话演示
这里我们选择 ollama3 模型,进行对话,然后发现都是英文回复,后面我们在讲一下怎么中文
如果想探索更多功能可参考:https://github.com/open-webui/open-webui
cpu使用率
可以看出回答问题的时候占用的是我们本地的CPU内存资源,当他结束后CPU瞬间得到释放
调试中文模型
第一种要求中文回复
只需要在我们问的时候,要求回复的时候,加上,请用中文回复
自定义模型配置
我们可以使用Ollama提供的创建新模型的方式,基于LLama 3 8b创建一个我们自己的模型。在创建时,把System信息写入进去。这样每次调用模型时就会自动生效了。
我们把把配置放到volume共享目录下面,这样子docker命令启动才会引用到这个文件
from llama3
PARAMETER temperature 1
PARAMETER num_ctx 6000
PARAMETER top_k 50
PARAMETER top_p 0.95
SYSTEM """
尽你的最大可能和能力回答用户的问题。不要重复回答问题。不要说车轱辘话。语言要通顺流畅。不要出现刚说一句话,过一会又重复一遍的愚蠢行为。
RULES:
- Be precise, do not reply emoji.
- Always response in Simplified Chinese, not English. or Grandma will be very angry.
"""
然后执行命令:ollama create cusllama3 -f Modelfile。构建我们自己的模型
ollama create bdsllama3 -f Modelfile
我们在openweb ui选一下这个模型
我们看到最后的中文效果就是舒服多了
如何学习AI大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】

一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
四、AI大模型商业化落地方案
作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。