自建本地AI回答大模型 ollama-openwebui

ollama-openwebui

ollama是一个开源项目,它提供了一个平台和工具集,用于部署和运行各种大型语言模型。

ollama官网:https://ollama.com/

ollama下载地址:https://ollama.com/download

GitHub地址:https://github.com/ollama/ollama

ollama 介绍

ollama部署

我们这里选择直接部署docker,简单方便,docker部署忽略

docker镜像地址: https://hub.docker.com/r/ollama/ollama

# 拉取docker镜像

docker pull ollama/ollama:latest



# AMD显卡

docker run -d   -v /mnt/c/ubuntu-wsl/data/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm 

# 英伟达显卡

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# cpu only 

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

ollama模型

下面是一些受欢迎的模型:

| Model | Tag | Parameters | Size | Download |

|:------------------😐:-----------😐:------------😐:-------😐-------------------------------------|

| llama3 | - | 70b | 40GB | ollama run llama3:70b |

| llama3 | - | 8b | 4.7GB | ollama run llama3:8b |

| gemma | - | 7b | 5.0GB | ollama run gemma:7b |

| gemma | - | 2b | 1.7GB | ollama run gemma:2b |

| mistral | - | 7b | 4.1GB | ollama run mistral:7b |

| qwen | - | 110b | 63GB | ollama run qwen:110b |

| phi3 | - | 3.8b | 2.2GB | ollama run phi3:3.8b |

| llama2 | - | 7b | 3.8GB | ollama run llama2:7b |

| codellama | Code | 70b | 39GB | ollama run codellama:70b |

| llama3.1 | - | 405b | 231GB | ollama run llama3.1:405b |

| gemma2 | - | 27b | 16GB | ollama run gemma2:27b |

| qwen2 | - | 72b | 41GB | ollama run qwen2:72b |

| llava | Vision | 7b | 4.7GB | ollama run llava:7b |

| nomic-embed-text | Embedding | v1.5 | 274MB | ollama pull nomic-embed-text:v1.5 |

本地模型启动

启动本地大模型,这个步骤会下载llama3模型,根据个人带宽网速预估时间

docker exec -it ollama ollama run llama3

交互对话

执行完毕后,会进入交互模式,输入内容,就可以在线对话了,我们用docker安装的,所以通过docker命令启动对话

root@DESKTOP-CK75KU2:~# docker exec -it ollama ollama run  llama3

>>> 请介绍一下你自己

I'm just an AI, I don't have a personal identity or individual characteristics like humans do. However, I can introduce

myself and explain what I am and what I can do.



My name is LLaMA, and I'm a large language model trained by Meta AI. I was created to assist users in generating

human-like text based on the input they provide me.

openweb ui 介绍

openweb ui参考仓库地址:https://github.com/ollama-webui/ollama-webui-lite

使用docker部署

docker run -d -p 8186:8080 --add-host=host.docker.internal:host-gateway -v /mnt/c/ubuntu-wsl/data/openwebui:/app/backend

之后点击端口访问,如下图所示。也可以直接在浏览器输入 http://localhost:8186/ ,打开后会出现登录到 Open WebUI,只需要邮箱注册一下就好了

在这里插入图片描述

选择模型

选型我们刚刚安装的模型,就可以发起对话了

在这里插入图片描述

对话演示

这里我们选择 ollama3 模型,进行对话,然后发现都是英文回复,后面我们在讲一下怎么中文

在这里插入图片描述

如果想探索更多功能可参考:https://github.com/open-webui/open-webui

cpu使用率

可以看出回答问题的时候占用的是我们本地的CPU内存资源,当他结束后CPU瞬间得到释放

在这里插入图片描述

调试中文模型

第一种要求中文回复

只需要在我们问的时候,要求回复的时候,加上,请用中文回复

在这里插入图片描述

自定义模型配置

我们可以使用Ollama提供的创建新模型的方式,基于LLama 3 8b创建一个我们自己的模型。在创建时,把System信息写入进去。这样每次调用模型时就会自动生效了。

我们把把配置放到volume共享目录下面,这样子docker命令启动才会引用到这个文件


from llama3



PARAMETER temperature 1

PARAMETER num_ctx 6000

PARAMETER top_k 50

PARAMETER top_p 0.95

SYSTEM """

尽你的最大可能和能力回答用户的问题。不要重复回答问题。不要说车轱辘话。语言要通顺流畅。不要出现刚说一句话,过一会又重复一遍的愚蠢行为。



RULES:



- Be precise, do not reply emoji.

- Always response in Simplified Chinese, not English. or Grandma will be  very angry.

"""

然后执行命令:ollama create cusllama3 -f Modelfile。构建我们自己的模型

ollama create bdsllama3 -f Modelfile

我们在openweb ui选一下这个模型

在这里插入图片描述

我们看到最后的中文效果就是舒服多了

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值