【DeepSeek青桔系列】Ollama + AnythingLLM快速且简单的在部署DeepSeek

博主介绍: 大家好,我是想成为Super的Yuperman,互联网宇宙厂经验,17年医疗健康行业的码拉松奔跑者,曾担任技术专家、架构师、研发总监负责和主导多个应用架构。

近期专注: DeepSeek应用,RPA应用研究,主流厂商产品使用,开源RPA 应用等

技术范围: 长期专注java体系,软件架构,DDD,多年Golang、.Net、Oracle等经验

业务范围: 对传统业务应用技术转型,从数字医院到区域医疗,从院内业务系统到互联网医院及健康服务,从公立医院到私立医院都有一些经历及理解

***  为大家分享一些思考与积累,欢迎持续关注公众号:【火星求索】 ***

AnythingLLM 不仅仅是另一个聊天机器人。它是一个全栈应用程序,这意味着它融合了从数据处理到用户界面的所有技术优势。最好的部分?它是开源且可定制的。这意味着如果您有技能,您可以根据自己的喜好进行调整。或者,如果您像我一样更喜欢现成的东西,那么它开箱即用,效果非常好。

AnythingLLM 更专注于文档知识库与问答场景,自带向量检索管理,可“多文档整合”,接入 Ollama 后实现本地化问答。

一、安装ollama

ollama官网:Ollama
下载地址:Download Ollama on macOS

打开以后注册并下载即可

image

安装没有什么好说的,找到自己的系统安装即可,因为我的电脑没有搞虚拟机,所以就直接安装Windows的版本了

二、下载模型并运行ollama

安装ollama以后,通过管理员打开powershell

输入ollama,只要出现下面这些,说明安装成功了

image

打开ollama的模型的网页:library

image

我们以llm3为例,双击进入

image

常用的命令有

  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

可以看到页面中让执行ollama run llama3即可

一般来说run是用来跑模型的,但是如果本地没有这个模型的话,ollama会自动下载

PS:国内的网络问题不知道有没有解决,下载模型的时候偶尔速度很快,但是很多时候速度很慢以至于提示TLS handshake timeout,这种情况建议重启电脑或者把ollama重启一下(不知道为啥,我同步打开GitHub的时候速度会明显快一些,可能也是错觉)

下载完成以后我们输入ollama list可以查下载了哪些模型

image

这里我们直接输入ollama run llama3,就可以开始对话了

image

三、下载并配置AngthingLLM

AngthingLLM官网:https://useanything.com
下载链接:Download AnythingLLM for Desktop

同样的选择对应的系统版本即可

image

在使用前,需要启动Ollama服务

执行ollama serve,ollama默认地址为:http://127.0.0.1:11434

然后双击打开AngthingLLM

因为我已经配置过,所以不好截图最开始的配置界面了,不过都能在设置里面找到

首先是LLM Preference,LLM provider选择ollama,URL填写默认地址,后面的模型选择llama3,token填4096

image

Embedding Preferenc同样选择ollama,其余基本一致,max我看默认8192,我也填了8192

image

Vector Database就直接默认的LanceDB即可

image

此时我们新建工作区,名字就随便取,在右边就会有对话界面出现了

image

此时你就有了自己本地的语言模型了

是不是很简单,费时间的地方其实就在下载模型的时候,本来想用Open WebUI,但是电脑没有搞docker,就用AngthingLLM了,后续有空搞个docker用open webui

如果模型实在下不下来,也可以搞离线模型

Windows系统下ollama存储模型的默认路径是C:\Users\wbigo.ollama\models,一个模型库网址:魔搭社区

挺全的,但是说实话,llama3-8B我感觉挺拉胯的,可能英文好一些,中文的话使用不如qwen

最后

如果你觉得这篇文章对你有帮助,欢迎点赞、转发、评论!

公众号【火星求索】发送deepseek即可获取【清华大学DeepSeek 从入门到精通 系列】四连弹,以及可以获取收集整理的各种资料。

### DeepSeekOllama、OpenWebUI 和 AnythingLLM 的局域网本地部署及调用方法 #### 部署准备 为了在局域网中成功部署和调用这些服务,需先确认基础环境已经搭建完毕。通常情况下,Ollama 是核心组件之一,它提供了轻量级的推理能力,并支持多种大型语言模型(LLMs)。以下是具体的部署流程: --- #### 1. 安装 Docker 并拉取 Ollama 镜像 Docker 是运行 Ollama 的必要工具。通过以下命令可以安装并启动 Ollama: ```bash docker pull ollama/ollama docker run -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama ``` 如果设备具备 GPU 支持,则可以通过 `--gpus` 参数启用 GPU 加速模式[^4]。 进入容器后可进一步下载所需的模型文件: ```bash docker exec -it ollama /bin/bash ollama pull deepseek-r1:8b ``` 上述操作完成后,Ollama 将作为 HTTP API 接口提供服务,默认监听端口为 `11434`。 --- #### 2. 使用 OpenWebUI 调用 Ollama OpenWebUI 是一款图形化界面工具,能够简化与 LLMs 的交互过程。其配置方式如下所示: - **克隆仓库**:从 GitHub 获取最新版本代码。 ```bash git clone https://github.com/open-web-ui/webui.git cd webui ``` - **修改配置文件**:编辑 `config.json` 文件以指定目标地址指向本地图形接口的服务路径。 ```json { "api_url": "http://<服务器IP>:11434", "model_name": "deepseek-r1" } ``` 此处 `<服务器IP>` 应替换为实际主机 IP 地址或域名。 - **启动 Web UI** ```bash npm install && npm start ``` 此时访问浏览器中的 URL 即可通过可视化界面对接至后台运行的 Ollama 实例。 --- #### 3. 添加 AnyThingLLM 插件扩展功能 AnyThingLLM 可视为一种增强型插件框架,允许开发者轻松集成第三方资源库或者定制专属逻辑模块。具体实现步骤包括但不限于以下几个方面: - 确定所需加载的功能集; - 编写适配器脚本来桥接不同平台间的数据流传输协议; - 测试最终效果验证兼容性和稳定性。 例如,在 Python 中创建一个简单的客户端程序用于发送请求给远程节点: ```python import requests url = 'http://localhost:11434/api/generate' payload = {"prompt":"hello world","max_tokens":50} response = requests.post(url, json=payload) print(response.text) ``` 以上片段展示了如何利用 RESTful APIs 来获取预测结果[^1]。 --- #### 总结说明 综上所述,整个工作流涵盖了从基础设施建设到高级特性开发等多个层面的内容。借助于现代化 DevOps 工具链的支持,即使是在缺乏专用硬件加速卡的情况下也能顺利完成任务需求[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

火星求索

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值