Page Assist的安装和使用(搭配DeepSeek使用)

通过Ollama软件部署DeepSeek的方式请参考Ollama本地部署DeepSeek详细操作步骤-优快云博客

这次我们通过浏览器插件Page Assist来进行DeepSeekUI界面的搭建和使用

版本说明

本次实验操作使用各个软件版本如下所示

Page Assist版本:1.4.5

Ollama版本:0.5.7

浏览器Microsoft Edge版本 133.0.3065.59 (正式版本) (64 位)

DeepSeek版本:deepseek-r1:1.5b

下载插件

首先下载Page Assist软件浏览器插件PageAssist资源-优快云文库

安装插件

然后打开浏览器(本次以微软自带Edge浏览器为例)点击三个点图标,然后点击扩展

点击管理扩展

打开开发人员模式

Page Assist拖进浏览器界面,然后点击添加扩展

然后就可以看到Page Assist已安装

然后我们就可以按照图下所示点击启动浏览器插件Page Assist

Page Assist设置

设置中文

点击Page Assist界面右上角的设置图标(齿轮一样的)

按照图下所示可以将插件界面设置成中文显示

设置Ollama地址

然后按照图下所示,设置一下Ollama的地址,端口号是11434,点击保存

然后再点击Ollama URL高级配置

将这里也配置一下和上方一样的地址,点击保存

系统设置Ollama环境变量

搜索环境变量,点击编辑系统环境变量

点击环境变量

如图下所示,点击新建

按照图下所示设置环境变量,变量名OLLAMA_HOST,变量值0.0.0.0,点击确定

后面对话框依次点击确定

设置好环境变量后,为确保生效,建议重启计算机

测试使用

如下图所示,打开浏览器,点击Page Assist插件

进入图下所示界面,选择好模型,然后就可以向DeepSeek问问题了

完结~

<think>嗯,用户想了解如何在本地部署Ollama,并使用Page Assist插件结合DeepSeek。首先,我需要确认Ollama的基本部署步骤。记得Ollama是一个本地运行大型语言模型的工具,支持多种模型,比如Llama、Mistral等。用户可能已经知道这些,但可能需要一步步的指导。 首先,本地部署Ollama。不同操作系统步骤不同,用户可能用的是Windows、macOS还是Linux?需要分别说明。比如在macOSLinux上,用curl命令下载安装,而Windows可能有不同的方式,或者还在测试阶段?需要查证最新信息,确保步骤准确。 然后,安装完成后,运行ollama serve启动服务,再拉取模型,比如ollama pull deepseek-ai/deepseek-coder:33b-instruct-q4_0。这里要确认DeepSeek模型是否在Ollama的模型库中,用户可能遇到模型名称错误的问题,需要给出正确的模型名称,或者建议用户去Ollama官网查找。 接下来,使用Page Assist插件。这个插件需要安装,可能是在浏览器扩展商店里,比如Chrome或Edge。安装后如何配置?需要设置本地Ollama的API地址,默认是localhost:11434。用户可能需要确保端口正确,没有防火墙阻挡。然后选择DeepSeek模型,测试连接是否成功。 可能遇到的问题:模型下载失败,可能是网络问题,或者模型名称不对。服务未启动,导致插件无法连接。需要提示用户检查ollama serve是否运行,端口是否开放。还有插件的设置是否正确,比如API端点是否正确指向本地服务。 另外,用户可能不熟悉如何编写提示词,或者如何有效使用DeepSeek模型。可能需要给出示例,比如代码生成或问题解答的提示词示例,说明模型的能力适用场景。 还需要注意DeepSeek模型可能有不同的版本,如6.7B、33B等,不同版本对硬件的要求不同,用户本地硬件是否足够?比如33B模型需要较大的内存显存,可能需要至少16GB以上,甚至更高。如果用户硬件不够,可能需要选择较小的模型。 总结步骤:安装Ollama,拉取模型,启动服务;安装Page Assist插件,配置API模型;测试使用。同时提供常见问题解决方法,确保用户能顺利部署使用。</think>以下是在本地部署 Ollama 并结合 Page Assist 插件使用 DeepSeek 模型的步骤指南: --- ### **一、本地部署 Ollama** 1. **下载安装** - **Windows**(需开启 WSL2): ```bash curl -fsSL https://ollama.com/install.sh | sh ``` - **macOS/Linux**: ```bash curl -fsSL https://ollama.com/install.sh | sh ``` - 或直接访问 [Ollama 官网](https://ollama.com/) 下载安装包。 2. **启动服务** ```bash ollama serve # 默认端口 11434 ``` 3. **下载 DeepSeek 模型** ```bash ollama pull deepseek-ai/deepseek-coder:33b-instruct-q4_0 # 示例模型(确认名称最新性) ``` --- ### **二、配置 Page Assist 插件** 1. **安装插件** - 浏览器安装地址(Chrome/Edge): - [Chrome Web Store - Page Assist](https://chromewebstore.google.com/) - 搜索并安装 **Page Assist**。 2. **配置本地模型** - 打开插件设置,选择 **Local Model**。 - 填写 API 地址:`http://localhost:11434` - 模型名称:输入已下载的 DeepSeek 模型(如 `deepseek-coder:33b-instruct`)。 3. **测试连接** - 输入简单提示词(如“你好”),检查是否返回响应。 --- ### **三、使用示例** 1. **代码生成** ```plaintext 提示词:用Python编写一个快速排序算法。 ``` DeepSeek 会生成完整代码并解释逻辑。 2. **问题解答** ```plaintext 提示词:解释量子计算中的叠加原理。 ``` --- ### **四、常见问题** 1. **模型下载失败** - 检查网络,确认模型名称正确(Ollama 官方模型库查询)。 - 尝试较小模型(如 `deepseek-coder:6.7b`)。 2. **插件无法连接** - 确保 `ollama serve` 正在运行。 - 检查防火墙/杀毒软件是否拦截端口 `11434`。 3. **硬件要求** - 33B 模型需至少 32GB 内存 + 高性能显卡(推荐 NVIDIA 显存 ≥16GB)。 - 资源不足时选择 6.7B 等轻量模型。 --- ### **五、进阶技巧** - **自定义模型**:通过 Modelfile 微调 DeepSeek。 - **多模型切换**:在 Page Assist 中灵活切换不同模型应对任务。 如有其他问题,可参考 [Ollama 文档](https://github.com/ollama/ollama)DeepSeek 官方指南。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

欲买桂花同载酒、

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值