本地部署DeepSeek与Page Assist浏览器插件安装实现远程访问本地AI教程

前言

最近,国产AI大模型Deepseek火得一塌糊涂,大家都想尝鲜看看它到底有多厉害。不过,随着使用的人越来越多,不少小伙伴发现提问时经常遇到‘服务器繁忙,请稍后再试’的尴尬局面。别担心!其实你完全可以在自己的Windows电脑上轻松部署Deepseek大模型,并通过Page Assist插件在浏览器中快速搭建Web UI页面与模型互动。

image-20250218115432267

相比那些繁琐的方法,这个方案不仅门槛低,新手也能迅速上手。而且,有了cpolar内网穿透工具的加持,无论你在哪儿,只要有网络,就能随时随地享受与DeepSeek畅聊的乐趣,完全不用为公网IP和云服务器头疼。接下来,就让我们一起来搞定这一切吧!

image-20250218140017143

1. 本地部署Ollama+DeepSeek

如果您的Windows设备中还没有安装Ollama与DeepSeek,这篇教程:《Windows本地部署deepseek-r1大模型并使用web界面远程交互》 中有详细的安装步骤。

简单总结:

首先要访问Ollama的官网,下载适配你的操作系统的客户端,安装后用cmd打开Windows系统自带的终端界面:

image-20250205154055584

然后回到Ollama的官网,找到你想要下载的各种量级的模型对应的模型下载命令:

image-20250205154929276

比如我这里下载1.5b的轻量级deepseek模型,就在cmd终端中执行这个命令就能安装了:

ollama run deepseek-r1:1.5b

image-20250205155421941

现在我们就已经能够在本地Windows电脑上通过ollama正常使用deepseek-r1模型与AI进行聊天了!

2. Page Assist浏览器插件安装与配置

Github 官网:https://github.com/n4ze3m/page-assist

首先打开Chrome浏览器,进入应用商店:

image-20250217172805737

在顶部搜索框中搜索Page Assist:

image-20250217172848265

点击添加至Chrome:

image-20250217173120232

在弹出的提示框中点击添加扩展程序:

image-20250217173146943

添加后在浏览器右上角的扩展程序图标中打开它即可看到Web UI界面了:

image-20250217173327844

点击右上角设置,可以修改界面语言显示:

image-20250217173527395

PS:如果访问不了chrome应用商店添加插件,我已打包插件文件到网盘,需要的可以自取:

链接: https://pan.baidu.com/s/1gzrgj1os64-VDOm1oWO0dA?pwd=6666 提取码: 6666

下载好插件文件后,在chrome浏览器中输入: chrome://extensions/ 进入扩展程序安装界面

将插件文件拖入这个界面,点击安装扩展程序即可。

image-20250218105518541

image-20250218105544504

3. 简单使用演示

回到Page Assist的Web UI主界面,点击上方模型选择可以看到刚才本地部署的deepseek-r1:1.5b:

image-20250217173618434

选择好模型后即可在下方输入框中与deepseek聊天啦!

image-20250217173859546

底部联网开关打开,还可以进行联网搜索:

image-20250218104810399

点击左上角展开侧边栏图标可以看到聊天历史记录:

image-20250218110656120

点击右上角三个点按钮,可以复制与下载回答,支持多种格式:

image-20250218110802762

复制与下载按钮旁边是当前聊天模型设置功能,在这里可以添加临时系统提示,控制请求后模型在内存中保持的时间,温度值,随机种子值,上下文数量,最大令牌数等参数信息。

image-20250218111131470

点击最右侧的设置按钮,可以看到这款插件虽然只是一个webui服务,但支持的功能真的非常多,而且非常实用:

image-20250218111856861

除了一些常规使用设置,还可对网络搜索进行管理:

image-20250218111816991

支持对文本转语音进行设置:

image-20250218111924382

进入ollama设置,还可以对模型地址进行修改,这样就能实现同一局域网内的其他小伙伴如果在浏览器中安装了Page Assist插件后,也可以直接访问你在本地部署的DeepSeek大模型了!

image-20250218112016836

4. 远程调用大模型

同一局域网内其他人使用Page Assist浏览器插件和Anything LLM远程调用你在本地部署DeepSeek大模型的方法几乎一样,首先也需要对ollama进行一下环境变量设置!

打开cmd终端,执行下面两个命令:

setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"

然后点击电脑桌面右下角的ollama图标退出并重启服务:

image-20250214181632755

重新开启ollama服务后,同一局域网下的小伙伴在Page Assist插件的ollama设置中将地址改为你的电脑IP加上端口号11434,点击保存后,就能使用你在本地部署的大模型进行网页聊天了。

PS:如何查询我的本机IP?打开cmd终端,输入ipconfig,回车!

image-20250218112845868

5. 安装内网穿透

不过我们目前只能在同一个局域网内多人使用安装了Page Assist插件的浏览器远程访问本地部署的deepseek大模型,如果想让异地好友也能使用你在部署的deepseek大模型应该怎么办呢?很简单,只要安装一个cpolar内网穿透工具就能轻松实现远程访问内网主机中部署的服务了,接下来介绍一下如何安装cpolar内网穿透。

首先进入cpolar官网:

cpolar官网地址: https://www.cpolar.com

点击免费使用注册一个账号,并下载最新版本的cpolar:

img

登录成功后,点击下载cpolar到本地并安装(一路默认安装即可)本教程选择下载Windows版本。

image-20240319175308664

cpolar安装成功后,在浏览器上访问http://localhost:9200,使用cpolar账号登录,登录后即可看到配置界面,结下来在WebUI管理界面配置即可。

img

接下来配置一下 Ollama 的公网地址,

登录后,点击左侧仪表盘的隧道管理——创建隧道,

  • 隧道名称:ollamads(可自定义命名,注意不要与已有的隧道名称重复)
  • 协议:选择 http
  • 本地地址:11434
  • 域名类型:选择随机域名
  • 地区:选择China Top

image-20250214182337230

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是http 和https:

image-20250218134133720

现在你的好友在安装了Page Assist插件的Chrome浏览器的ollama设置中使用上面的任意一个公网地址替换刚才IP加端口号的地址,点击保存按钮后,就可以实现随时随地远程访问你在本地部署的deepseek大模型聊天了!使用了cpolar的公网域名,无需自己购买云服务器,轻松搞定跨网络环境远程访问本地服务!

image-20250218134409965

image-20250218134456714

小结

为了方便演示,我们在上边的操作过程中使用cpolar生成的HTTP公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在24小时内会发生随机变化,更适合于临时使用。

如果有长期使用Chrome浏览器远程访问本地部署的DeepSeek等大模型,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来配置公网地址。

6. 配置固定公网地址

接下来演示如何为ollama服务配置固定的HTTP公网地址,该地址不会变化,方便分享给别人长期访问你部署的大模型,而无需每天重复修改服务器地址。

配置固定http端口地址需要将cpolar升级到专业版套餐或以上。

登录cpolar官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留,保留成功后复制保留的二级子域名名称:

image-20250214183203609

保留成功后复制保留成功的二级子域名的名称:myolds,大家也可以设置自己喜欢的名称。

image-20250214183235128

返回Cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:ollamads,点击右侧的编辑:

image-20250214183303391

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名:myolds

点击更新(注意,点击一次更新即可,不需要重复提交)

image-20250214183334129

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:

image-20250214183411738

最后,我们在Chrome浏览器的Page Assist插件ollama设置界面中使用上面的任意一个固定的二级子域名公网地址替换刚才的随机公网地址,现在开始就不用每天都更换公网地址来远程访问本地部署的大模型了。

image-20250218135012507

image-20250218135139157

以上就是如何在Windows系统本地安装Ollama大模型工具及deepseek r1模型,并使用Chrome浏览器的Page Assist插件快速搭建Web页面,结合cpolar内网穿透工具实现随时随地远程访问本地部署的大模型,配置固定不变的二级子域名公网地址与AI聊天的完整步骤。感谢你的耐心阅读,如果还有任何疑问或好玩的体验,欢迎在评论区留言交流,让我们一起探索更多有趣的玩法!

<think>嗯,用户想了解如何在本地部署Ollama,并使用Page Assist插件结合DeepSeek。首先,我需要确认Ollama的基本部署步骤。记得Ollama是一个本地运行大型语言模型的工具,支持多种模型,比如Llama、Mistral等。用户可能已经知道这些,但可能需要一步步的指导。 首先,本地部署Ollama。不同操作系统步骤不同,用户可能用的是Windows、macOS还是Linux?需要分别说明。比如在macOS和Linux上,用curl命令下载安装,而Windows可能有不同的方式,或者还在测试阶段?需要查证最新信息,确保步骤准确。 然后,安装完成后,运行ollama serve启动服务,再拉取模型,比如ollama pull deepseek-ai/deepseek-coder:33b-instruct-q4_0。这里要确认DeepSeek模型是否在Ollama的模型库中,用户可能遇到模型名称错误的问题,需要给出正确的模型名称,或者建议用户去Ollama官网查找。 接下来,使用Page Assist插件。这个插件需要安装,可能是在浏览器扩展商店里,比如Chrome或Edge。安装后如何配置?需要设置本地Ollama的API地址,默认是localhost:11434。用户可能需要确保端口正确,没有防火墙阻挡。然后选择DeepSeek模型,测试连接是否成功。 可能遇到的问题:模型下载失败,可能是网络问题,或者模型名称不对。服务未启动,导致插件无法连接。需要提示用户检查ollama serve是否运行,端口是否开放。还有插件的设置是否正确,比如API端点是否正确指向本地服务。 另外,用户可能不熟悉如何编写提示词,或者如何有效使用DeepSeek模型。可能需要给出示例,比如代码生成或问题解答的提示词示例,说明模型的能力和适用场景。 还需要注意DeepSeek模型可能有不同的版本,如6.7B、33B等,不同版本对硬件的要求不同,用户本地硬件是否足够?比如33B模型需要较大的内存和显存,可能需要至少16GB以上,甚至更高。如果用户硬件不够,可能需要选择较小的模型。 总结步骤:安装Ollama,拉取模型,启动服务;安装Page Assist插件,配置API和模型;测试使用。同时提供常见问题解决方法,确保用户能顺利部署和使用。</think>以下是在本地部署 Ollama 并结合 Page Assist 插件使用 DeepSeek 模型的步骤指南: --- ### **一、本地部署 Ollama** 1. **下载安装** - **Windows**(需开启 WSL2): ```bash curl -fsSL https://ollama.com/install.sh | sh ``` - **macOS/Linux**: ```bash curl -fsSL https://ollama.com/install.sh | sh ``` - 或直接访问 [Ollama 官网](https://ollama.com/) 下载安装包。 2. **启动服务** ```bash ollama serve # 默认端口 11434 ``` 3. **下载 DeepSeek 模型** ```bash ollama pull deepseek-ai/deepseek-coder:33b-instruct-q4_0 # 示例模型(确认名称最新性) ``` --- ### **二、配置 Page Assist 插件** 1. **安装插件** - 浏览器安装地址(Chrome/Edge): - [Chrome Web Store - Page Assist](https://chromewebstore.google.com/) - 搜索并安装 **Page Assist**。 2. **配置本地模型** - 打开插件设置,选择 **Local Model**。 - 填写 API 地址:`http://localhost:11434` - 模型名称:输入已下载的 DeepSeek 模型(如 `deepseek-coder:33b-instruct`)。 3. **测试连接** - 输入简单提示词(如“你好”),检查是否返回响应。 --- ### **三、使用示例** 1. **代码生成** ```plaintext 提示词:用Python编写一个快速排序算法。 ``` DeepSeek 会生成完整代码并解释逻辑。 2. **问题解答** ```plaintext 提示词:解释量子计算中的叠加原理。 ``` --- ### **四、常见问题** 1. **模型下载失败** - 检查网络,确认模型名称正确(Ollama 官方模型库查询)。 - 尝试较小模型(如 `deepseek-coder:6.7b`)。 2. **插件无法连接** - 确保 `ollama serve` 正在运行。 - 检查防火墙/杀毒软件是否拦截端口 `11434`。 3. **硬件要求** - 33B 模型需至少 32GB 内存 + 高性能显卡(推荐 NVIDIA 显存 ≥16GB)。 - 资源不足时选择 6.7B 等轻量模型。 --- ### **五、进阶技巧** - **自定义模型**:通过 Modelfile 微调 DeepSeek。 - **多模型切换**:在 Page Assist 中灵活切换不同模型应对任务。 如有其他问题,可参考 [Ollama 文档](https://github.com/ollama/ollama) 或 DeepSeek 官方指南。
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

秋说

感谢打赏

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值