只需三步!5分钟本地部署deep seek——MAC环境

第一步:下载Ollama

打开此网址:https://ollama.com/,点击下载即可,如果网络比较慢可使用文末百度网盘链接

在这里插入图片描述
注:Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架,llama提供了一个方便的实验平台,可以在本地加载不同的模型(如 Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2),对比它们的性能,研究模型的输出特性

第二步:下载deepseek-r1模型

ollama run deepseek-r1

安装好Ollama以后,打开命令行窗口,运行上述命令,会进入到下载阶段

在这里插入图片描述
注:我是M1 Mac Pro 下载的7b的模型,如果配置在此之上或之下,可以适当选择其他的模型,选择太大的模型会导致卡顿(https://ollama.com/library/deepseek-r1

第三步:安装谷歌浏览器插件

安装谷歌浏览器插件pageassist,Page Assist是一款专为开发者设计的开源浏览器扩展,它的主要作用是为用户在浏览器环境中直接调用本地AI模型提供一个便捷的接口,提供直观交互界面。
在这里插入图片描述

在这里插入图片描述
打开扩展程序后,可以看到Ollama正在运行,然后左上角选择对应的本地模型,如deepseek-r1,就可以本地使用deep seek了!!

点此下载工具包—Ollamah和pageassist

### 本地部署 Deep SEEK **Deep SEEK** 是一款基于深度学习技术的开源工具,主要用于文本检索、信息提取等任务。它结合了自然语言处理(NLP)技术和大规模预训练模型,能够在大量文档中快速定位相关信息。 #### 部署步骤: 1. **环境准备** - 确保您的计算机已经安装 Python (建议版本 >= 3.7) 和必要的依赖库。 - 安装 Docker 或者直接在虚拟环境中运行 Python 脚本都可以支持 Deep SEEK部署。 2. **下载源码** - 您可以从 GitHub 上获取最新的 Deep SEEK 版本仓库地址,并通过 `git clone` 下载到本地。 ```bash git clone https://github.com/deepseek-project/deep-seek.git cd deep-seek ``` 3. **配置环境变量及参数文件** - 根据实际需求修改项目目录下的配置文件 (`config.yaml`) ,设置数据库连接字符串、索引路径以及其他必要选项。 4. **启动服务** - 如果您选择使用 Docker 进行容器化部署,则只需简单地执行以下命令即可一键启动整个系统; ```docker-compose up --build``` - 若未采用容器方案,在完成所有前置准备工作之后可以直接利用 Python 解释器跑起主程序: ```python main.py start``` 5. **验证成功与否** - 打开浏览器访问 http://localhost:8080 (假设端口没变),如果页面正常显示说明本地部署已完成! 6. **数据导入与初始化** - 接下来需要将待搜索的数据集按照指定格式上传至平台并构建索引结构以便后续查询操作能够高效准确命中目标内容。 --- 为了保证最佳体验效果以及功能完整性,请严格按照官方文档指示来进行每一步骤的操作;若有疑问也可以随时向社区寻求帮助或反馈遇到的问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我只会写Bug啊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值