【DeepSeek】Mac m1电脑部署DeepSeek

一、电脑配置

个人电脑配置
在这里插入图片描述

二、安装ollama

简介:Ollama 是一个强大的开源框架,是一个为本地运行大型语言模型而设计的工具,它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型。
ollama官网,根据自己电脑的类型选择对应的下载安装程序,比如我这里选择 macos:
在这里插入图片描述
下载成功后,直接安装。
如何判断是否安装成功?
打开一个命令行终端,输入命令:ollama -v,显示版本信息,表示安装成功。
在这里插入图片描述

三、选择合适的模型

点击ollama–>models选项,可以查看支持运行的模型。

### 在 Mac M1 芯片上部署 DeepSeek 为了在配备 M1 芯片的 Mac 上成功部署 DeepSeek,需遵循一系列特定步骤来确保兼容性和性能优化。由于 M1 使用 ARM 架构而非传统 x86 架构,某些软件包可能需要特别版本或构建方式。 #### 准备工作环境 首先,创建并激活一个新的虚拟环境以隔离项目依赖项: ```bash python3 -m venv myenv source myenv/bin/activate ``` #### 安装 PyTorch 及其扩展库 针对 Apple Silicon 的特性,建议采用官方推荐的方式安装预编译版 PyTorch 和相关组件,这能更好地支持 MPS (Metal Performance Shaders),从而利用 M1/GPU 加速功能[^2]: ```bash pip install --pre torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cpu ``` 验证安装是否成功的代码如下所示: ```python import torch print(torch.__version__) print(torch.backends.mps.is_available()) ``` 如果 `torch.backends.mps.is_available()` 返回 `True`,则表明已正确启用了 GPU 支持。 #### 安装 DeepSpeed 鉴于 DeepSpeed 对于硬件架构的要求,在 M1 设备上的安装可能会遇到挑战。可以尝试通过 pip 来获取最新发布的二进制文件,但需要注意的是,部分情况下仍需手动调整配置参数以适应 ARM 平台的需求[^1]: ```bash pip install deepspeed ``` #### 下载与准备 DeepSeek 模型及相关资源 完成上述准备工作之后,按照 DeepSeek 提供的具体说明文档下载所需的模型权重和其他必要资产。通常这些信息可以在项目的 GitHub 页面或其他官方渠道找到。 #### 测试部署效果 最后一步是对整个流程做全面测试,确认各个模块能否正常协同运作,并评估实际应用场景下的表现情况。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值