Mac(m1)本地部署deepseek-R1模型

1. 下载安装ollama

直接下载软件,下载完成之后,安装即可,安装完成之后,命令行中可出现ollama命令

2. 在ollama官网查看需要下载的模型下载命令

1. 在官网查看deepseek对应的模型

2. 选择使用电脑配置的模型

3. copy 对应模型的安装命令

4. 在电脑命令行中安装

5. 查看安装情况- 安装成功

6. 在命令行中使用

3. 下载安装 Anything LLM软件

1. 安装过程中选择 ollama 工具,然后选择上面安装的模型即可

2. 还可投喂资料。。。

### Mac Mini M4 本地部署 DeepSeek 性能评测 对于希望在 Mac Mini M4 上本地部署并评估 DeepSeek 模型性能的用户来说,有几个重要因素需要考虑。 #### 硬件配置的影响 Mac Mini M4 配备了 Apple Silicon 芯片,在处理机器学习任务方面具有一定的优势。然而,由于其硬件资源相对有限,特别是与专门设计用于大规模计算的任务相比时,可能会遇到瓶颈。一些国外爱好者已经尝试通过堆叠多台设备来增强整体算力[^1]。 #### 训练时间对比 考虑到 DeepSeek V3 整个训练过程消耗的时间仅为约280万个 GPU 小时,而其他大型模型如 Llama 3 则需耗费超过十倍以上的 GPU 时间成本。这表明即使是在较小规模的硬件环境下,完成一次完整的训练仍然是相当耗时的工作[^3]。 #### 实际应用中的表现 如果只是单纯为了测试或轻量级的应用场景,则可以在单个 Mac Mini M4 设备上安装和运行简化版本的大模型知识库系统。根据已有经验分享,这样的设置足以支持基本功能演示以及部分实际业务需求的满足[^2]。 #### 技术细节考量 为了优化在小型平台上的执行效率,可以采取特定的技术手段比如采用无辅助损失的方法来进行有效的负载分配管理,从而减少因资源不足而导致的服务质量下降风险[^4]。 ```python import time def simulate_deepseek_performance_on_macmini(): start_time = time.time() # Simulate loading model and processing data on a single MacMini M4 print("Loading DeepSeek Model...") time.sleep(5) # Placeholder for actual load time print("Processing Data with DeepSeek...") time.sleep(10) # Placeholder for actual process duration end_time = time.time() elapsed_time = round(end_time - start_time, 2) print(f"Total Elapsed Time: {elapsed_time} seconds") simulate_deepseek_performance_on_macmini() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值