M2 Mac mini跑Llama3

部署运行你感兴趣的模型镜像

前言

在4-19左右,Meta 宣布正式推出下一代开源大语言模型 Llama 3;共包括 80 亿和 700 亿参数两种版本,号称 “是 Llama 2 的重大飞跃”,并为这些规模的 LLM 确立了新的标准。实际上笔者早就体验过,只不过自己电脑没什么显卡(核显),所以一直没跑llama,但是最近听说m2芯片可以运行,就体验了一下。

看图表8B的数据可以在本地运行,70B就不用想了。试了一下真的可行。

使用Ollama

ollama:Get up and running with large language models.实际上就是封装已经训练的模型数据,提供运行程序

分为ollama的安装,拉取模型数据,运行模型

安装很简单:Download Ollama on macOS

mac直接解压app,放在applications下,运行后点击install,输入密码即可,实际上是安装ollama指令。

模型文件:https://ollama.com/library

ollama pull llama3 

根据电脑的配置情况,默认llama即8B模型,如果要运行70B:ollama run llama3:70b,估计需要64G内存,没这么大的,所以只跑了8B

然后执行run,有点docker的设计思想

ollama run llama3

基本上问答是英文,训练的语料估计主要是国外的,毕竟meta开源 

 

总结

实际上就是本地体验一下,如果要调模型还是相对难一些,体验发现llama3主要是英文答复,不过8B模型在mac mini运行还是很快的,另外可以根据提示做一些Ollama的指令,关键的是load model和save model,可以载入和存储模型。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

### 安装 LLaMA-Factory 框架 为了在 Mac 上成功安装并运行 LLaMA-Factory 工具,可以按照以下方法操作: #### 依赖项准备 LLaMA-Factory 是基于 Python 的开源框架,因此需要先确保本地已正确安装 Python 和必要的开发工具链。推荐使用 Conda 或虚拟环境来管理依赖。 1. **Python 版本**: 确保安装了 Python 3.8 及以上版本[^2]。 使用命令 `python --version` 验证当前的 Python 版本。 2. **Conda 虚拟环境**: 推荐通过 Miniconda 创建独立的虚拟环境以避免冲突。 ```bash conda create -n llmfactory python=3.9 conda activate llmfactory ``` 3. **Git 客户端**: 如果尚未安装 Git,请下载并安装最新版 Git 工具[^3]。 --- #### 下载 LLaMA-Factory 代码库 访问官方仓库地址克隆源码到本地: ```bash git clone https://gitcode.com/gh_mirrors/ll/LLaMA-Factory.git cd LLaMA-Factory ``` 如果遇到网络问题无法正常拉取代码,可尝试更换镜像站点或手动下载 ZIP 压缩包解压至目标路径。 --- #### 安装依赖 进入项目根目录后执行如下脚本来完成所需模块加载: ```bash pip install -r requirements.txt ``` 此文件列出了所有必需的第三方库及其兼容版本号列表。 对于 GPU 加速支持的情况(如 Apple Silicon M1/M2),可能还需要额外配置 Metal Performance Shaders (MPS) 后端驱动程序以及 PyTorch MPS 支持插件[^1]。 --- #### 测试安装是否成功 验证 CLI 功能可用性的简单方式之一就是查看帮助文档输出结果: ```bash llamafactory-cli --help ``` 如果没有报错提示,则说明基本功能已经就绪;否则需重新检查前面各环节设置是否有误。 另外需要注意的是,在实际应用过程中可能会因为硬件资源限制而调整部分参数设定值,比如批量大小(batch size),学习率(learning rate)等超参选项均会影响最终效果表现形式。 --- ### 注意事项 由于 macOS 平台架构特殊性(Intel vs ARM),某些低层优化组件可能存在移植难度较大情况,建议优先选用社区维护良好的分支版本或者等待官方发布正式适配方案后再行动手实践更为稳妥可靠一些。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值