太强了!LIama 3.1正式发布

 Datawhale干货 

编辑:量子位、Datawhale

刚刚,LIama 3.1正式发布,登上大模型王座!

在150多个基准测试集中,405B版本的表现追平甚至超越了现有SOTA模型GPT-4o和Claude 3.5 Sonnet。

也就是说,这次,最强开源模型即最强模型

06a852d61a5e9571e5191da2fc0ff897.png

各大云厂商也在第一时间上线了的Llama 3.1的支持,价格是酱婶的:

1054f8b2c9c863d2431a4416d4c563b6.png

LIama 3.1官方正式发布

首先来看模型能力。

Llama 3.1将上下文长度扩展到 128K、增加了对八种语言的支持。

其中超大杯405B版本,在常识、可操纵性、数学、工具使用和多语言翻译等能力方面都追平、超越了现有顶尖模型。

96d43a5d8889f1e080b3733586a06e1a.png
fd142baa7afba1d42a6fe7c9f6c8fa34.png

除此之外,也推出了8B和70B模型的升级版本,能力与同等参数下的顶尖模型基本持平。

923099f34da9a376130395f38ae1af81.png

再来看模型架构

官方介绍,要在超15万亿个token上训练 Llama 3.1 405B模型挑战不小。

为此他们大幅优化了整个训练栈,并把模型算力规模首次扩展到了超过16000个H100 GPU。

5799e2819507c6d4f407765e47a78a53.png

具体来说,还是采用标准的仅解码器的Transformer架构,并做一些细微改动;并采用迭代的post-traing流程,每轮都有SFT(监督微调)和DPO(直接偏好优化),以提高每个能力的性能。

与Llama以前的版本相比,他们提高了用于预训练和post-training数据的数量和质量。

而为了支持405B这样尺寸模型的大规模生产推理,Meta将模型从16位(BF16)量化到8位(FP8)数值,有效地降低了所需的计算需求,并允许模型在单个服务器节点内运行。

指令微调方面,Meta还提高了模型对用户指令的响应能力、增强了它遵循详细指令的能力,同时保证安全性。

在post-training阶段,Meta在预训练模型的基础上进行多轮对齐。

每一轮都包括监督微调(Supervised Fine-Tuning, SFT)、拒绝采样(Rejection Sampling, RS)和直接偏好优化(Direct Preference Optimization, DPO)。

他们使用合成数据生成来绝大部分SFT示例,并数次迭代。

此外,还采用了多种数据处理技术来将这些合成数据过滤到最高质量。

总计15T tokens使用Llama 2模型做清理和过滤,而代码和数学相关的数据处理流水线则主要借鉴了Deepseek的方法。

f0b463e2fc4e5df5911474140d4500c2.png

除了最基本的根据提示词响应,Meta官方表示,任何普通开发者可以用它做些高级的事情,比如:

  • 实时和批量推理

  • 监督微调

  • 针对特定应用评估模型

  • 持续预训练

  • 检索增强生成 (RAG)

  • 函数调用

  • 合成数据生成

而这背后也是由它的强大生态伙伴支持。

357838661a7679ae11887523cfa4458c.png

Datawhale发布Llama3.1 部署及微调教程

9bff1b63f70f31a25d10fcb22aa28815.jpeg

开源地址:https://github.com/datawhalechina/self-llm/tree/master/models/Llama3_1

参考链接:
[1]https://about.fb.com/news/2024/07/open-source-ai-is-the-path-forward/
[2]https://ai.meta.com/blog/meta-llama-3-1/

32199bdca717e4ac54542cf6a823dd3e.png

### 下载 Llama 模型最新版本的方法 为了获取最新的 Llama 模型,可以按照以下方法操作: #### 官方渠道下载 可以通过 Meta 提供的官方网站资源页面访问模型下载链接。具体地址如下[^2]: ```plaintext https://ai.meta.com/resources/models-and-libraries/llama-downloads/ ``` 在此页面中,用户需完成注册并同意相关协议后,即可获得一个专属的下载 URL 链接。该链接通常形如 `https://download.llamameta.net/` 并附带授权令牌。 #### 使用官方脚本下载 Meta 还提供了自动化脚本来简化模型下载过程。此脚本可以从 GitHub 的 Llama 仓库中找到,并支持多种操作系统环境运行。以下是 Python 脚本的一个简单示例[^2]: ```bash git clone https://github.com/facebookresearch/llama.git cd llama pip install -r requirements.txt python download.py --model {MODEL_NAME} --output_dir ./models ``` 其中 `{MODEL_NAME}` 是指代具体的模型名称(例如 `7B`, `13B` 等)。执行完成后,模型文件会被保存到指定路径下。 #### 基于第三方实现的选择 对于希望快速部署或测试场景下的开发者来说,也可以考虑一些社区维护良好的项目来加载预训练权重数据集。例如 ggerganov 开发了一个完全采用 C/C++ 编写的高性能推理引擎——`llama.cpp`[^3] ,它允许在不依赖 GPU 加速的情况下高效运行较小规模变体版本。 其源码托管位置为: ```plaintext https://github.com/ggerganov/llama.cpp ``` ### 注意事项 - **许可协议**: 在任何情况下都应严格遵循 Meta 发布条款规定, 不得擅自传播未经处理过的原始参数集合. - **硬件需求评估**: 根据所选架构大小提前确认计算设备内存容量是否满足最低配置建议. ```python import requests def fetch_latest_model_url(): url = 'https://ai.meta.com/resources/models-and-libraries/llama-downloads/' response = requests.get(url) if response.status_code == 200: return f"Visit this link to apply and get your personal model download URL: {url}" else: raise Exception(f"Failed to retrieve the latest version information from official site with status code:{response.status_code}") print(fetch_latest_model_url()) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值