RWKV-7-World-0.1B 发布,RWKV-6-32B-Instruct 由海外社区发布

2024 年 12 月 11 日,RWKV 基金会正式发布了首款 RWKV-7 架构模型:RWKV-7-World-0.1B-v2.8。

同日,RWKV 海外社区团队发布了 QRWKV6-32B-Instruct-Preview-v0.1 模型,这是迄今最大规模的 RWKV 模型,且训练成本极低,仅需在 16 张显卡训练 8 小时。

关于 RWKV-7-World-0.1B

RWKV-7-World-0.1B-v2.8 是 RWKV-7-World 系列的首个模型。由于参数量较小,RWKV-7-World-0.1B 从 World v3 数据集(共 3.1T 数据)中随机采样了 1T 训练数据,并为其命名为 World v2.8 训练数据集

RWKV-7-World-0.1B-v2.8 是目前全球最强的 0.1B 多语言模型

在英文和多语言基准评测中,RWKV-7-World-0.1B 的英文能力一流,且多语言能力显著超越所有同尺寸模型。

此外,RWKV-7-World-0.1B 拥有优秀的 ReCORD 评分,这是长文本材料问答任务,表明 RWKV-7 模型能够更好地理解和使用长文本的信息。

0.1B-model-benchmark

在模型设计上,RWKV-7-World-0.1B-v2.8 模型保持 L12-D768,而非 SmolLM2 那种 L30-D576 尺寸。更少的神经网络层数(L12)使得 RWKV-7 的速度更快,更适合边缘设备等资源受限的推理场景,微调训练所需的数据和计算资源也更低。

更大规模的 RWKV-7-World 0.4B、1.5B、3B 也在训练中。

下载与体验

RWKV-7-World-0.1B 现已上传到 Hugging Face 和 ModelScope,可以从以下仓库下载:

由于 RWKV-7 架构更新了推理逻辑和代码,部分 RWKV 推理工具尚不支持 RWKV-7 模型。

截至 2024.12.12,RWKV pip 包 0.8.28 版本Ai00 0.5.11 版本已支持 RWKV-7 模型的推理。

关于 QRWKV6-32B-Instruct 模型

QRWKV6-32B-Instruct 由 RWKV 海外社区完成训练并发布。

QRWKV6-32B-Instruct 是使用 RWKV-V6 替换 Qwen-32B-Instruct 的 Transformer 注意力头,再使用少量数据训练,就能使它具有 RWKV 的效率和显存优势,克服原有的 Transformer 架构限制。

QRWKV6-32B-Instruct 的训练在 16 张 AMD MI300X GPU 上运行,总耗时仅需 8 小时。这些 MI300X 算力均由 TensorWave 赞助。

在多个基准测试中,QRWKV6-32B-Instruct 与 Qwen2.5-32B-Instruct 互有胜负。这里的训练只使用了几个 G 数据,在增大数据量后还会进一步显著提升。

QRWKV6-32B-bench

将 Transformer 的 QKV Attention 迁移到 RWKV 模型,可以大幅降低大规模推理计算成本,且证明 RWKV 的架构非常适用于更大参数的模型。

更强的 RWKV7-32B-Instruct 和 70B 版本也即将发布。

下载和体验

QRWKV6-32B-Instruct 现已上传到 Hugging Face 仓库: recursal/QRWKV6-32B-Instruct-Preview-v0.1

在线体验:https://featherless.ai/models/recursal/QRWKV6-32B-Instruct-Preview-v0.1

### 本地部署 Qwen2.5-Coder-32B-Instruct 模型 为了在本地环境中成功部署 `Qwen2.5-Coder-32B-Instruct` 模型,需遵循一系列配置指令来设置环境并完成模型下载。 #### 创建 Python 虚拟环境 通过创建一个新的 Conda 环境可以有效管理依赖关系,确保项目所需的库版本一致。命令如下: ```bash conda create -n modelscope python=3.10 conda activate modelscope ``` 此操作建立了一个名为 `modelscope` 的新虚拟环境,并激活该环境以便安装后续所需软件包[^1]。 #### 安装 ModelScope 库及其他必要组件 ModelScope 是阿里云推出的一个用于管理和部署 AI 模型的服务平台,在这里将被用来获取目标模型文件。执行以下命令以安装必要的 Python 包: ```bash pip install modelscope ``` 这一步骤会自动处理所有必需的依赖项,使接下来的操作更加顺畅。 #### 下载 Qwen2.5-Coder-32B-Instruct 模型至指定路径 一旦准备工作就绪,则可以通过下面这条命令实现模型的具体下载动作,注意替换 `/ssd/xiedong/Qwen/Qwen2.5-Coder-32B-Instruct` 为你希望保存的位置: ```bash modelscope download --model 'Qwen/Qwen2.5-Coder-32B-Instruct' --local_dir '/ssd/xiedong/Qwen/Qwen2.5-Coder-32B-Instruct' ``` 上述过程完成后即意味着已经拥有了完整的本地副本供进一步应用开发或测试使用。 #### 加载与初始化模型实例 当模型已经被正确放置于预期位置之后,就可以利用 Python 编写简单的脚本来加载它了。以下是基本的例子展示如何做到这一点: ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("/path/to/local/model/directory") model = AutoModelForCausalLM.from_pretrained("/path/to/local/model/directory") def generate_code(prompt): inputs = tokenizer(prompt, return_tensors="pt").input_ids.cuda() outputs = model.generate(inputs) result = tokenizer.decode(outputs[0], skip_special_tokens=True) return result ``` 这段代码展示了怎样基于已有的预训练权重构建一个能够响应给定提示词(`prompt`)而生成相应代码片段的功能函数[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值