喧嚣之后,2月份谁是 R1/V3 供应商的王者

判断哪些是凑热闹的供应商

先大家做几个祛魅。不要看到那么多厂商都提供了 R1/V3 ,实际有些可能根本没办法用的。

首先,R1/V3 都只有一个规格的版本,都是 6000+亿参数的,不存在所谓满血不满血。那所谓蒸馏版 R1 是指什么呢?实际上就是用 Qwen/Llama 这些开源模型,使用从 R1 蒸馏出来的思维链数据再做一次微调得到的模型。他们本质还是 Qwen/Llama,并且因为参数规模小,数据来源又是 R1。效果和原生的 R1 差距很大。所以,上蒸馏版,不提供原版的 R1 的,一般都是凑热闹的。

再次,如果是原版 R1/V3, 那么我们接着可以看供应商提供的 Context Window (窗口大小),简单来说,很多厂商,比如某软,他提供的免费 R1 实际窗口只有 4K, 这意味着你使用R1,输入和输出不能超过 4K, 基本也就几轮的聊天。而应用对接,一般都会提供大量的上下文,基本随随便便就超了,属于只能聊天打屁用的。

第三个是 TPM 限制,比如某厂 TPM 限制是 10000, 对于AI辅助编程基本一次请求都过不了,刚请求就触发 rate limit 了,也只能适合聊天打屁。

第四个,大家也能感受到,就算都是原版模型,可能聊天或者使用效果还是略有差别的。这个我们以后再讨论。

所以,总结下:

作为用户,你区分一个供应商是不是真的良心供应商,先看模型不是是原版的(6000亿参数规模),其次再看窗口大小(64k+ 是正常),最后看 TPM(一般要10w以上)。如果都符合要求,现在,才能进入我们今天的主题,谁的速度更快。

速度大比拼

一个供应商提供的 R1/V3 速度指标由下面两个指标来衡量:

1. TPS(每秒Token生成速度)

2. TTFT(首token出现等待时间)

这两个指标又收到三个因数的影响:

1. 你的输入长度。

2. 你测试的时间段

3. 用户体量

啥意思呢?比如贴了一万个字符的问题,和输入“你好”,这两个指标肯定都会有区别的。其次,你在一个供应商非常繁忙的时间段去测试,肯定速度很慢。时间段我这里就随机了,好不好就看各个供应商的命了,而用户体量,这个对应的各家资源也不一样,这个是供应商要自己解决的问题。

这次我们会同时对比国内外供应商,输入的问题长度,我们也会分成两个部分测试,一个输入100token以内,一个输入 14000 token左右。我们来分别看看TPS/TTFT。

与此同时,除了 R1/V3 我们也引入了一些其他模型的速度,大家可以权当参考。

小输入测试(20)

c074d0ea4ac68467bd5bc06bb49f88c7.png

其中, 说下每个模型名字的对应关系:

1. or_o1_mini_chat 表示在openrouter 里的 o1 mini 模型。

2. doubao_pro_chat 表示在火山方舟的 doubao 1.5 pro 256k 模型

3. sili_r1_chat 表示硅基流动的 R1 模型(pro版)

4. doubao_32k_pro_chat 表示 doubao 1.5 pro 32k 模型

5. doubao_r1_chat 表示火山方舟的 R1 模型

6. QwenMax 表示阿里最新Qwen大模型

7. qianfan_r1_chat 百度千帆的 R1模型

8. qianfan_v3_chat 百度千帆的 V3模型

9. or_r1_chat  openrouter 里免费 R1 模型

10 or_v3_chat openrouter 里 R1 模型

11 deepseek_chat 官方 V3 模型

12 ali_deepseek_r1_chat 阿里百炼上的 R1模型

13 doubao_v3_chat 火山方舟的 V3 模型

14 or_nitro_r1_chat openrouter 里的付费 R1 模型

15. ali_deepseek_chat 阿里百炼平台的 V3 模型

16. sili_deepseek_r1_chat 硅基流动的普通版 R1 模型

17. sili_deepseek_chat 硅基流动的普通版本 V3 模型

18. or_sonnet_chat openrouter 里的sonnet 3.5 模型

19. deepseek_r1_chat 官方 R1 模型

简单做个总结:

1. 官网的 R1/V3 一直处于不可用状态。

2. R1 的每秒输出速度,硅基流动以 22t/s 为冠军,openrouter, 火山方舟分别以 20.24t/s 以及 20.15t/s 居于亚军和季军。 其他的基本都低于 20t/s。

3. V3 每秒输出速度,百度千帆以 14.86t/s 为冠军, 硅基流动和火山方舟分别以 13.35t/s 13.08t/s 分别居于亚军和季军。

4. R1 的首字母等待时间, 硅基流动以 0.2是为冠军,阿里百炼和火山方舟分别以 1.0 和 1.5s 为亚军和季军。

整体而言,类似你好,世界这样的场景里, 硅基流动,火山方舟两家稳居前三,openrouter和百度千帆和阿里百炼则偶有入局前三。

大输入测试(14000)

接下来,重磅来了4603e517dc612b3b1318da65fa89ab79.png,我们看看大输入下各家的表现。

52ad9dbe7b93c12d089560465f2bd4a1.png

1. R1 模型, openrouter TPS 以 29.55 为冠军,火山方舟和硅基流动分别以 24.90t/s, 10.31t/s 分别居于亚军和季军。

2. V3 模型, 硅基流动TPS 以 12.63t/s 为冠军, 火山方舟和openrouter 分别以 8.82t/s, 7.22t/s 居于亚军和季军。

3. 在R1模型的TTFT上,硅基流动以 5.08 的延时获得冠军, 火山方舟则以 5.62 居于亚军。两者差距不大。

最后做个总结:在大输入下(14000tokens),火山方舟,硅基流动,openrouter稳居前三, 各有优劣。其他的诸如百度千帆因为 TPM 限制,直接报错。

最后总结

国内R1/V3 提供上,表现最好的是就是火山方舟和硅基流动,基本也和我之前的认知相同,他们两家技术实力强悍,行动也都很早,而且效果上也和官方有在对齐,基本值得信赖。

如何复现

最后,如果大家想自己验证,可以安装如下工具:

pip install -U auto-coder

然后运行如下指令:

auto-coder.chat --lite

然后按文档配置模型: https://uelng8wukz.feishu.cn/wiki/K3EmwuNrbiAN0CkHMGyc315Wn7f?fromScene=spaceOverview

最后小输入测试为:

/models /speed-test

大输入测试,运行命令:

/models /speed-test /long-context

你还可以控制测试多少轮:

/models /speed-test /long-context 3

最后一个数字表示测试3轮。

计及风电并网运行的微电网及集群电动汽车综合需求侧响应的优化调度策略研究(Matlab代码实现)内容概要:本文研究了计及风电并网运行的微电网及集群电动汽车综合需求侧响应的优化调度策略,并提供了于Matlab的代码实现。研究聚焦于在高渗透率可再生能源接入背景下,如何协调微电网内部分布式电源、储能系统与大规模电动汽车充电负荷之间的互动关系,通过引入需求侧响应机制,建立多目标优化调度模型,实现系统运行成本最小化、可再生能源消纳最大化以及电网负荷曲线的削峰填谷。文中详细阐述了风电出力不确定性处理、电动汽车集群充放电行为建模、电价型与激励型需求响应机制设计以及优化求解算法的应用。; 适合人群:具备一定电力系统础知识和Matlab编程能力的研究生、科研人员及从事新能源、微电网、电动汽车等领域技术研发的工程师。; 使用场景及目标:①用于复现相关硕士论文研究成果,深入理解含高比例风电的微电网优化调度建模方法;②为开展电动汽车参与电网互动(V2G)、需求侧响应等课题提供仿真平台和技术参考;③适用于电力系统优化、能源互联网、综合能源系统等相关领域的教学与科研项目开发。; 阅读建议:建议读者结合文中提供的Matlab代码进行实践操作,重点关注模型构建逻辑与算法实现细节,同时可参考文档中提及的其他相关案例(如储能优化、负荷预测等),以拓宽研究视野并促进交叉创新。
<think> 我们正在回答用户关于WSL 1和WSL 2主要区别的问题。根据引用内容,我们可以总结出以下几点主要区别: 1. 架构差异:WSL 1使用转换层模拟Linux系统调用,而WSL 2使用轻量级虚拟机(VM)并运行真实的Linux内核。 2. 文件系统性能:WSL 2在Linux文件操作上性能显著提升,但Windows文件系统的跨系统访问性能可能不如WSL 13. 系统调用兼容性:WSL 2支持完整的Linux系统调用,因此兼容性更好。 4. 资源使用:WSL 1资源占用更少,启动更快;WSL 2需要运行虚拟机,内存占用稍高。 5. 磁盘存储:WSL 1存储为普通目录,WSL 2使用虚拟磁盘文件(ext4.vhdx)。 下面我们按照要求组织回答。 </think>### WSL 1 与 WSL 2 主要区别总结 根据微软官方文档和技术实现[^1][^3],两者的核心区别如下: #### 1. **架构差异(根本区别)** - **WSL 1**: 通过**转换层**将 Linux 系统调用实时转译为 Windows 内核调用 $$ \text{Linux 应用} \xrightarrow{\text{syscall}} \text{转换层} \xrightarrow{\text{NT API}} \text{Windows 内核} $$ - **WSL 2**: 于**轻量级虚拟机**(Hyper-V)运行完整 Linux 内核 $$ \text{Linux 应用} \xrightarrow{\text{syscall}} \text{Linux 内核} \xrightarrow{\text{Hyper-V}} \text{Windows 硬件} $$ #### 2. **文件系统实现** | 特性 | WSL 1 | WSL 2 | |---------------------|------------------------------------|------------------------------------| | **跨系统文件访问** | 直接访问 Windows 文件(性能更优) | 通过 `\\wsl$\` 网络路径访问 | | **Linux 文件系统** | 模拟 ext4(目录形式存储) | 真实 ext4(单文件虚拟磁盘 `ext4.vhdx`)[^3] | | **IO 性能** | Windows 文件操作快,Linux 操作慢 | Linux 文件操作快(接近原生),Windows 文件操作慢 | #### 3. **兼容性与性能** | 场景 | WSL 1 优势 | WSL 2 优势 | |---------------------|------------------------------------|------------------------------------| | **系统调用支持** | 部分缺失(如 `inotify` 受限) | 100% 完整 Linux 系统调用支持[^1] | | **Docker/K8s** | 无法直接运行 | 原生支持容器和内核功能 | | **GUI 应用** | 需额外配置 X Server | 原生支持 GPU 加速和 GUI 应用 | | **启动速度** | 更快(无需启动 VM) | 稍慢(需初始化虚拟机) | #### 4. **网络与资源管理** - **网络架构**: - WSL 1:与 Windows 共享 IP(`localhost` 直接互通) - WSL 2:独立 IP(需端口转发或 `localhost` 特殊配置) - **资源占用**: - WSL 1:内存占用低(无额外 VM 开销) - WSL 2:默认分配 80% 内存(可通过 `.wslconfig` 调整) #### 5. **适用场景建议** - **优先选 WSL 1**: - 频繁交叉编辑 Windows/Linux 文件 - 低配设备或需要快速启动 - 依赖 `localhost` 服务的开发(如本地 API 调试) - **优先选 WSL 2**: - 运行 Docker、Kubernetes - 需要完整 Linux 内核特性的项目(如 eBPF、FUSE) - 计算密集型任务(内核优化提升 20 倍性能[^1]) > 切换命令示例(需管理员权限): > ```bash > wsl --set-version Ubuntu 2 # 切到 WSL 2 > wsl --set-version Ubuntu 1 # 切回 WSL 1 > ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值