1. 英伟达发布革命性CUDA Tile模型,Python代码性能匹敌C++
英伟达推出CUDA 13.1版本,引入全新的CUDA Tile编程模型,允许开发者用15行Python代码实现GPU内核编程,性能可媲美200行手动优化的CUDA C++代码。这一变革将GPU编程从传统的线程级管理提升至瓦片(Tile)级抽象,大幅降低开发门槛,但也被行业质疑可能削弱CUDA的生态壁垒,因为Tile模型更易移植到其他硬件平台。此次更新重点支持Blackwell架构,未来将扩展至更多GPU代际。
博客:
https://developer.nvidia.com/blog/focus-on-your-algorithm-nvidia-cuda-tile-handles-the-hardware
2. DeepSeek V3到V3.2技术演进全解析:稀疏注意力与自我验证推动开放模型新高度
DeepSeek V3.2通过引入DeepSeek稀疏注意力(DSA)机制将计算复杂度从O(L²)降至O(Lk),并结合自我验证与自我修正技术,在数学推理任务上达到金牌级表现,同时在多项基准测试中媲美GPT-5和Gemini 3.0 Pro等专有模型。该模型延续了V3系列的混合专家架构与多头潜在注意力设计,其训练方法融合了强化学习可验证奖励(RLVR)与GRPO算法优化,标志着开放权重模型在性能与效率平衡上的重要突破。
博客:
https://sebastianraschka.com/blog/2025/technical-deepseek.html
3. 英伟达4B小模型以成本优势登顶ARC-AGI 2榜单,挑战“规模至上”论
英伟达研发的4B参数小模型NVARC在ARC-AGI 2评测中以27.64%的得分超越GPT-5 Pro(18.3%),且单任务成本仅为后者的1/36(0.2美元 vs. 7美元)。其核心突破在于采用“零预训练”方法,通过离线合成高质量数据(生成超320万增强样本)并结合测试时微调(TTFT)技术,使小模型在特定推理任务上实现高效适配。这一成果凸显了在特定领域任务中,敏捷的数据策略与优化方法可能比单纯扩大模型规模更具实用性。
论文:
https://drive.google.com/file/d/1vkEluaaJTzaZiJL69TkZovJUkPSDH5Xc/view
4. 英伟达开源8B指挥家模型,以强化学习实现多工具智能编排,性能超越GPT-5且成本降低
英伟达与港大联合推出Orchestrator-8B模型,通过强化学习训练一个小型“指挥家”智能调度代码解释器、网络搜索、数学模型及其他大模型等工具,在Humanity’s Last Exam评测中以37.1%的成绩超越GPT-5(35.1%),同时将成本降低至约1/3。该方法利用统一JSON接口与三重奖励机制(正确性、效率、用户偏好),有效避免传统多智能体系统中的自增强与他增强偏见,展现出在高复杂度任务中“小模型+工具编排”的实用潜力。
论文:
https://arxiv.org/abs/2511.21689
GitHub:
https://github.com/NVlabs/ToolOrchestra/
模型:
https://huggingface.co/nvidia/Orchestrator-8B
数据:
https://huggingface.co/datasets/nvidia/ToolScale
5. LightX2V开源技术栈实现AI视频生成20倍加速,消费级显卡达成1:1实时渲染
LightX2V通过Phased DMD步数蒸馏将视频生成步骤从40-50步压缩至4步,结合LightVAE轻量编解码器与全栈优化(低比特算子、稀疏注意力、多卡并行等),在8GB显存消费级显卡上实现端到端延迟与视频时长接近1:1的实时生成效果,单月下载量超170万次。该方案已支持Wan2.1、CogVideo等主流模型,并在ComfyUI生态中为个人创作者与企业用户提供从本地调试到集群部署的完整工作流。
GitHub:
https://github.com/ModelTC/LightX2V
Hugging Face:
https://huggingface.co/lightx2v
项目主页:
https://light-ai.top
参考
- https://mp.weixin.qq.com/s/acDvA5LD9bfsPi-GpITAzA
- https://mp.weixin.qq.com/s/LI04mIxaEOG5nY5DQF68Og
- https://mp.weixin.qq.com/s/AuFGz3jTQZU29MZRNGqgyA
- https://mp.weixin.qq.com/s/qXq5tRQOGSAQy719fd13Ag
- https://mp.weixin.qq.com/s/ntQgNNBvmGKAY1aNxnyXQQ

1211

被折叠的 条评论
为什么被折叠?



