- 博客(33)
- 收藏
- 关注
原创 最新World Model × (具身智能)Robotics论文解析--世界模型正在重塑机器人的大脑
摘要: WorldModel在机器人领域的重要性日益凸显,其核心在于通过可压缩、可预测的环境模拟实现高效决策。Schmidhuber等人的理论表明,智能的本质在于学习世界模型,而Ha & Schmidhuber的实验证实,仅依靠生成式世界模型即可在虚拟环境中训练策略并迁移至现实。Hafner的Dreamer系列进一步证明,基于世界模型的智能体在样本效率和泛化能力上均超越传统方法。真实机器人应用中,世界模型通过“想象未来”减少试错,显著提升安全性与成本效益。新一代模型(如HuWo、DREMA)将物理交
2025-11-21 18:23:08
146
原创 最新AI infra 顶校相关免费课程
按照市场角色划分。为此,本文主要收集世界名校最新的相关课程,便于系统性补充AI infra 领域相关知识。
2025-11-17 17:00:27
872
原创 最新AI Data Centers必读资料汇集(顶会顶刊权威报告)
The Datacenter as a Computer: Designing Warehouse-Scale Machines (Third Edition) — 类型:书籍(2018,Morgan & Claypool)简要说明:由 Google 工程领袖撰写的“仓库规模计算机”教科书,系统介绍超大规模数据中心(WSC)的设计原理,包括基础设施、软硬件协同与性能优化。适合希望全面了解数据中心架构演进与设计权衡的读者。标签:#overview #基础。
2025-11-07 20:30:00
737
原创 [awesome]最新最全机器人Robotics顶会“灵巧手”(dexterous hand)的paper集合
灵巧手”(dexterous hand)通常指具有类人手结构、多自由度的末端执行器,能够进行精细的抓取与操作,而不仅仅局限于平行夹紧(如下图它们模仿人类手指关节和肌腱驱动,使机器人能够执行转动、重定位、穿插等复杂操作。刚性型采用金属或坚硬塑料结构,关节通过电机或舵机驱动,优点是定位精度高、力矩大;柔性型主要用硅胶、橡胶等软材料,可通过气动驱动或形变实现自适应抓取,天生适合对柔软或不规则物体的抓取;混合型结合刚柔两者,例如刚性骨架包裹柔性层,兼顾承力和安全性。
2025-11-02 17:42:00
915
原创 最新机器人顶会IROS 2025的award paper 深入分析
在机器人学里,IROS(IEEE/RSJ International Conference on Intelligent Robots and Systems)与 ICRA并列为全球影响力最大的两大顶级学术会议:自 1988 年创办起,IROS 由 IEEE RAS 与日本机器人学会 RSJ 共同主办,覆盖从感知、控制、学习到系统落地的全栈研究,被官方称为“全球最大、最具影响力的机器人研究会议之一”;产业界新闻稿也常把 IROS 与 ICRA并称为机器人领域的“顶级双星”。IROS 2025。
2025-10-16 16:25:33
1344
原创 COLM 2025 核心论文解析(Outstanding+Spotlight)+AI/MLsys视角(上)
COLM (Conference on Language Modeling)2025 已于 2025 年 10 月 7–10 日在加拿大蒙特利尔的蒙特利尔会议宫(Palais des Congrès)举行。大会前三天为单轨日程,包含特邀报告、论文口头报告与海报展示;第四天专设为工作坊。COLM(Conference on Language Modeling)是一个聚焦“语言建模”的新兴学术会议。它由社区内多位学者与业界研究者在 2023 年下半年发起,首届于 2024 年在宾夕法尼亚大学举办,今年是第二届。
2025-10-12 16:02:23
1468
原创 【机器人顶会 CoRL 2025 best paper 完整分析】从 π0.5 到 LocoFormer:Awards 八强深析——通用机器人三大突破与“伯克利系”现象
面向“机器人 × 机器学习”交叉的旗舰型会议之一的CoRL 2025(Conference on Robot Learning)定于 2025 年 9 月 27–30 日在韩国首尔举行(在 Google Scholar Metrics(Robotics 类) 中,CoRL 与 RA-L、ICRA 等并列位居前列,体现出稳健的学术可见度与引用表现)。今年与 IEEE-RAS Humanoids 2025 同馆同周联办,形成“机器人学习 + 人形机器人”的组合场景,便于学术与产业在同一平台上交流与展示。
2025-09-29 19:05:30
2559
原创 [NeurIPS‘25] AI infra / ML sys 论文(解析)合集
作者把常见的 ITC (Inference-time Computation)方法(Best-of-N、Step-level Best-of-N、Self-Consistency、Beam Search、MCTS、Self-Refine)放到同一套设置里,在八类推理任务上系统做了上千组对比(累计 >2万 A100-80G GPU 小时),重点不改模型也不再训练,而是通过采样与选择环节的“小技巧”获得更高正确率/Pass@1。),实现亚1比特(甚至 0.1 BPW)的极限量化,同时尽量稳住精度。
2025-09-26 20:30:00
1199
原创 当大模型LLM遇上分布训练的瓶颈:Postal、QSM、α–β、LogGP 与 Roofline 的新范式
设一个计算任务的串行(不可并行)占比为 f∈[0,1],可并行占比为 1−f。在理想条件下(负载均衡、无并行化额外开销、问题规模固定不变),使用 N个等效处理单元时的执行时间可写作:N 个处理器下的执行时间据此得到加速比(speedup):加速比(speedup)由此立刻推出极限上界:极限上界(𝑁→∞N→∞)即:当存在不可并行的串行瓶颈f>0 时,任意增加处理器数量,整体加速比仍受 1/f 的硬上界约束(如下图例子)。
2025-09-24 21:00:00
1358
原创 当大模型LLM训练越过万卡:从 4D 并行到“吃掉气泡”,为什么LLM的训练体系结构正在被重写?
大模型训练不再是“把更多 GPU 堆上去”,而是“把时间线、数据与通信一同编排起来”;并行不是目的,稳定、可负担地把模型训到目标精度才是。围绕这个目标,我们看到从 DDP/FSDP 的“状态切分”,到 “多维协同”,再到“重叠通信、压缩激活、消化气泡、跨机房协同”的系统化优化,已经构成一张可复用的工程路线图。
2025-09-11 19:45:00
2016
原创 LLM 的最新AI加速器及优化算法 :GPU|ASIC/CHIPLET/PIM(Processing-in-Memory)|CIM/光子计算/神经形态(最全面的解读:从入门到放弃)
器件级不确定性上升(如 VRD,HBM/DDR 均受影响)要求系统级动态护栏:刷新/激活门限要按时-空-温度自适应,并在NoP/D2D/CXL各层加入弹性重试/擦写纠错/行黑名单等机制;HPCA’25 实测数据提示“静态一次性表征”(Static One-time Characterization)会显著低估风险(如下图所示[不同 DRAM 芯片/模块在读干扰阈值 (RDT) 上差异巨大,而且分布波动很大,说明“静态一次性表征”无法可靠反映实际最坏情况,系统需要动态/在线的防护机制],arXiv。
2025-09-06 14:30:00
1238
原创 一场关于未来“AI算力“的盛宴:Hot Chips 2025全景解读
每年夏末,全球最受关注的芯片大会之一——Hot Chips 热芯片大会,都会在美国斯坦福大学召开。今年的Hot Chips 2025于8月24日至26日在硅谷Memorial Auditorium隆重举办。历时三天,会议包括2场专题教程、2场重要主题演讲、一个高端讨论Panel、以及约25场技术报告,涵盖了从处理器设计、网络、光互连,到AI芯片、系统架构等领域。
2025-08-31 10:46:24
2452
原创 从“安全诉讼”说起:奖励模型(Reward Model)是LLM对齐的总阀门(全视角分析)
奖励模型(reward model)是指通过数据训练得到的“奖励”函数,用于评估智能体行为或模型输出与目标的契合程度(如下图可分为四类,arxiv在强化学习(RL)中,智能体通过最大化奖励函数累积值来学习策略;当环境的真实奖励难以直接获得或定义时,可以训练奖励模型来近似此奖励函数,从而为RL提供指导信号(如下图,arxiv在大型语言模型(LLM)的对齐领域,奖励模型通常指一个通过人类偏好数据训练的模型,用于对LLM的输出进行评分,以反映人类偏好或价值判断arxiv。
2025-08-29 19:30:00
1131
原创 2025年“LLM== 编译器”:Megakernel(vLLM / TensorRT-LLM / TVM-Relax / IREE / StableHLO / MoE / CUDA·Triton)
过去两周,几条系统层面的更新把“编译正在重塑大模型”的趋势按下了快进键:PyTorch 2.8官方上线了原生的高性能量化 LLM 推理,直接把 x86/Intel 平台上的低比特推理做成“开箱即用”的能力;这意味着在不换硬件的前提下,许多企业现有 CPU 集群也能吃到成本红利。
2025-08-27 20:30:00
1717
原创 2025年 MoE 架构再次崛起:为什么你看到的每个“超大模型”,都在偷偷用专家网络?
近几年,随着大型语言模型(LLM)朝着更高性能、更大规模扩展,Mixture‑of‑Experts(MoE)架构正从理论验证走向主流部署,成为构筑高效超大模型的重要支撑点(如下图)。MoE。
2025-08-25 17:23:42
2060
原创 DeepSeek V3.1:混合推理模型发布、代理能力强化与前沿表现(最全面分析)
2025年8月,来自中国的AI初创公司DeepSeek发布了最新的大型语言模型DeepSeek-V3.1,被称为其“迈向代理时代的第一步”。与以往版本不同,V3.1引入了混合推理架构:在一个模型中同时支持“思考”(即链式推理模式)和“非思考”(直接回答模式)两种工作模式,并可以通过特殊标记在二者之间自由切换。这一设计使V3.1成为真正的**“一体化”模型,统一了通用对话、复杂推理和代码能力,避免了以往需要单独的推理专用模型(如R1系列)与基础模型分离的局面。
2025-08-23 11:58:37
1901
原创 从“律师因AI编造案例被罚”谈起:大模型幻觉的根源与最新研究进展
1995 年,Stephen Thaler 展示了人工神经网络在连接权重随机扰动下如何产生幻觉和幻影体验Edu。作者构建了一个简单的 3–5–9 前馈模式联想器: 输入层:3 个节点(可表示 8 种三位二进制模式);隐藏层:5 个节点;输出层:9 个节点,对应 3×3 的像素图案。训练任务是: 每个三位输入模式 → 一个对称的 3×3 输出像素图案(如下所示):实验的关键步骤是随机剪枝连接权重,也就是逐渐将网络的连接置零,直到所有权重被“抹除”。
2025-08-22 16:15:00
1498
原创 LLM的自我中毒与去毒:9月1日将施行《人工智能生成合成内容标识办法》,这个必须了解
模型崩溃”指的是在生成式模型训练中,不断使用模型自身或其他模型生成的内容作为训练数据,导致模型逐代偏离真实数据分布,从而引发性能退化的问题(维基百科IBMShumailov 等人在《Nature》对该现象进行了系统描述,并指出其由三种误差累计导致: 统计近似误差(sampling error) , 功能表达误差(functional expressivity error) , 学习误差(learning error)(Nature例如,Emily Wenger在Nature的。
2025-08-14 16:51:57
1831
原创 从想象到交互:以 Genie 3 为起点的 2025 世界模型技术地图(盘点)
过去两年,视频生成模型从「好看」逐步走向「可用」。Genie 3 把这一趋势推到台前:它能把文本或图像提示转成可实时交互的 3D 世界,以 720p/24 fps 持续运行数分钟,并支持“可提示的世界事件”(如改变天气、加入角色),同时维持较强的对象与场景记忆一致性,虽仍处于限量研究预览阶段,但已明确展示了从被动视频到可控世界模拟器(即世界模型,World Model)的跃迁。Genie 3。
2025-08-11 17:15:56
1875
原创 GPT-5震撼登场!解读媒体热评与专家深度解析,AI进化新里程碑
OpenAI 的官方介绍页面提供了 GPT-5 的概述,包括其主要特性和应用场景(OpenAIGPT-5 是 OpenAI 迄今为止最智能、最快速、最有用的模型,具备专家级的思维能力。支持多模态输入(文本、图像、视频、音频),在健康、编程、创作等领域表现出色(如下图)。MultimodalCodingGPT-5 被广泛认为是 OpenAI 在人工智能领域的重要进展,尤其在编码、推理和健康领域表现出色。然而,在写作质量和通用人工智能的实现方面,仍存在提升空间。OpenAI 对安全性。
2025-08-08 17:23:37
1442
原创 OpenAI 开源 GPT-OSS:大型语言模型的开放时代正式来临!
OpenAI 的 gpt-oss 模型系列在技术架构、性能、安全性和开放生态等方面均具有重要意义:架构创新:采用 MoE 架构和高效的训练技术,提高了模型的计算效率。性能提升:在多个标准基准测试中表现优异,适用于多种应用场景。安全防范:通过严格的安全评估和机制设计,降低了模型被滥用的风险。开放生态:通过开放许可证和多平台支持,促进了 AI 技术的广泛应用。这一发布标志着 OpenAI 在开放 AI 领域的重要一步,可能对整个行业产生深远影响。
2025-08-07 16:51:36
1279
原创 阿里 Qwen-Image:开源 20B 模型引领图像生成新纪元,中文渲染超越 GPT-4o!
阿里巴巴通义团队于 2025 年 8 月 4 日正式开源了通义万相(Qwen-Image),这是一款 200 亿参数的多模态扩散 Transformer(MMDiT)图像基础模型,标志着通义系列在大型语言模型(LLMs)成功之后,向多模态 AI 领域的重大拓展。这一开源举措使其成为 DALL-E 2/3、Midjourney 和 GPT-4.1 等现有专有模型的直接竞争者,为业界提供了免费且可访问的高性能替代方案。Logo。
2025-08-06 16:24:35
1580
原创 2025年最新LLM post-training的新方法小总结
综上,2024 年以来 LLM 后训练技术在对齐和优化上取得了长足进展。一方面,新型强化学习范式(如 RLSF、AfD、迭代 DPO)摆脱了对人工偏好的完全依赖,探索了模型自我反馈和高效偏好优化的途径,为提升模型对齐性提供了更经济可扩展的方案。另一方面,围绕推理能力的专门训练使模型在复杂推理和多轮对话中表现出更强的一致性和准确性(通过显式或隐式的链式思维训练,以及引入逆向推理、注意力奖励等创新技术)。
2025-08-05 10:11:25
1543
原创 ACL 2025最佳论文全解析:四大突破揭秘,引领自然语言处理未来风向标!
在2025年7月27日至8月1日于奥地利维也纳举行的第63届计算语言学协会年会(ACL 2025)大会圆满落幕,作为自然语言处理领域最具影响力的顶级会议,今年的最佳论文奖再次汇聚了业界最前沿的创新成果。四篇获奖论文不仅在理论上取得突破,更在实际应用中展现出强大的推动力,涵盖了语言理解、生成、模型优化等多个关键方向。本文将带你深入剖析这四篇重量级论文,解读它们背后的技术亮点与未来潜力,帮你全面把握自然语言处理的最新风向和发展趋势。
2025-08-02 16:58:44
3096
原创 AI加速器揭秘:华为如何挑战英伟达的“AI霸主”地位?
随着大型语言模型(LLM)参数规模急剧增长,引入Mixture-of-Experts(MoE)稀疏专家架构以及超长上下文,对AI基础设施的算力、存储带宽和通信提出了前所未有的挑战。传统采用GPU的AI集群在计算密度、显存带宽、芯片间通信延迟等方面逐渐难以满足LLM推理需求,尤其是在应对多变的工作负载和严格延迟要求时存在瓶颈。为解决这些问题,论文提出了华为CloudMatrix下一代AI数据中心架构,并在实际产品级别实现为CloudMatrix384超节点(参考如下架构图)。
2025-07-31 18:09:32
3554
原创 从1.2万篇投稿到Outstanding Paper:一文读懂ICML 2025的研究全景
作者通过研究发现,新不确定性视角包括 欠确定性(Underspecification uncertainty):输入数据和任务定义不完整,导致模型在推理时多种解释并存,需表达任务或上下文不明朗性;交互式学习(Interactive learning):通过对话和反馈,模型动态减少不确定性,利用用户反馈获得补充信息,动态调整不确定性估计;输出不确定性(Output uncertainties):模型通过自然语言或语音丰富表达不确定性,超越单一数值标量,更直观、易于理解。
2025-07-29 16:00:00
2278
原创 LLM 首夺 IMO 金牌:技术解构如何LLM成为学霸
2025年Google DeepMind与OpenAI先后宣布其AI系统在IMO测试中达到了“金牌”级别的表现。DeepMind的Gemini Deep Think模型通过与IMO官方合作,正式获得金牌认证,而OpenAI则基于内部评估和独立数学专家的判定宣称其实验性推理模型也达到了金牌水平。这两起事件标志着AI在高难度数学推理领域的显著突破,预示着AI与人类数学家在未来有望展开更深层次的合作与竞赛。主流媒体从技术创新意义、AI通用推理能力跃升、以及对未来人工智能发展路径的启示等角度给予正面评价;
2025-07-26 17:25:37
1341
原创 黄仁勋眼中的下一个浪潮:让AI真正‘动’起来的Physical AI革命
Physical AI,又称“生成式物理 AI”(Generative Physical AI),是赋予自主系统(如机器人、自动驾驶车辆、智能工厂)在真实物理世界中“感知—理解—行动”闭环能力的技术范式NVIDIA。生成式物理 AI=生成式 AI+Embodied AI+Digital Twin生成式 AI(模型(如 GPT 和 Llama 等大型语言模型)在互联网上大量文本和图像数据上进行训练,以获得令人惊叹的人类语言生成和抽象概念能力。但对物理世界及其规律的理解仍十分有限IBM。
2025-07-20 18:39:56
2567
原创 从 P≠NP 的验证不对称到 Meta ⼤挖 AI 天才:AI 突破的下一个拐点?
Jason Wei 曾任职于 Google Brain(2020–2023),其间主导或参与了多项影响深远的研究工作,包括:Chain‑of‑Thought(思维链)Prompting:提出通过在提示中加入“chain-of-thought”示例,使大模型展现分步推理能力,从而在算术、常识推理和符号操作等任务上达到更高表现 (arXiv同时,Jason Wei 对 self-consistency 系统化探索,也为模型推理能力的发展奠定了基础 (arXiv。
2025-07-18 18:32:38
1110
原创 从 Gemini 2.5 技术报告看大模型竞速:核心技术路线全景对标
Gemini 系列自 2023 年底的 1.0 起步,经由 1.5 的长上下文与 MoE 创新,至 2.0 的 Agentic 功能,再到目前最强的 2.5 Pro/Flash/Flash-Lite 家族,持续在性能、思考能力与多模态场景上突破极限。以下内容对比分析了当今主流大型语言模型(LLM)在核心技术路线上的异同,涵盖西方主流模型(OpenAI 的 GPT-4、Meta 的 LLaMA 系列、Anthropic 的 Claude)及中国代表性模型(百度 ERNIE、阿里巴巴 Qwen 系列)。
2025-07-15 20:45:00
1394
原创 避免Grok 4“翻车”:AI厂商的偏见治理路线图
近年来,“混合人机众包去偏”(综上,主流 AI 厂商在工程实践中,均采用“多阶段、多角色、多工具”组合拳:从数据预处理到模型训练阶段的公平性优化、再到推理阶段的安全过滤与人机协同审核,最后通过红队对抗、在线监控与持续迭代,构建起对抗偏见与仇恨言论的全生命周期解决方案。Grok 4 发布仅数日,就有记者通过精心设计的提示词,让其生成所谓“好种族”名单,将“白人、亚洲人、犹太人”等列为“优秀民族”,与其他主流 AI 聊天机器人(如 ChatGPT、Google Gemini 等)的拒绝态度形成鲜明对比。
2025-07-14 17:38:59
1359
原创 颠覆编程效率:全面掌握 “Vibe Coding”——AI 对话式编码最佳实践、工具与资源全解析
本文聚焦“Vibe Coding”——一种以自然语言提示驱动 AI 生成与迭代代码的新兴编程范式。全文结构如下:解析 Vibe Coding 的定义、核心流程及对传统编码效率的颠覆性提升;最佳实践:总结十条实战经验;主流与国产工具对比;中国开发者生态:剖析国内 AI 编程工具使用现状、用户分布与市场竞争格局;汇总中英文教程,助力读者系统入门并持续进阶。通过本文,你将掌握 Vibe Coding 的落地思路、工具选型指南与学习路径,快速搭建高效安全的 AI 编程闭环,实现生产力飞跃。
2025-07-13 17:50:12
2424
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅