- 博客(3840)
- 收藏
- 关注
转载 OpenAI史上最大失误:MIT学霸出逃!美国AI界「三朝元老」
如果运气不好,后果可能极为严重。或者,你理想中的那个更好的自己,会为之骄傲的事情。21岁从MIT的计算机专业毕业后,放弃巨头offer,他加入朋友初创公司Linked Language,首次体验「狼性」创业文化。真正的价值,是你能不能在朋友心中、在自己心里,都觉得「我做了一件了不起的事情」。当然,当时学界很多人还在批评OpenAI,说「你们只是在堆GPU,太粗暴,没技术含量」。对Tom来说,Grouper的吸引力在于:本来,他非常笨拙、害羞,特别希望有个平台能让他在朋友陪伴下去认识女生,这样会更安全。
2025-08-21 11:40:22
2
转载 OpenAI创始人力推,火爆全网的Vibe Coding,国内第一本书来了!
本书凝结着他们深耕行业的观察洞见、躬身实践的经验沉淀与传道授业的教学智慧,堪称AI时代编程教育的思想结晶。然而,真正的变革需要让更多人了解并掌握这一创新方式,因而,他们合著了本书,希望通过系统化的知识梳理与清晰易懂的阐述,将Vibe编程的理念和方法传递给更广泛的群体。在过去的一年里,从记者到老师,从产品经理到家庭主妇,无数零编程基础的普通人正在用Vibe编程创造能解决实际问题的应用。你无须记忆烦琐的语法规则,也无须深陷复杂的代码调式,只需通过自然语言与AI对话,即可将脑海中的灵感转化为可运行的应用。
2025-08-20 13:01:02
18
转载 一句话,性能暴涨49%!马里兰MIT等力作:Prompt才是大模型终极武器
总处理效应为0.0164,关键的是,当DALL-E 3用户编写的提示应用于DALL-E 2时,性能较原始DALL-E 2提示无显著提升(Δ=0.0020;上行展示DALL-E 2参与者的原始提示,在DALL-E 3上生成更高保真度的图像,证明固定提示下模型升级的效果;每位受试者被随机分配三种不同性能的模型:DALL-E 2、DALL-E 3,或自动提示优化的DALL-E 3。将DALL-E 2参与者的原始提示与DALL-E 3参与者编写的提示(均在DALL-E 3上评估)进行对比。
2025-08-19 13:00:41
6
转载 拿到OpenAI全职offer的经历(毫无保留)
如果你已经知道招聘经理是谁,就去 Google Scholar 上查查他们的学术主页,读读他们的论文,看看他们的推特,观看他们做过的演讲或报告。事实上,你与任何公司或其代表的每一次互动,都是展示你个人品质、能力和热情(无论是积极还是消极)的机会,这种情况从第一次交流开始,一直到你签署 offer 当天都适用。这可能会有些尴尬,因为有些问题你可能无法回答,或者面试官的直觉与你不同,甚至他们已经知道你的方法行不通,但这是机密所以不能告诉你……他们会向你介绍面试流程,告诉你招聘经理是谁、所在团队是做什么的。
2025-08-18 11:40:30
28
转载 「我怕活不到毕业」!AI引爆美国退学潮,18岁PPT式创业震惊YC之父
相反,在2001年和2008年的两次经济衰退及其后几年里,就业人数出现了明显下滑,而在这两次之间的年份中,制造业就业则相对稳定。另一方面,哈佛和MIT顶校学生担心AGI对人类构成生存威胁,辍学加入AI安全领域的非营利机构和初创企业,希望拯救人类。我们认为,在下一轮经济衰退中,AI工具和应用将在职场中迅速且广泛地被采用,这可能导致大量以非重复性脑力任务为主的职业被替代。「如果你的职业将在2030年前被AI替代,那你现在花在大学的每一年,其实都是在压缩你短暂的职业生涯。而且这个领域太重要了,值得我全职投入」
2025-08-17 23:43:11
14
转载 守护人类还是财富自由?AGI 将何去何从。。。
当同行沉迷于RLHF(人类反馈强化学习)时,Anthropic已升级到RLAIF:让AI自我批判与修正,效率超人工千倍——但若「自查机制」有盲区,等于「蒙眼开火箭」。如果我们未来拥有安全对齐的超智能,那么就像Dario所说,我们将拥有一群在数据中心工作的天才,推动科学、技术、教育和数学的积极变革。在某个特定职位上,试用了1到3月,最后决定雇用某个人,最终发现实际上他是机器而不是人,那AI就通过了经济图灵测试。但这也意味着,在一个劳动几乎是免费的世界里,无论你想做什么,都可以让专家为你做。
2025-08-16 13:00:47
11
转载 颠覆教科书!清华教授团队突破40年算法瓶颈,斩获STOC最佳论文
因此,如果想设计一个解决最短路径问题的最快算法,合理的做法是先找到最近的点,然后是次近的点,依此类推。迪杰斯特拉的算法会利用之前已探索的区域,决定下一步通过扫描这个区域的「边界」——也就是所有与边界相连的节点。B点距离1单位,C点距离5单位。他拉来三位研究生帮忙细化细节,几个月后,他们取得了部分成功——开发出了一种算法,打破了任意权重下的排序瓶颈,但仅适用于所谓无向图。从起点开始,逐步探索网络中到每个点的最短路径——这种方法很有效,因为知道到附近节点的最短路径,能帮助你找到到更远节点的最短路径。
2025-08-15 13:00:50
17
转载 编程神器Cursor重磅发布 1.0 版本!编程圈要变天
近年来,她专注于大模型训练、自然语言处理、模型优化等前沿技术,具备敏锐的行业洞察力,热衷于分享行业新动态,向大众提供有价值的知识内容,帮助更多的人快速掌握AI领域的前沿知识。的作者是未来智能实验室的团队成员以及代晶,他们编写本书的初衷就是希望帮助开发者在实际开发中应用AI工具优化工作流程、提高代码质量和解决复杂问题,让烦琐编程智能化。,通过结合Cursor和Copilot,展示如何快速生成跨平台移动应用的代码,实现高效的UI布局,以及优化Vue.js和React应用的开发流程。
2025-08-14 13:00:42
12
转载 建议所有博士都去学一遍,这次真的赢麻了!
这些模块就像积木一样,可以按照自己的想法插入到模型中,构建出自己的模型结构。而且模块都是由大牛设计,性能非常强,能大大减少我们的工作量与模型复杂程度。①模块代码.py ,②论文原文.pdf ,③requirements.txt(一键环境搭建),④使用说明.md。28个注意力机制模块、21个卷积模块、16个特征融合模块、11个频域模块、8个下采样模块。10个热门方向,共计100个即插即用模块。扫码下载全部100个即插即用模块。扫码下载全部100个即插即用模块。扫码下载全部100个即插即用模块。
2025-08-13 13:01:00
13
转载 硬核拆解大模型,从 DeepSeek-V3 到 Kimi K2 ,一文看懂 LLM 主流架构
它可能是目前这一代中最大的 LLM(截至本文撰写时),在不考虑尚未发布的 Llama 4 Behemoth、闭源模型以及架构不同的 Google 1.6 万亿 Switch Transformer(其为编码器 - 解码器模型)前提下,Kimi K2 几乎是无出其右的。SmolLM3 或许不像本文其他提到的大模型那样广为人知,但作者认为它依然值得纳入讨论,因为该模型在仅有约 30 亿参数的体量下,展现出非常出色的建模性能,定位介于 Qwen3 的 17 亿参数模型与 40 亿参数模型之间,如下图所示。
2025-08-12 13:00:54
20
转载 2025未来科学大奖揭晓!每人奖金约720万元
徐星和周忠和发现并研究了一系列从恐龙到鸟的过渡物种。他们通过系统发育分析、解剖学研究和功能推测,从形态和功能上建立了恐龙和鸟类之间的链接,为鸟类是兽脚类恐龙的一个演化支系提供了确切证据。基于这些关键发明,卢博士带领团队成功开发了新一代NVM存储产品,并为非易失性存储技术的未来奠定了技术基础,进一步推动了人工智能、移动通信、云计算及边缘计算等领域的广泛应用。许晨阳、林本坚(Burn J. Lin)、王小云、彭实戈、施敏(Simon Sze)、莫毅明(Ngaiming Mok)、何恺明、孙剑、任少卿、张祥雨。
2025-08-11 13:00:51
19
转载 即插即用!轻松涨点,大佬的模块真好用!
这些模块就像积木一样,可以按照自己的想法插入到模型中,构建出自己的模型结构。而且模块都是由大牛设计,性能非常强,能大大减少我们的工作量与模型复杂程度。①模块代码.py ,②论文原文.pdf ,③requirements.txt(一键环境搭建),④使用说明.md。28个注意力机制模块、21个卷积模块、16个特征融合模块、11个频域模块、8个下采样模块。10个热门方向,共计100个即插即用模块。扫码下载全部100个即插即用模块。扫码下载全部100个即插即用模块。扫码下载全部100个即插即用模块。
2025-08-11 13:00:51
13
转载 数学大神正在遭遇「学术寒冬」,美国顶尖数学圣殿IPAM科研经费全面暂停!!!
它的特色是举办为期三个月的专题项目(Long programs),围绕特定跨学科主题,通过研讨会、自主研讨与非正式交流,促成数学、科学及工业领域不同资历的研究者深度互动。NIH在2024年为UCLA提供了超过5亿美元的资金。作为NSF资助的六大研究所之一,IPAM以独特的跨学科项目融合创新,曾催生了「压缩感知」等硬核技术,并为年轻数学家提供了施展身手的舞台。今年早些时候,IPAM已获得新一轮五年资助的初步批准,原本发放的金额就相较以往大幅缩减,若制裁持续,其应急资金最多仅能维持数月的运转。
2025-08-10 13:00:32
12
转载 5亿播放量,这个视频太邪乎,全网爆火!
画面中,AI生成的威尔·史密斯正吃着意大利面,但动作非常僵硬,咀嚼过程不自然,甚至还有面条穿过嘴巴的诡异现象,总之非常诡异又让人上头。但如果你只需要模仿一个本来就只有480p的监控摄像头画面,甚至画面里还有抖动、拖影、压缩马赛克,这些瑕疵反而掩盖了AI效果的缺陷。想不到哇想不到,AI视频生成从诡异画风到以假乱真,从3s一闪而过到10s也手拿把掐,也就才过了2年时间——,现在顶尖水平的AI,国外Veo3、国内Kling等,单条视频最长时长不超过10s。
2025-08-09 13:00:27
37
转载 ICML 2025 何恺明团队新作:高度压缩的Tokenizer可直接用于图像生成
通过展示高度压缩的标记器具有固有的生成能力,该研究为高效、灵活的图像生成系统提出了新的方向。这篇由麻省理工学院和Meta FAIR的Beyer等人撰写的论文挑战了这一范式,通过证明高度压缩的一维标记器无需单独训练的生成模型即可生成图像。这项研究基于TiTok(一维标记器)架构,该架构将图像表示为仅32个离散标记的序列——与通常生成数百或数千个以空间网格排列的标记的传统二维标记器相比,这是一个极高的压缩比。传统的二维标记器,如VQGAN中使用的,会生成空间排列的标记网格,从而保留局部图像结构。
2025-08-08 11:40:32
16
转载 同样的实验室(如浙大计算机),硕士们进了大厂拿高工资,为什么博士却要挤破头进高校?
医疗花费个人只需支付20%,学校有自己的校医院,但是水平不咋地,大病基本都会转诊到外面医院,小病有个几十块钱,也能治好了。2. 住房:没有太大福利,房改之后发放货币补贴了,学校的周转房虽然租金便宜,只要3元一平米,但是不能长住,因为入住期间的货币补贴将为15%。最重要的,我在从前的回答里也说了,我有社交恐惧症,当老师是最好的选择,不上课时候可以永远不和人说话,太美妙了。所以现在高校教师的收入已经在开始逐年改善了,个人年收入从15万到25万不等,项目做的多的,我也见过不少年入50万以上的。
2025-08-07 11:40:43
22
转载 拒绝小扎6年15亿美元天价offer!硅谷最狂AI巨星身份曝光!
另一方面,Thinking Machines Lab“钱景”也属实不错:刚刚完成的20亿美元种子轮融资,不仅刷新了AI领域的融资纪录,也成为有史以来规模最大的种子轮融资。公司估值也飙升至120亿美元。在数周的时间里,他的目光锁定在这家约50人规模公司里的十几名核心员工身上,试图劝说他们跳槽,不过最后的结果是碰了一鼻子灰……不过在2023年,ChatGPT让OpenAI身价飞升之后,塔哥还是成为了OpenAI的一员,此后参与了GPT-4o和GPT-4.5的预训练,以及o系列的推理研究。
2025-08-06 13:01:00
10
转载 2025最新即插即用!把大牛的模块缝合到自己的paper里!轻松涨点
这些模块就像积木一样,可以按照自己的想法插入到模型中,构建出自己的模型结构。而且模块都是由大牛设计,性能非常强,能大大减少我们的工作量与模型复杂程度。①模块代码.py ,②论文原文.pdf ,③requirements.txt(一键环境搭建),④使用说明.md。28个注意力机制模块、21个卷积模块、16个特征融合模块、11个频域模块、8个下采样模块。10个热门方向,共计100个即插即用模块。扫码下载全部100个即插即用模块。扫码下载全部100个即插即用模块。扫码下载全部100个即插即用模块。
2025-08-05 13:00:27
15
转载 ICML史上首次,中国内地高校教授出任董事!
他还多次担任CVPR、ICCV、NIPS/NeurIPS、ICML、IJCAI、AAAI和ICLR的资深领域主席、领域主席,曾任IEEE T. PAMI编委、ICPR 2022共同程序主席,现任IJCV、Optimization Methods and Software、自动化学报编委。其主要研究领域涵盖机器学习与统计方法的创新,以及大规模计算系统与架构的开发,旨在解决人工、生物及社会系统中涉及高维、多模态及动态可能世界的自动化学习、推理与决策问题。其中,3260篇论文被接收,录用率为26.9%。
2025-08-04 22:20:26
38
转载 唯一指定C位,AI「国家队」又赢麻了!秒懂Hinton伦敦腔,老外狂点赞
总之,讯飞实打实地经历了一场场真金白银的考验——从北京冬奥会、进博会,再到联合国会议,无论是多么高规格的国际场合,它的AI同传技术都能carry全场,在每一次实战中都获得了满场称赞。演讲结束后,现场爆发出热烈的掌声,可以说,一方面是出于现场观众对于AI教父精彩演讲的反响,另一方面,也是对于旁边这位由AI「国家队」科大讯飞打造的「AI同传」的肯定。而这背后,都是讯飞多年来广泛积累的数据在做支撑——他们已经为全球超过40万场国际会议做过同传,数据维度广,最不缺的就是覆盖多语种、多场景的真实语料,堪称行业翘楚。
2025-08-02 13:00:53
25
转载 DeepSeek下一代技术,梁文锋署名论文获ACL2025最佳论文奖
研究通过实验验证,无论是新创概念还是现有概念(涵盖 10 个领域的 500 个概念),LLMs 生成的样本都会偏离统计平均值,向其认为的 “理想值” 偏移,且这种现象在 15 种不同模型中均显著存在。特别是在推理相关的基准测试上,DROP提升了0.042,GSM8K提升了0.034,显示出稀疏注意力在强制模型聚焦关键信息方面的独特优势。研究了大型语言模型的“弹性”,指模型经过对齐训练(让模型符合人类价值观、减少有害输出)后,很容易因为后续的微调而变回预训练时的状态,就像弹簧被拉伸后会反弹一样。
2025-08-01 13:01:02
43
转载 国家杰青,加盟西湖大学
修宇亮,1993年生,山东烟台莱州人,2016年本科毕业于山东大学数字媒体技术专业,2019年硕士毕业于上海交通大学计算机科学专业,2019年至2024年先后在美国南加州大学(USC)和德国马克斯普朗克研究所(MPI-IS)攻读计算机博士学位,其研究方向为数字人(Digital Human),计算机视觉及图形学(CV+CG),可控多模态内容生成(Controllable Multimodal AIGC),搏击智能(AI for Martial Arts)。季红斌,西湖大学医学院教授、博士生导师。
2025-07-31 13:00:35
30
转载 最高683分!这所高校投档线超多所985
今年福建福耀科技大学面向福建、河南、江西、湖南、广西五省(自治区)共招收50名物化类优秀本科生,其中福建省17人,河南省9人,江西省9人,湖南省8人,广西壮族自治区7人。:最高分640分/位次1200,投档分数线 617分/位次4400;:最高分657分/位次1107,投档分数线629分/位次4867;:最高分635分/位次1233,投档分数线616分/位次3234;:最高分649分/位次2299,投档分数线635分/位次4621。:最高分683分/位次857,投档分数线658分/位次5456;
2025-07-30 13:00:42
19
转载 年薪两百万,Claude团队新部门火热招聘中
了解该岗位研究方向的最好方式是阅读Anthropic可解释性部门最近的研究,包括:GPT-3、基于电路的可解释性、多模态神经元、规模法则、AI 与计算、AI 安全中的具体问题以及从人类偏好中学习。简单理解一下,AI的“人格”指的是它既可以扮演友好的伙伴,也可以扮演讽刺的反派角色,这些性格是怎么被激发出来的?研究AI的精神状况,其实是用精神病学的术语作为参考,对AI的底层逻辑(神经网络)进行拆解和分析,找出AI不符合预期表现的原因,而不是简单地用规则过滤进行修补。(表现出不符合预期,甚至不合规范的行为)
2025-07-29 13:00:41
27
转载 过于优秀?大三本科生逆天“学术履历”引争议,发表7篇SCI,担任顶刊审稿人...
他在PPT展示过程中未对已经发表的7篇论文的类型进行详细标识,引发了网友的误解,“在学校奖项的评选过程中,我的研究论文和综述已得专项满分。PPT中还列举了在2024年期间,该同学以第一作者、共同作者、唯一通讯作者等身份参与的十余篇论文,涉及“柳叶刀”“自然”“JAMA”在内的众多学术界顶级期刊和杂志。
2025-07-28 11:41:00
57
转载 沐神B站更新了,手搓语音大模型,代码全开源
举个例子就是,如果想要教一个徒弟同时会拳脚功夫,但师傅一次又教不了,那就同时教两个徒弟,一个学打拳,一个学踢腿,然后让他们俩天天互相打,打着打着两个就都会拳脚功夫了。最终,这个多模态模型就完成了,不仅可以完成简单的文本转语音,还能实现更复杂的任务,比如让它写一首歌并唱出来,再加上配乐。然后要让模型很好地理解和生成声音,就需要利用模型的文本空间,将语音的语义尽量地映射回文本,当中需要大量的数据支持。传统的语音和文本模型之间相互独立,李沐老师就想,欸,能不能将两者结合起来,直接让LLM用语音进行沟通。
2025-07-27 13:00:31
36
转载 2025软科中国大学计算机科学与技术排名出炉|浙大第二,哈工大第三,北航挺进前五!
该排名基于独特的“三层次专业竞争力评价框架”,即学校—学科—专业,设置了五大类指标:学校条件、学科支撑、专业生源、专业就业和专业条件,共27项具体指标,对全国1200多所高校的6万多个本科专业点进行了动态监测与评估。该体系设立了办学层次、学科水平、办学资源、师资规模与结构、人才培养、科学研究、服务社会、高端人才、重大项目与成果、国际竞争力等十个评价模块,细化为37个评价维度,涵盖104项评价指标和392个评价变量,构建了对中国大学办学水平的全方位、动态化评估体系。重庆邮电大学(第42名)、 南京邮电大学。
2025-07-26 11:41:05
94
转载 何宜晖:英伟达顶级工程师,西安交大校友
他提到,这段经历让他“有幸与一群才华横溢的团队并肩作战,共同探索前沿AI技术”,并坦言“受益匪浅”。,此前曾在OpenAI就职,DALL-3、GPT-4核心贡献者,本科毕业于清华,硕博毕业于耶鲁。如今,作为英伟达推出的最先进世界模型,Cosmos已正式发布,并宣布可免费用于商业用途。,2023年斯隆奖得主,Hinton手下的助理教授,本科到博士都在多伦多大学。,本科就读于哈佛大学,导师为著名数学家丘成桐教授,曾在微软研究院工作。,本科就读于北京大学,博士毕业于耶鲁大学,曾在Meta、IBM就职。
2025-07-25 11:40:33
65
转载 刘强东入局机器人,连投3家具身智能公司
硬件性能方面,今年6月,千寻智能正式发布全力控人形机器人Moz1:全身配置26个自由度,搭载全球功率密度最高的一体化力控关节,配备高精高速WBC(全身控制)算法,负载自重比达1:1。正如王兴投机器人,从2020年左右的“业务需求导向”,到现如今的“技术范式导向”,竞争对手刘强东,在更前瞻式、未来式的判断上,倒是英雄所见略同了。目前,大脑方面,逐际动力发布了LimX VGM,利用人类操作视频数据实现机器人操作的技术创新,全过程零真机样本数据,可实现多平台泛化。由京东领投,中国互联网投资基金、浙江省科创。
2025-07-23 13:00:26
55
转载 Meta超级天团亮相:3亿美元年薪,50%是中国人
中科大少年班校友:o3、o4-mini、GPT-4.1和GPT-4o的共同创造者,此前在OpenAI领导感知团队,在Gemini中共同领导多模态工作。,北大计算机系校友:GPT-4o、4o-mini、o1-mini、o3-mini、o3和o4-mini的共同创造者,此前在OpenAI领导后训练团队。,清华校友:ChatGPT、GPT-4、所有mini模型、4.1和o3的共同创造者,此前在OpenAI领导合成数据工作。曾获得MIT电气工程与计算机科学硕博学位,入职Meta刚1个月,专攻基础多模态模型。
2025-07-22 13:00:53
65
转载 Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了
研究者从零开始预训练模型,采用基于Llama的Transformer架构,参考了SmolLM开源模型的配置,在FineWeb-Edu的验证集和六个few-shot基准测试集上进行了评估。LLM在处理文本时,会把句子拆成一个个token,不过,像「的」「是」「在」这种词,并不需要多高深的推理,只需要一次前向传播就够了。但这样的代价,就是内存和算力:模型会越来越慢,越来越贵。结果证实,在少了25%训练FLOPs的情况下,MoR模型(𝑁𝑟=2)仍然实现了更低的验证损失和更高的准确率,超越了标准和递归基线。
2025-07-21 11:40:33
35
转载 宇树王兴兴,冲刺A股上市
另外在产品方向,宇树科技不仅涵盖人形机器人、灵巧手等多个领域,也在积极争取自主研发所有的核心零部件、电机、控制系统等,并构建了完整的交付、制造和售后体系。作为国内首个正式对外发布并零售的高运动性能四足机器人,Laikago让宇树崭露头角,市场第一次认识到了,这家看似初出茅庐的新兴企业,在技术上也毫不逊色。从“资本热”到“产业热”的转折,其中的领军人物,也就是王兴兴,在一众名校履历和天才少年中间,不显山不漏水,成为了聚光灯下最瞩目的明星。一个月之后,宇树科技就正式宣布,从即日起更改为股份有限公司。
2025-07-20 13:01:08
65
转载 这就是年入500万的简历? 干翻硅谷一圈AI创业公司
除上述几家外,还有 AI 图形编辑平台 Playground AI、语音 AI 代理开发 Leaping AI、GTM 团队的智能销售平台 Fuse AI、智能体工程平台 Fleet AI、视频 AI 公司 Ponder.ai。前几天在 X 平台上发布的帖子,其开篇写道:“有一个名叫 Soham Parekh 的印度人在同时为 3-4 家初创公司工作。事件发酵后,Parekh 在 X 上宣布了自己的最新雇主——Darwin Studios,据他称这也是目前其唯一任职的公司。Parekh 的团队。
2025-07-19 13:00:20
32
转载 Grok 二次元「小姐姐」,攻陷了整个互联网
X 网友 Anthony Franco 发文表示,此次推出的「伴侣」,一个是 Ani,这个女性被设计成挑逗又轻浮的形象,另一个是 Rudy,这是一个粗鲁的卡通人物,甚至会想让联想到《银河护卫队》里的「火箭」角色。在测试时,编辑部选择的语言是中文,不外乎出现了经典外国人念拼音式的中文发音,用词也非常拗口、不口语化,非常浓重的大模型生成的文本味,但 90% 的内容是可以听懂的,而且在发音时口型与说话内容适配得很好,流畅度很高。开发者现在仅需通过提示词,就能生成一个完整的、可玩的游戏。
2025-07-18 13:01:11
43
转载 华南理工校友,她创造了4o吉卜力爆款,加盟Meta
另外,刘璐在读书期间还一直和国际上的行业专家开展合作研究,例如新南威尔士大学的Fethi Rabhi教授和Lina Yao教授,以及加拿大麦吉尔大学的William Hamilton教授、Google Brain的Hugo Larochelle和美国华盛顿大学的Tianyi Zhou。更早之前,刘璐在谷歌工作,还曾参与过。:曾在谷歌大脑任职,提出过CoT、指令微调,还发表了有关大模型涌现能力的论文,目前仍然在OpenAI任研究员,也是o1系列模型的功臣之一。
2025-07-17 13:00:37
27
转载 LeCun被架空?Meta 2万亿「巨兽」宣布闭源。。。
考虑到这场AI竞争中,中美之间的特殊关系,老美那边可能要集体转闭源了,即使是谷歌DeepMind都要求研究员的成果必须在半年后才能发布,否则就开除。知情人士透露,Meta已经完成了其2万亿参数「巨兽」Behemoth模型的训练工作,但由于内部表现不佳,推迟了该模型的发布。纽约时报透露,Alexandr Wang在内的一些核心实验室成员,正在讨论放弃Meta的开源模型,转而开发闭源模型。知情人士称,在会议上他表示,他所在的小型团队的工作将是私密的,但整个 Meta AI部门现在都将致力于实现超级智能。
2025-07-16 13:00:18
33
转载 Mamba作者再发颠覆性论文H-Net:冲向无Tokenizer时代!
最后,在 tokenization 启发式方法效果较弱的语言和模态(如中文、代码或 DNA 序列)中,H-Net 相比 tokenization 流程的优势进一步扩大(数据效率较基线提升近 4 倍),这证明了真正端到端模型从未经处理数据中实现更优学习和扩展的潜力。即使使用 Llama3 tokenizer,本文发现 H-Net(2-stage)在中文和代码处理上,比 BPE Transformer 和 H-Net(space)具有更好的扩展性(图 5),并且在衰退阶段后实现了更低的压缩率(表 4)。
2025-07-15 22:40:27
61
转载 “年薪1亿美元”AI研究员,中科大少年班天才
在伊利诺伊大学厄巴纳 - 香槟分校获得博士学位,师从AI视觉一代华人教父黄煦涛,打下了扎实的学术基础。他的研究领域主要包括深度学习和高性能计算。他本科毕业于中国科学技术大学少年班计算机科学专业,本科期间在大大小小的比赛中初露头角,拿下了。在加入谷歌前,他曾在微软亚洲研究院、旷视研究院、Adobe、Jump Trading。、百度美国研发中心、英伟达都实习过,从底层框架到高效算法,再到视觉应用,。近日,一个在中文互联网几乎隐形的名字,却让硅谷两大AI巨头撕破脸皮。浙江慈溪人,高二就被招去中科大少年班,。
2025-07-14 13:00:31
49
转载 OmniGen2开源神器,一键解锁「哆啦 A 梦」任意门
随后,随着 Gemini 2.0 Flash 和 GPT-4o 等闭源多模态模型的相继发布,构建统一图像生成模型成为当前最受关注的研究与应用方向之一。同时,先前的基准使用 CLIP-I 和 DINO 指标来评估上下文生成的图像的质量。然而,对于图片上下文参考生成(in-context generation) 任务,目前还缺乏完善的公共基准来系统地评估和比较不同模型的关键能力。反思数据由文本和图像的交错序列组成,首先是一个用户指令,接着是多模态模型生成的图像,然后是针对之前生成输出的逐步反思。
2025-07-13 13:00:35
33
转载 毕业7年,身价破亿!
根据《The Pragmatic Engineer》和levels.fyi的数据,有五年以上经验的程序员,如果能进OpenAI、Anthropic或者像Jane Street这样的AI重仓对冲基金,年薪中位数可以轻松破40万美元(约合人民币290万+)。要知道,一直以来,OpenAI员工拿到可不是传统的股票期权,而是一种叫「利润单元」的东西,说白了就是:你拿不到股份,但公司赚钱你能分红。数据显示,大科技公司对应届生的招聘减少了25%,向来灵活的初创公司也收紧入口,对应届生的招聘减少了11%。
2025-07-12 13:00:28
48
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人