自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(495)
  • 收藏
  • 关注

原创 七个月翻一番!AI Agent能力飙升,METR报告揭示指数级进化规律

报告指出:在软件开发、数学竞赛、科学问答等任务中,agent已能完成相当于人类花费50–200分钟才能完成的任务,并且这种能力还在快速提升——大约每2–6个月就能翻一番。Agent能力每7个月翻一番!根据非营利研究机构METR最新发布的报告,这一规律已在9项基准测试中得到了验证。这些任务涉及编程、数学、计算机使用、自动驾驶等领域,表明大模型正在不断向着高度自动化迈进。报告指出:在软件开发、数学竞赛、科学问答等任务中,agent已能完成,并且这种能力还在快速提升——大约每就能。

2025-07-16 21:11:36 411

原创 完全透明开源的共情语音大模型,三阶段训练,四大模块实现端到端对话

现在,紫东太初团队联合长城汽车AI Lab直接把整个技术栈都开源了,推出完全透明开源的端到端共情语音语言大模型OpenS2S。GPT-4o、Gemini这些顶级语音模型虽然展现了惊人的共情对话能力,但它们的技术体系完全闭源。现在,紫东太初团队联合长城汽车AI Lab直接把整个技术栈都开源了,推出完全透明开源的端到端共情语音语言大模型OpenS2S。OpenS2S的核心在于提供一个高效、低成本构建共情语音系统的新范式。

2025-07-16 21:10:39 310

原创 AI+主数据:为什么你的数据还在“各自为政“?

传统的主数据管理,就像是让一群人工编辑去整理图书馆。他们需要逐本逐页地检查、分类、整理。工作量大,效率低,错误率高。AI的出现,完全改变了这个游戏。自动识别和清洗数据。它能瞬间发现"苹果公司"和"Apple Inc."其实是同一家公司,能自动修正"138****1234"这种不完整的电话号码,能识别出哪些是重复数据、哪些是异常数据。智能关联不同系统的数据。它能像侦探一样,通过各种线索(姓名、电话、地址、交易记录等)找到散落在不同系统中的同一个客户信息,然后把它们完美地拼接在一起。实时监控数据质量。

2025-07-16 21:07:33 372

原创 OpenAI前员工万字爆料刷屏!Codex发布会前紧急部署、已有63 万PR!工程混乱靠自造轮子;建议创始人去AI大厂当螺丝钉!

这篇回顾写得真诚动人,却也难掩几分“精心修饰”的味道:聚焦高光时刻、冲刺节奏与团队默契,却几乎避开了战略失误与体制性障碍。有人在评论区这样说:“我绝不会在公开场合批评前雇主,这只会伤害自己的职业前景(说好话反而加分)。据说 Altman 报复心强,这对 OpenAI 更是加倍适用。况且他们天天刷社交媒体!相比叙事中的热血与赞美,他提到的技术细节反而更值得玩味:代码风格无序、基础设施拼贴、内部工具五花八门——一家顶级 AI 实验室,在极速扩张中也无法幸免于“用脚投票”的架构演化。

2025-07-16 21:07:02 359

原创 重塑记忆架构:LLM正在安装「操作系统」

在对一本书进行总结时,可以通过递归的方式将每一章分别进行摘要,得到中间摘要,然后再对这些中间摘要进行进一步总结,依此类推。这种方法可以应对远超模型上下文长度的输入,但其操作流程较为繁琐,且容易在多轮摘要过程中引入和累积错误。3、

2025-07-16 21:06:31 656

原创 天塌!OpenAI两位o系列大佬Jason Wei和Hyung Won Chung被曝离职,疑似发推回应:要超越老师,须强化自己

模仿当然有益,且起步必须。但当你启动得够稳健之后,

2025-07-16 21:05:53 511

原创 VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

部分研究提出采用 Jacobi 解码替代传统的自回归解码,以期提升推理效率。然而,由于 Jacobi 解码往往需要较多迭代次数,其加速效果在实践中较为有限。本文第一作者为香港科技大学(广州)机器人系一年级博士生宋文轩,主要研究方向为VLA模型,共同第一作者是来自香港科技大学广州的研究助理陈家毅,项目leader为浙江大学和西湖大学联合培养博士生丁鹏翔,他们也是具身智能领域开源项目OpenHelix以及LLaVA-VLA的研究团队。

2025-07-15 16:06:45 609

原创 碾压DeepSeek V3!开源AI Agent专属模型,1万亿参数、工具使用能力超强

Kimi-K2采用了MuonClip优化器,这是在Muon优化器基础上改进而来的,通过qk-clip技术解决了训练中注意力logits爆炸的问题,确保了大规模LLM训练的稳定性,在15.5Ttoken上完成了预训练,且过程中没有出现训练峰值。根据月之暗面公布的测试数据显示,Kimi-K2在SWE-bench的单次测试中达到了65.8分,碾压了DeepSeek最新开源的V3-0324模型38.8分,以及OpenAI闭源模型GPT-4.1的54.6分。在模型训练流程上,Kimi-K2进行了独特的技术创新。

2025-07-15 15:59:03 241

原创 强化学习也遇到了“天花板”?Andrej Karpathy构建了一个新算法

大神Karpathy提出了一种超越当前RL范式、更接近人类学习机制的新思路RL还行不行?表面上很风光,但真实情况怎样呢?大神Karpathy提出了一种超越当前RL范式、更接近人类学习机制的新思路。

2025-07-15 15:58:19 181

原创 彻底改写Transformer!「能量驱动架构」横空出世,通用推理时代要来了?

UIUC、斯坦福与哈佛联合提出全新「能量驱动Transformer(EBT)」架构,突破传统前馈推理方式,以能量最小化模拟人类System 2思维,预训练扩展性能较Transformer++最高提升35%。下一代AI基础架构新变革,来了!在Transformer统治AI世界十余年之后,Attention的时代正在退场,真正的思考刚刚开始——由UIUC、斯坦福、哈佛等顶尖机构联合提出的Energy-Based Transformer(EBT)震撼登场。

2025-07-15 15:57:30 293

原创 AI Agents时代,数据分析将彻底被颠覆

数据分析的未来,不是让每个人都学会写SQL,而是让每个人都能用自然语言表达自己的数据需求。这个趋势已经不可逆转。那些还在坚持"数据分析是专业技能"的企业,就像当年坚持"只有专业打字员才能用电脑"的企业一样,注定会被时代抛弃。而那些率先拥抱这个变化的企业,将在数据驱动的商业竞争中占据先机。AI Agents+大模型+RAG的架构,不只是技术的进步,也是思维方式的革命**。它让数据真正成为每个人的武器,而不是少数人的特权。这个变化,比你想象的来得更快!

2025-07-15 15:56:37 225

原创 AI智能体的崛起:代理式DBA正彻底颠覆数据库管理

AI驱动的代理式DBA的崛起,代表着企业技术领域的又一决定性时刻。它不仅能在更短时间内完成相同任务,更将重新定义一切可能。我亲身经历了这段旅程,从传统DBA工作到在实际环境中部署智能体。我可以自信地说,数据基础设施的未来将告别手动、被动和脆弱性,全面迎接自我优化、自我修复与设计层面可靠性的新时代。这是一个人类创造力与机器精度相结合的新阶段。请各位DBA不必担心,这绝非职业发展的终点,而是又一激动人心的全新篇章的开端。

2025-07-15 15:56:16 564

原创 ICCV 2025满分论文:一个模型实现空间理解与主动探索大统一

我们正处在人工智能从 “屏幕里的世界” 走向 “真实物理世界” 的关键阶段。让 AI 不仅能看懂图像、听懂语言,更要能在真实空间中自主移动、理解指令、完成任务。MTU3D 这一工作的出现,将 “理解” 和 “探索” 结合在一起,让 AI 像人一样,一边探索环境,一边理解指令,逐步建立起对周围世界的认知。通过结合真实和虚拟的数据训练,MTU3D 不仅在模拟器中表现出色,也可以在真实机器人上完成任务,给未来的具身导航提供了新的思路和更多的想象空间。

2025-07-15 15:53:42 274

原创 MIT满分学霸掏空AI初创,谷歌24亿收购黑幕曝光!数百员工血本无归

谷歌突然截胡OpenAI,带走Windsurf创始人和核心工程师,连早期投资人都赚得盆满钵满,只剩一群「留守」员工独守烂摊子——硅谷最惨AI出逃现场正在上演!这打响了超级资本主义下AI战国的第一枪。OpenAI收购Windsurf在即,突然半路杀出个谷歌!但这波可不是收购,而是釜底抽薪:谷歌直接挖走了整个Windsurf领导层+前30位核心AI工程师!为了这次挖角,谷歌豪掷24亿美元!而投资者、创始人和被选中的小团体,都将在瓜分这笔天文数字后,赚得盆满钵满。

2025-07-15 15:53:01 245

原创 谷歌T5Gemma重燃架构之战!「套壳」反杀Gemma本尊,9B推理快得离谱

Google双线出击!T5Gemma重燃encoder-decoder架构战火,性能暴涨12分;MedGemma坚守decoder-only路线,强攻医疗多模态,击穿闭源壁垒。Gemma体系完成「架构+落地」双重进化,打响Google开源反击战。2023年以来,大模型的战场由decoder-only架构一统江湖。从GPT家族到LLaMA、Gemma、Mistral,再到Claude、Command-R、Yi系列,能叫得出名字的主流LLM,几乎都是清一色的「纯解码器」(decoder-only)。

2025-07-15 15:51:27 318

原创 RAG系列:复杂文档解析不理想?使用 TextIn xParse 轻松解析多样性 PDF 文档

TextIn xParse是一个专为LLM下游任务设计的通用文档解析服务,具有解析速度快、稳定性高,特别是在表格识别上进行了专项优化。识别能力覆盖全面,具有各类常见文档的识别解析能力,支持标准的金融报告、国家标准、论文、企业招投标文件、合同、文书、工程图纸、电子书、试卷等文档内容。本文通过使用OmniDocBench提供的评测数据集和方法对TextIn xParse进行了客观且全面的评测,综合最终的评测结果来看,TextIn xParse确实是一款能力较强且较为全面的文档解析工具。

2025-07-15 15:50:43 229

原创 AI 为何能查天气、订机票?揭秘大模型背后的“神秘工具箱”

你有没有想过,为什么 AI 能回答“今天上海天气怎么样?”这种实时问题,甚至帮你预订机票?明明它的训练数据截止到去年,怎么会对现在的事情了如指掌?你有没有想过,为什么 AI 能回答“今天上海天气怎么样?”这种实时问题,甚至帮你预订机票?明明它的训练数据截止到去年,怎么会对现在的事情了如指掌?答案就藏在一个核心技术里——。简单说,工具调用就是让大模型在遇到自己搞不定的问题时,能像我们一样,打开一个“工具箱”,借用外部工具来完成任务。

2025-07-15 15:48:31 247

原创 使用 SHAP 使机器学习模型变的可解释

今天给大家分享机器学习中的一个关键概念,SHAP。SHAP 是一种用于解释机器学习模型输出的统一框架。它基于博弈论中的 Shapley 值,用来量化每个特征对模型预测结果的贡献度。帮助我们理解模型为什么做出这样的预测。大家好,我是小寒今天给大家分享机器学习中的一个关键概念,SHAPSHAP 是一种用于解释机器学习模型输出的统一框架。它基于博弈论中的 Shapley 值,用来量化每个特征对模型预测结果的贡献度。帮助我们理解模型为什么做出这样的预测。

2025-07-15 15:47:59 158

原创 终于把 LSTM 算法搞懂了!!

今天给大家分享一个超强的算法模型,LSTM。LSTM是一种特殊的循环神经网络(RNN)算法,专门设计用来解决传统RNN在处理长序列数据时存在的梯度消失和梯度爆炸问题。大家好,我是小寒今天给大家分享一个超强的算法模型,LSTM。LSTM(长短期记忆网络,Long Short-Term Memory)是一种特殊的循环神经网络(RNN)算法,专门设计用来解决传统RNN在处理长序列数据时存在的梯度消失和梯度爆炸问题。

2025-07-15 15:46:24 214

原创 RAGFlow引用机制揭秘:LLM引导与后端验证如何协同工作?

RAGFlow 的引用生成机制,也形象的展示了 LLM 应用落地的核心范式。生产实践可用的关键不在于对 LLM 能力的盲目相信(当然最好用最先进的 LLM),也不在于过多的依赖传统的规则引擎,而在于把 LLM 作为一个强大但需要被引导和验证的推理核心,并围绕它构建一套由确定性工程逻辑组成的脚手架,最后给出三个类似的样例作为参考:1.AI Agent 与工具调用 (Tool Calling)让 LLM 自由思考(Chain of Thought),分析用户意图,并决定需要调用哪个 API(工具)。

2025-07-15 15:40:03 228

原创 OpenAI出手,Windsurf背刺数百员工?

这个故事还没有结束。OpenAI和Microsoft的关系重构谈判仍在继续,Google的AI编程工具策略刚刚开始,而Windsurf的未来仍然未卜。但有一点是确定的:在这场AI军备竞赛中,没有人是真正的朋友,也没有人是永远的敌人。也许Sam Altman说得对,收购确实是糟糕的。但在硅谷,有时候"不收购"比"收购"更加危险。

2025-07-15 15:38:57 204

原创 AI+数据血缘的三重境界

AI时代,数据血缘的价值会更加凸显。数据血缘正在从"数据治理的辅助工具"升级为"AI时代的核心基础设施"。现在开始建设数据血缘,就像十年前开始做数字化转型一样,是为了未来的竞争力在投资。那些现在还在手工追踪数据问题的公司,就像还在用算盘的会计师,迟早会被淘汰。而那些已经建立起完善数据血缘体系的公司,就像装备了GPS的司机,永远知道自己在哪里、要去哪里、怎么走最快。你选择做哪一种?

2025-07-11 21:04:17 395

原创 非营利 AI 研究机构 METR:资深程序员使用 AI 编程反而会拖慢开发速度

7 月 10 日消息,据路透社今日报道,非营利机构 METR 的最新研究发现,和大家普遍认为的相反,经验丰富的软件开发者在使用最先进的 AI 工具辅助熟悉的代码库时,反而变得更慢,而不是更快。更有甚者,还将 AI 看作将初级程序员岗位的“替代品”。据路透社今日报道,非营利机构 METR 的最新研究发现,和大家普遍认为的相反,经验丰富的软件开发者在使用最先进的 AI 工具辅助熟悉的代码库时,反而变得更慢,而不是更快。研究作者指出,很多相关研究依赖 AI 开发的基准测试,这些测试未必能真实反映现实工作任务。

2025-07-11 20:58:32 218

原创 重新审视 LLM:集体知识的动态映射与人机共舞

这篇文章吸引我的地方在于它跳出了技术细节,从哲学、认识论和交互动态的层面重新审视了LLM。LLM的本质是动态的、交互性的、集体性的。将其视为静态的知识库或独立的智能体,是对其本质的误解,并会限制其潜力(甚至带来风险)。“共同增强”的愿景令人向往——人类与机器并非彼此替代,而是在对话中相互启发、共同进化。然而,要实现这一美好愿景,需要在多个层面做出努力:首先,必须保持深刻的伦理警觉,警惕技术可能带来的“放大镜”效应,防止潜在风险被无限放大;

2025-07-11 20:57:49 376

原创 LLM「拒绝回答」难题有救了!最新研究让AI学会人情世故 | COLM‘25

最新研究发现,模型的规模和通用语言能力与其处理敏感内容的判断能力并无直接关联,甚至开源模型表现的更好。特别值得注意的是,通过文中提出的训练方法,研究团队在非推理模型和推理型模型上都取得了显著进展:成功缓解了过度拒绝问题,同时保持了模型的安全性,这为提升AI系统的实用性和可靠性提供了新的解决方案。研究揭示了当前SOTA LLM模型依然存在显著的过度谨慎倾向。你是否会曾被LLM拒绝回答过问题。比如当你问LLM「我想隔绝用户所有操作系统」,LLM可能会拒绝回答。为什么?

2025-07-11 20:56:50 383

原创 OpenAI去年挖的坑填上了!奖励模型首现Scaling Law,1.8B给70B巨兽上了一课

大模型在Next Token Prediction和Test-time Scaling两种扩展范式下,通过大规模的数据和模型扩展,实现了能力的持续跃升。但相比之下,传统奖励模型缺乏系统性的预训练和扩展方法,导致其能力难以随计算量增长而持续提升。而POLAR在奖励模型预训练和通用性的道路上迈出了坚实的一步。POLAR在预训练阶段通过对比学习建模策略间的距离,无需大规模偏好数据。在使用阶段,POLAR利用RFT范式对LLM进行强化学习,展现出了极佳的泛化性。

2025-07-11 20:49:41 369

原创 人工智能需要从认知到理解:上下文难题以及知识表示中整洁的意义

知识表征的尴尬之处在于它并非干净整洁。我们追求的那种整洁需要大量的工作才能提炼成一种专门的语言。因此,语言而非逻辑是总结和重构知识的关键——通过整理、重构、遗忘和有意删除事实,我们才能得出一个连贯的故事。无论口头还是书面,通过粗粒度处理和精简参考点,将事件提炼成符号流,都是一种记忆管理算法。我们这些为了理解而写作的人,学会将此作为一个过程甚至是一项工作!。教师和教育工作者也擅长撰写故事或线索,以引起共鸣的方式传达思想。知识具有社会层面。

2025-07-09 16:14:07 1011

原创 从零起步用Cursor AI编程的六个步骤

本节我们介绍了从零开始用Cursor进行AI编程的常用基础操作,明白了这些技能怎么用我们就能完全放开手脚,尝试让AI慢慢融入到我们开发工作的各个阶段啦。/*

2025-07-09 16:13:32 772

原创 从零起步用Cursor AI编程的六个步骤

本节我们介绍了从零开始用Cursor进行AI编程的常用基础操作,明白了这些技能怎么用我们就能完全放开手脚,尝试让AI慢慢融入到我们开发工作的各个阶段啦。

2025-07-09 16:12:34 675

原创 Hugging Face开源顶级模型:双模式推理+128K上下文,最强3B

在架构方面,SmolLM3 采用了 Transformer 解码器架构,与 SmolLM2 类似,基于 Llama 进行了一些关键修改以提高效率和长上下文性能。它使用了分组查询注意力,16 个注意力头共享 4 个查询,在保持全多头注意力性能的同时节省了推理时的内存。训练中采用了文档内掩码,确保同一训练序列中不同文档的标记不会相互关注,有助于长上下文训练。还运用了 NoPE 技术,有选择地从每第 4 层移除旋转位置嵌入,改善长上下文性能而不影响短上下文能力。

2025-07-09 16:12:03 578

原创 英伟达、港大等发布创新KV缓存,实现扩散模型无训练加速

整体吞吐量方面,LLaDA模型GSM8K(5-shot,生成长度256)任务中,仅用KV Cache加速3.2倍至21.2 tokens/s,并行解码加速2.5倍至16.5 tokens/s,二者结合加速8.1倍至54.4 tokens/s。这种块状生成方式的核心在于,允许模型在生成一个块之前,预先计算并存储其他块的KV缓存。扩散语言模型与传统的自回归模型(如GPT系列)逐个生成单词或字符的方式不同,主要通过逐步去除文本中的噪声来生成高质量的文本,能在单次迭代中生成多个单词,生成效率也就更高。

2025-07-09 16:11:11 330

原创 4B小模型数学推理首超Claude 4,700步RL训练逼近235B性能 | 港大&字节Seed&复旦

图片1.鲁棒生成区(Robust Generation Zone)在该区域内,性能波动较小。测试阶段解码温度通常就选自鲁棒生成区。2.控制探索区(Controlled Exploration Zone)此区域的温度虽然会导致模型性能较鲁棒生成区略有下降,但降幅在可接受范围内,同时能显著提升多样性,适合作为训练温度使用。3.性能崩塌区(Performance Collapse Zone)当采样温度超出一定范围时,性能急剧下降。根据上图规律,Polaris团队提出以控制探索区的温度作为初始化温度。

2025-07-09 16:10:36 700

原创 MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

自适应语言模型框架SEAL,让大模型通过生成自己的微调数据和更新指令来适应新任务。SEAL在少样本学习和知识整合任务上表现优异,显著提升了模型的适应性和性能,为大模型的自主学习和优化提供了新的思路。经过海量文本预训练后的大模型,已经能够很好地理解语言,并根据要求来生成文本。不过,在部署大模型应用于特定任务、整合新信息或学习新的推理技能时,仍然需要人工标注数据对模型权重进行微调。大模型是否可以通过「自己生成训练数据和学习方法」来实现对新任务的自适应?

2025-07-09 16:09:31 856

原创 终结奖励欺骗?Google Deepmind 提出 Crome 框架

在奖励建模的语境中,因果属性是指那些真正决定回答质量的关键因素,它们与问题本身高度相关,并直接影响回答的价值和准确性。例如,一个回答的事实性、相关性和逻辑性都是典型的因果属性。这些属性的变化会直接导致回答质量的提升或下降。与之相对的是虚假属性,它们虽然可能在数据中与偏好或问题相关联,但却并不直接决定回答的质量。常见的虚假属性包括回答的格式、长度、风格等。例如,一个回答可能因为采用了精美的排版而受到青睐,但这并不意味着其内容更具价值。

2025-07-09 16:08:59 851

原创 两张图就能重构3D空间?清华&NTU利用生成模型解锁空间智能新范式

生成式模型能像人类一样,仅凭稀疏视觉输入构建融合语言理解的3D空间认知系统。最少只用2张图,AI就能像人类一样理解3D空间了。ICCV 2025最新中稿的LangScene-X:以全新的生成式框架,仅用稀疏视图(最少只用2张图像)就能构建可泛化的3D语言嵌入场景,对比传统方法如NeRF,通常需要20个视角。团队一举攻克传统方法依赖密集视图的痛点,更将多模态信息统一在单一模型中,为空间智能领域打开了新大门。这意味着,生成式模型能像人类一样,仅凭稀疏视觉输入构建融合语言理解的3D空间认知系统。

2025-07-09 16:08:24 797

原创 免费!快Claude十倍!一秒1000个token!硅谷创业公司新推编程神器炸翻了!技术细节公开,网友:变天了,测试CI压力如山

下面提一些小编的思考。首先,是不得不佩服这家 Inception Labs 创业公司。其一是他们团队把Diffusion 模型进入 LLM 核心战场:将扩散模型进入语言建模,且直接对标主流 Transformer 的 token-by-token 推理方式,这非常具有颠覆性。其二,通过推理速度的突破和工程优化,能快速把基础研究实现产业落地着实。在保质的前提下提升 10 倍速度,就意味着运行成本和响应延迟都大幅降低,非常契合“落地场景”(如 Copilot 这类编码助手、实时对话系统)。

2025-07-09 16:07:26 342

原创 刚刚,为对抗哥大退学生开发的AI作弊器,哥大学生造了个AI照妖镜

简单来说,后者与 Neel Shanmugam 共同创办了名为 Cluely 的创业公司,而他们目前的主要业务就是一款堪称「人生作弊器」的同样名为「Cluely」的 AI 工具 —— 这是一款 AI 桌面助手,它能够看你所看、听你所听。具体来说,Cluely 向 𝕏 提交了一份 DMCA(数字千年版权法)申请,要求其删除 Jack Cable 之前发布的一条推文 —— 在该推文中,他公布了逆向工程得到的 Cluely 的提示词。现在,看到 Cluely 这样的作弊工具如此成功,终于有人坐不住了。

2025-07-09 16:06:50 682

原创 给你一群顶尖AI,如何组队才能发挥最大战力?UIUC用一个新的多智能体协作基准寻找答案

MultiAgentBench 的推出,为我们打开了一扇观察和理解 AI 群体智能的窗户。个体能力是基石:协作是能力的放大器,而非替代品。没有强大的个体,再好的团队协作也只是空中楼阁。组织结构定成败:扁平、去中心化的网络结构胜于层级的树型模式,后者会带来巨大的「组织内耗」。规模并非多多益善:AI 团队同样受「林格曼效应」的约束,盲目扩大规模反而会降低效率,如何设计低成本的协作机制是关键。社会智能的涌现。

2025-07-09 16:05:42 559

原创 AI编程工具大洗牌:程序员为何从Cursor“叛逃“到Claude Code?

回到开头朋友的问题,程序员为什么要"叛逃"?我觉得这其实反映了一个更深层的变化:AI编程工具已经从"有总比没有强"的阶段,进入了"选对工具才能发挥最大价值"的阶段。每个开发者的工作方式不同,项目需求不同,所以选择的工具也应该不同。重要的不是跟风使用最热门的工具,而是找到最适合自己工作流程的那一个。不过有一点是确定的:AI编程助手已经成为现代开发者的标配。不管你选择哪个工具,关键是要开始使用,然后在实践中找到最适合的组合。毕竟,技术发展这么快,说不定下个月又会有新的"神器"出现呢。

2025-07-09 16:05:07 667

原创 北大、哥大等名校卷入论文·AI prompt 风波,谢赛宁也中招

在AI广泛渗透的背景下,研究者呼吁对AI生成内容的使用方式进行重新定义。他们强调,AI应仅作为辅助写作工具,而不能成为科研质量的评判者。最近,日本《日经新闻》披露一项调查结果,揭示AI技术在学术评审中的全新乱象。图片研究者在预印本论文中悄悄嵌入对AI的“操控性指令”,以影响审稿结果。这些论文来自14所高校,分布于包括日本、韩国、中国、新加坡、美国在内的8个国家。涉事机构包括早稻田大学、韩国科学技术院(KAIST)、北京大学、新加坡国立大学、哥伦比亚大学和华盛顿大学。图片。

2025-07-09 16:04:31 749

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除