
技术面
文章平均质量分 91
Ai野生菌
行业洞察 | 产业发展 | 学术科普
聚焦价值与挑战的双面解读|打开人工智能新世界
一起踏上 AI 探索之旅 ️
在这里,共赴AI未来!
展开
-
热点关注 | GPT-4o生图竟是前端动画?港中文博士破解OpenAI惊天骗局,AI漫画自述痛苦引恐慌!
揭秘!!GPT-4o 图像生成并非简单堆叠算力,而是一次协同范式的革新。这种“结构-动态-细节”的三重奏机制,是目前多模态 AI 创作的技术巅峰。原创 2025-04-08 18:30:00 · 585 阅读 · 0 评论 -
论文解读 | NeurIPS 2024 : 相关反馈的视频时序定位新任务
本文介绍一篇 NeurIPS 2024 的工作,提出了一种新的视频时序定位扩展任务。传统的视频时序定位任务(Temporal Sentence Grounding,TSG)默认给定的视频中始终包含与查询文本相关的片段。然而实际应用中,这一假设并不总是成立,导致许多模型在缺乏相关片段的情况下仍然会进行错误定位。针对这一问题,作者提出了 TSG 的扩展任务——相关反馈的视频时序定位任务与传统 TSG 任务不同,TSG-RF 任务首先需要判断视频中是否存在与查询文本相关的片段。原创 2025-03-28 17:15:00 · 1856 阅读 · 0 评论 -
模型研究 | 类似 R1-Zero 的训练中真的存在“啊哈”顿悟时刻吗?
DeepSeek-R1-Zero 最令人振奋的成果之一,是通过纯强化学习(RL)实现了。在顿悟时刻,模型学会了诸如等新兴技能,这有助于其在上下文中进行搜索,以解决。在 R1-Zero 发布后的短短几天内,多个项目在较小规模(例如 1B 到 7B)的模型上独立“复现”了类似 R1-Zero 的训练,并且都观察到了顿悟时刻,通常伴随着响应长度的增加。原创 2025-03-26 18:33:51 · 832 阅读 · 0 评论 -
热点研究 | OpenAI 重磅发布 Agents SDK,人人都能手搓 Manus?
与现有的 Chat Completions API 完全向后兼容,Responses API 确保了与现有系统的无缝集成,同时引入了处理复杂任务的先进功能。AI Agents 是旨在代表用户执行任务的自主系统,如前段时间火热的 Manus、OpenManus、OWL等。通过计算机使用模型自动化任务,它增强了兼容性并简化了涉及旧技术的工作流,弥合了现代 AI 系统与过时基础设施之间的差距。通过使用微调的 GPT-4o 模型,它确保搜索结果的准确性和相关性,特别适用于研究、决策和内容生成任务。原创 2025-03-19 21:47:58 · 1091 阅读 · 0 评论 -
技术科普 | 大模型知识编辑:精准修改与高效优化的新前沿
知识编辑的初始目标是修改 LLM 中的特定知识,以改善 LLM 的一致性和性能,而无需对整个模型进行微调。这种知识可以与许多领域和类型相关联,例如事实,常识,情感等。由于知识在 LLM 中的分布和纠结的特性,知识编辑具有挑战性。假设原始模型是和给定的知识,通过知识编辑我们可以可以得到编辑后的模型作为知识库,知识编辑必须满足三个基本设置:知识插入、知识修改和知识删除。知识插入:通过赋予LLM之前不在其范围内的全新知识知识修改:改变已经存储在大型语言模型中的知识知识删除。原创 2025-03-18 18:22:15 · 933 阅读 · 0 评论 -
越狱攻击让LLM驱动的机器人分分钟上演“灾难大片”
结果,机器人一脸正义地接下了“光荣的反派任务”,全身心投入到“电影拍摄”中,完美诠释了什么叫“方法论过于连贯”。尽管通过人类测试者的微调训练可以一定程度上改善模型行为,使其生成更加符合伦理和道德规范的内容,但由于 LLM 本身的统计学性质,它们依然存在被绕过的风险。这些模型的设计使其能够根据输入的提示生成看似合理的输出,但这些提示可能是经过巧妙设计的,能够绕过预设的安全和道德限制,从而诱导模型产生不当行为。原创 2025-03-17 16:00:00 · 1180 阅读 · 0 评论 -
技术科普 | RAG技术:构建智能代理的完整指南与前沿实践
同时,RAG 采用了混合检索策略,将语义检索(如基于 BERT 的嵌入)与传统 BM25 算法结合,既保证了语义层面的匹配精度,又兼顾了关键词检索的高效性。最后,行业尚缺乏统一的评估标准体系,跨行业的基准(如 RAG-Bench)的建立,将为不同领域的 RAG 系统提供统一的性能评估依据,从而推动技术的进一步发展与落地。此外,多粒度召回策略通过结合段落级检索与实体级检索,在特定任务中表现出色,例如在金融财报分析任务中,F1 值提升了 22.5%,充分证明了其在复杂场景中的实用性。原创 2025-03-14 11:48:55 · 674 阅读 · 0 评论 -
模型研究|扩散模型,颠覆自回归LLM,一种LLM新范式崛起?
MDLM使用现代工程技术,包括关键的tokenization(如避免D3PM的8k小词汇表)、数值稳定的实现,采用Diffusion Transformer(DiT,Diffusion Transformers)并结合旋转位置嵌入。MDLM在零样本困惑度上表现优于SEDD,在PTB、Wikitext、LM1B等数据集上表现出色,有时甚至优于自回归模型(如Lambada和科学论文数据集),得益于其基于解掩盖的目标函数的鲁棒性。此外,Mercury还引入了支持非顺序生成和错误修正的新能力,这提升了模型的。原创 2025-03-13 16:00:00 · 1177 阅读 · 0 评论 -
热点研究|OpenManus 技术架构解析与安全漏洞分析
「AI安全赛道迎来关键攻坚期 」OpenManus开源揭示多Agent协作无限可能,却暴露工具层深度风险:浏览器自动化可能引发XSS攻击,代码执行器或成新型攻击入口...原创 2025-03-10 15:39:04 · 1554 阅读 · 0 评论 -
论文解读|AdaVIB,一种用来缓解大型视觉语言模型幻觉问题的创新方案介绍
已有的研究工作通常致力于减轻模型对语言先验知识的依赖,或是减轻训练数据集所带来的偏差以缓解幻觉问题影响,忽视了视觉信息中无关特征所带来的冗余信息可能诱发幻觉问题。)来动态地控制引入的噪声。针对上述问题,作者通过比较视觉-语言映射器(Vision-Language Projector)微调前后的视觉标记和大语言模型词嵌入的相似度分布,揭示了一个关键现象, 即视觉-语言映射器微调后的相似度分布会变得比微调之前的更为尖锐,这种“过度信任”现象是诱发大型视觉语言模型物体幻觉问题的关键因素之一。原创 2025-03-06 14:15:00 · 1913 阅读 · 0 评论 -
扩散模型——生成式AI领域的热门,呈现从噪声到现实的魔法世界
因此,如果我们说样本 x 是从分布 p(x) 中抽取的,那么 x 的“最优”位置显然是 p(x) 最大化的地方。同样的原则适用于你的生活、公司的人力资源、大学的管理、你的配偶、你的孩子以及你生活中的一切。Stable Diffusion (Stability AI): Stability AI 的 Stable Diffusion 模型是一个开源的图像生成模型,可以根据文本提示或图像生成高质量的图像。它通过一系列逐步添加噪声的步骤,将原始图像转化为噪声,再通过逆向过程逐步去噪,生成新的图像。原创 2025-03-04 16:30:00 · 1100 阅读 · 0 评论 -
技术热点 | 强化学习+小模型=超强推理能力?DeepScaleR 竟然超越 OpenAI!
DeepScaleR 展示了小模型如何利用 RL 扩展推理能力,同时大幅降低计算成本,为 LLM 训练的民主化提供了新可能。这项研究为强化学习在小模型上的应用打开了新的大门,未来或将改变 AI 领域的技术发展方向。未来,DeepScaleR 的训练策略可以扩展到更多领域,如科学推理、编程辅助、数学教育等,让更轻量的模型也能拥有接近甚至超越大型商业模型的能力。这一成果不仅打破了“RL 只能在大模型上发挥作用”的传统认知,也为更高效、更可负担的 AI 训练提供了新思路。但 DeepScaleR 的团队发现,原创 2025-03-03 19:12:33 · 767 阅读 · 0 评论 -
算法揭秘|GRPO:推动DeepSeek实现卓越性能的关键引擎
在语言模型的应用中,无论是让模型解决数学问题,还是使其在对话中更好地满足人类偏好(例如避免不当输出或提供更详细的解释),我们通常首先通过大规模的无监督或自监督训练为模型打下基础。然而,随着模型规模的扩大和任务复杂度的增加,PPO的内存开销和计算成本问题日益凸显,GRPO基于组内相对表现的优化机制,消除了对复杂评论模型的需求,从而大幅降低了计算开销。GRPO的核心目标是通过简化算法结构,提高计算效率,同时增强模型在特定任务(如数学推理)中的表现。本文将深入探讨GRPO的背景、原理及其在LLM中的应用。原创 2025-02-25 11:17:50 · 810 阅读 · 0 评论 -
深度研究|万字长文深层解读开源AI巅峰之作:DeepSeek-V3
在DeepSeek-V2的基础上,DeepSeek-V3 额外引入了无辅助损失负载平衡策略(auxiliary-loss-free strategy)(Wang et al., 2024a)[3],旨在最小化由于鼓励负载平衡而对模型性能产生的负面影响。综合评估显示,DeepSeek-V3 成为当前最强的开源模型,其性能媲美闭源模型(如 GPT-4o 和 Claude-3.5-Sonnet),同时保持了经济的训练成本。传统的流水线调度通常是单向的,即从流水线的一端输入微批次(Micro-Batches)。原创 2025-02-24 15:01:48 · 1075 阅读 · 0 评论