
大模型
文章平均质量分 94
羊不白丶
西安交通大学研二在读,曾在字节、京东、荣耀做实习工作,目前在快手LLM部门实习,喜欢分享技术,欢迎交流~
展开
-
(二)万字长文解析:deepResearch如何用更长的思考时间换取更高质量的回复?各家产品对比深度详解
当前AI技术发展正经历从“即时响应”到“深度思考”的范式转变。用户对延迟的容忍度显著提升,从传统200ms的交互响应放宽至数秒甚至数分钟,以换取结果的全面性和准确性。这种转变源于复杂任务(如市场分析、学术研究)对信息整合与逻辑推演的高要求,传统即时问答模式难以满足需求。新型交互设计通过“过程可视化”缓解等待焦虑,例如在搜索界面展示推理步骤、信息源引用及动态调整策略,形成“延迟满足”的认知闭环。这种设计不仅增强用户对结果的信任,也引导行业评估标准从单纯的速度指标转向精确率、覆盖深度等质量维度。原创 2025-03-29 22:23:34 · 1170 阅读 · 0 评论 -
万字深度解析:DeepSeek-V3为何成为大模型时代的“速度之王“?
当DeepSeek-V3以每秒生成238个token的速度掠过测试基准时,这场看似简单的数字游戏背后,实则是人类对智能本质认知的范式迭代。这场速度革命揭示的不仅是工程奇迹,更是一面照向未来的棱镜——折射出大模型发展从"暴力堆砌"到"智能涌现"的进化轨迹。光量子混合计算:利用光子芯片突破MoE路由的纳秒级延迟极限神经符号系统:在专家模型中植入形式化推理引擎,实现逻辑与直觉的量子纠缠生物启发架构:模拟大脑白质纤维的拓扑结构,构建三维立体通信网络能源智能体。原创 2025-02-15 12:03:59 · 1259 阅读 · 0 评论