Deepseek
文章平均质量分 93
丁学文武
打球、跑步、徒步、露营️、骑行、滑雪️、游泳、冲浪
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
DeepSeek-V3.1 发布,迈向 Agent 时代的第一步
DeepSeek-V3.1正式发布,主要升级包括:1)采用混合推理架构,支持思考/非思考双模式切换;2)优化思维链效率,思考模式(V3.1-Think)在保持性能的同时减少20%-50%的token消耗;3)增强Agent能力,在编程修复(SWE)和终端任务(Terminal-Bench)中表现显著提升。API同步升级至128K上下文,新增Anthropic格式兼容和严格模式Function Calling。基础模型开源,新增840B tokens训练数据。价格将于2025年9月6日调整并取消夜间优惠。原创 2025-08-21 17:26:33 · 1596 阅读 · 0 评论 -
【最新DeepSeek v3.1】DeepSeek 模型升级至V3.1,上下文长度扩至128k,深度技术解析与全面指南
DeepSeek-V3.1 深度解析:128K长文本处理与性能优化 核心升级:基于Transformer架构优化,采用分块注意力(GQA)和RoPE位置编码增强,支持128K长上下文处理,显著提升超长文本理解与多轮对话一致性。 性能表现: 速度:A100 GPU推理约60 tokens/秒 能力:长文档总结、代码跨文件分析、逻辑推理优化,减少幻觉生成 量化支持:兼容GPTQ/AWQ量化方案(INT4/INT8) 应用场景: 法律合同审查/技术文档问答 长篇内容创作/剧本生成 大型代码库分析与调试 获取方式:原创 2025-08-20 07:29:11 · 5358 阅读 · 0 评论 -
DeepSeek-深度原理解析
文章摘要 DeepSeek-AI推出DeepSeek-R1首代推理模型,通过**纯强化学习(RL)**实现与OpenAI o1-1217相当的推理能力,并在数学、编程等基准测试中表现卓越。其核心创新包括: DeepSeek-R1-Zero:首创纯RL训练,无需监督微调(SFT),模型自发学会延长思考、自我验证等推理行为,展现“顿悟”现象。 多阶段优化训练:结合冷启动数据、推理导向RL、拒绝采样与全场景RL,提升模型可读性和综合能力。 高效蒸馏技术:将大模型能力迁移至1.5B~70B小模型,其中7B模型在数学原创 2025-08-18 08:00:00 · 3286 阅读 · 0 评论 -
DeepSeek-R1-深度解析-通过强化学习激励大语言模型的推理能力
DeepSeek-R1是通过大规模强化学习(RL)提升大语言模型推理能力的成果。其纯RL版本DeepSeek-R1-Zero无需监督微调,便能自主发展出反思、长链推理等能力。在此基础上,引入冷启动数据的DeepSeek-R1性能更优,与OpenAI-o1-1217相当。研究还展示了将该模型的推理能力蒸馏到Qwen、Llama等小模型的有效性,使小模型也具备强大推理能力。该工作证明了强化学习在激发和提升模型智能方面的巨大潜力。原创 2025-08-16 10:37:40 · 1204 阅读 · 0 评论
分享