deepseek
文章平均质量分 77
deepseek相关
wgc2k
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
读论文随笔记 - 图灵范式&&大模型&&DeepSeek
我一开始看到这新闻觉得可笑,一直到用了deepseek,第一次看到ds把逻辑性远超过我,并以以千倍速度的文本打印出来的时候,我汗毛孔里产生到了字面意义上的“细思极恐”的感觉(病句,只是为了表达感受罢了,不知道怎么改了,对付着记下来吧)。现代模型的能力维度也远超文本交互:SD,MJ 生成的艺术作品模糊了创作主体的边界,Claude 3 能进行复杂的数学证明,当 AI 不仅能模仿人类行为,而且能比普通人做的更快更好,更能创造人类难以企及的成果时,行为主义框架依然适用(部分适用)(造出了什么吓人的玩应儿啊)。原创 2025-03-25 08:46:11 · 648 阅读 · 0 评论 -
提示工程在DeepSeek中的应用
提示工程随人工智能发展而演进,从早期依赖结构化编程和严格指令,到自然语言处理带来更灵活交互,如今已成为弥合人机理解差距的关键技能,其发展推动了各行业创新。人工智能本身对人类语言的理解不可能达到完全准确的,并且人提出的问题本身就有可能比较含糊。所以提示工程是设计、完善和优化输入指令,引导 AI 模型生成特定有用输出的实践。它不仅是提问,更是与具备推理能力的 AI 引擎(如DeepSeek-R1)有效沟通,涉及了解 AI 能力以及弥合人类意图与机器理解的差距。原创 2025-03-10 13:25:29 · 1051 阅读 · 0 评论 -
DeepSeek-R1 模型的强化学习与知识蒸馏实践(内含训练概览图)
在人工智能领域,大型语言模型(LLM)的推理能力一直是研究的热点和难点。DeepSeek 团队推出的 DeepSeek-R1 模型,通过创新的强化学习和知识蒸馏技术,在提升模型推理能力方面取得了显著突破,为行业提供了新的思路和实践范例。原创 2025-03-08 13:00:27 · 1252 阅读 · 0 评论 -
DeepSeek-V3技术报告(内含训练概览图)
在 AI 技术飞速发展,开源闭源百花齐放。虽然闭源模型一直处于领先的位置,但是开源模型社区一直是推动技术普及与创新的关键力量。2025 年初期,DeepSeek 团队发布的 DeepSeek-V3 以卓越的性能和创新的技术,站立在普通用户的面前。而对于我这样的普通人的角度来看,通用人工智能(AGI)的大门前所未有的清晰。原创 2025-03-07 13:58:30 · 1347 阅读 · 0 评论 -
DeepSeek多模态之视觉语言模型 - DeepSeek-VL(附录训练概览)
DeepSeek-VL系列是深度求索开源的多模态大模型,有1.3B和7B两种规模,共4个版本。它们结合了视觉和语言处理能力,能处理高分辨率图像中的小物体,并且在预训练和微调阶段使用了多个数据集。训练分为三个阶段:视觉-语言适配器训练、联合预训练和监督微调。DeepSeek-VL2也是开源模型。VL2是后续版本,支持动态分辨率到1152x1152,采用MoE架构,增加了训练数据,具备梗图理解和科研图表解析能力,特别是Plot2Code功能可以生成Python代码。原创 2025-03-06 13:38:51 · 954 阅读 · 0 评论 -
DeepSeekMath:DeepSeek数学推理模型简介(内含简略训练图)
在人工智能技术蓬勃发展的当下,大语言模型在各个领域的应用不断拓展,其中数学推理领域一直是备受关注的焦点。近期,DeepSeekMath 的出现,在该领域引发了广泛的讨论与研究热潮。原创 2025-03-05 13:11:37 · 594 阅读 · 0 评论 -
DeepSeek-Coder-DeekSeek在编码领域的大语言模型(内含建议训练概括图)
在当今数字化时代,大语言模型(LLMs)正以前所未有的速度推动着各个领域的发展,尤其是在编码领域,其带来的变革令人瞩目。DeepSeek-Coder是其中一款非常不错的的编码专用大语言模型。原创 2025-03-04 13:26:12 · 1390 阅读 · 0 评论 -
探索 DeepSeekMoE:混合专家模型的新突破
在自然语言处理(NLP)领域,大规模语言模型不断演进,其中混合专家(MoE)模型成为研究的热点方向。今天,让我们深入探讨 DeepSeekMoE 这一创新架构及其相关模型的卓越表现与重要意义。原创 2025-03-03 11:45:07 · 939 阅读 · 0 评论 -
deepseek llm 模型简介
deepseek是基于 Transformer 的大语言模型,近期是学习和讨论的热点,把模型简介整理出脑图便于学习。原创 2025-03-02 13:41:45 · 322 阅读 · 0 评论
分享