- 博客(7)
- 资源 (2)
- 收藏
- 关注
原创 dockur/windows 项目入门与原理介绍
dockur/windows项目为开发者和用户提供了一种在Docker中运行Windows系统的简便方法,适用于测试、开发或运行特定的Windows应用程序。
2025-04-07 17:23:03
233
原创 DeepSeek R1部署方案选择
本文详细介绍了DeepSeek R1满血版模型的高性能部署方案。由于DeepSeek R1模型规模庞大(6710亿参数),部署满血版模型通常需要1200G显存,成本高昂。为此,提出了三种优化方案:1)采用“强推理、弱训练”的硬件配置,如国产芯片或Mac Mini集群,降低训练成本但牺牲训练性能;2)使用DeepSeek R1 Distill蒸馏模型,降低模型规模以适配不同硬件环境;3)采用CPU+GPU混合推理模式,降低硬件成本但牺牲推理速度。
2025-03-01 10:44:32
498
原创 深度解析 OpenAI Deep Research:AI 如何重新定义专业研究?
Deep Research 并非取代人类的“研究终结者”,而是将人类从信息苦力中解放的“思维杠杆”。拓展认知边界:通过处理海量低信噪比信息,让人类聚焦高阶创新(如提出全新假设)加速知识平权:打破资源垄断,让孟加拉国的研究生与 MIT 教授共享同一数据宇宙正如文献中所述:“最大的落后来自于思想上的落后。” 当 AI 能完成 80% 的机械性研究任务时,人类的核心竞争力将不再是“信息处理效率”,而是提出真问题的能力——而这,正是技术无法复制的智慧火种。
2025-02-18 09:20:18
926
原创 C语言链表数据结构的设计与代码实现
本文使用C语言实践了一个简单的单向链表数据结构。该链表支持基本的链表操作,包括创建、插入、删除、查找和遍历等功能。
2025-02-14 18:06:50
283
原创 模型微调工具集
在入手学习大模型微调时,首先推荐功能层次封装层次较高的微调三剑客:unsloth、Llama-Factory和ms-SWIFT。除此之外,也可以借助更加底层的库,如peft、LoRA、transformer等实现高效微调。对于初学者来说,首先推荐unsloth、Llama-Factory和ms-SWIFT来进行微调,三种工具基本说明如下。unsloth GitHub主页:https://github.com/unslothai/unsloth。
2025-02-14 14:26:39
1025
原创 微调与强化学习训练、模型蒸馏等概念辨析
伴随着DeepSeek R1的兴起,关于强化学习训练、模型蒸馏等概念也逐渐被人熟知,这里我们简单总结下这三者的异同。微调、强化学习训练和模型蒸馏都是常用的技术手段,它们有着不同的应用场景和目标。尽管这些方法在某些方面有所交集,但它们的核心原理和任务目标却存在显著差异。1.微调(Fine-tuning):微调是指在一个已经预训练的大型模型基础上,使用较少的任务特定数据对模型进行再训练,以适应特定任务的需求。微调通常针对模型的某些层进行调整,或者通过在全模型基础上进一步训练来优化其在目标任务中的表现。微调不需要
2025-02-14 10:58:50
376
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人