自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 资源 (2)
  • 收藏
  • 关注

原创 dockur/windows 项目入门与原理介绍

dockur/windows项目为开发者和用户提供了一种在Docker中运行Windows系统的简便方法,适用于测试、开发或运行特定的Windows应用程序。

2025-04-07 17:23:03 233

原创 DeepSeek R1部署方案选择

本文详细介绍了DeepSeek R1满血版模型的高性能部署方案。由于DeepSeek R1模型规模庞大(6710亿参数),部署满血版模型通常需要1200G显存,成本高昂。为此,提出了三种优化方案:1)采用“强推理、弱训练”的硬件配置,如国产芯片或Mac Mini集群,降低训练成本但牺牲训练性能;2)使用DeepSeek R1 Distill蒸馏模型,降低模型规模以适配不同硬件环境;3)采用CPU+GPU混合推理模式,降低硬件成本但牺牲推理速度。

2025-03-01 10:44:32 498

原创 深度解析 OpenAI Deep Research:AI 如何重新定义专业研究?

Deep Research 并非取代人类的“研究终结者”,而是将人类从信息苦力中解放的“思维杠杆”。拓展认知边界:通过处理海量低信噪比信息,让人类聚焦高阶创新(如提出全新假设)加速知识平权:打破资源垄断,让孟加拉国的研究生与 MIT 教授共享同一数据宇宙正如文献中所述:“最大的落后来自于思想上的落后。” 当 AI 能完成 80% 的机械性研究任务时,人类的核心竞争力将不再是“信息处理效率”,而是提出真问题的能力——而这,正是技术无法复制的智慧火种。

2025-02-18 09:20:18 926

原创 C语言链表数据结构的设计与代码实现

本文使用C语言实践了一个简单的单向链表数据结构。该链表支持基本的链表操作,包括创建、插入、删除、查找和遍历等功能。

2025-02-14 18:06:50 283

原创 模型微调方法和资源占用解析

常见模型微调方法,显存资源占用分析

2025-02-14 16:45:02 674

原创 模型微调工具集

在入手学习大模型微调时,首先推荐功能层次封装层次较高的微调三剑客:unsloth、Llama-Factory和ms-SWIFT。除此之外,也可以借助更加底层的库,如peft、LoRA、transformer等实现高效微调。对于初学者来说,首先推荐unsloth、Llama-Factory和ms-SWIFT来进行微调,三种工具基本说明如下。unsloth GitHub主页:https://github.com/unslothai/unsloth。

2025-02-14 14:26:39 1025

原创 微调与强化学习训练、模型蒸馏等概念辨析

伴随着DeepSeek R1的兴起,关于强化学习训练、模型蒸馏等概念也逐渐被人熟知,这里我们简单总结下这三者的异同。微调、强化学习训练和模型蒸馏都是常用的技术手段,它们有着不同的应用场景和目标。尽管这些方法在某些方面有所交集,但它们的核心原理和任务目标却存在显著差异。1.微调(Fine-tuning):微调是指在一个已经预训练的大型模型基础上,使用较少的任务特定数据对模型进行再训练,以适应特定任务的需求。微调通常针对模型的某些层进行调整,或者通过在全模型基础上进一步训练来优化其在目标任务中的表现。微调不需要

2025-02-14 10:58:50 376

WinPcap_4_1_3

WinPcap_4_1_3

2013-05-21

LanderVault For Windows用户手册

LanderVault 集群 windows windows 下的集群配置

2010-01-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除