看不懂代码如何微调DeepSeek-R1蒸馏的Llama-8B模型?

(这篇帖子主要是自己留个备份。想听我随便聊只看前面就行。想复制代码就直接拉到后面。)

两年前,我微调过当时开源的一些大语言模型。用阿毗达磨数据。因为,大语言模型在阿毗达磨问题上的表现总是很差。后来,每出一种更强劲的模型,我总会从写作和阿毗达磨两个方面去测试它。在文学写作上,最先达到我认为勉强可用的模型是Claude 3.5 Sonnet(2024年10月版),我是从去年11月开始用sonnet写作的。deepseek R1出现之后,基本替换成R1。

R1在阿毗达磨上的表现比现在一般人能用的模型都要相对好一点。注意,只是相对。我现在一般会用三个比较简单的问题问它们:1、阿毗达磨里的98随眠具体是哪些?2、色界见灭所断随眠有哪些?3、色界见灭所断随眠中有哪些是无漏缘惑?——包括o1和o3-mini在内的模型,都还从来没回答对第二个问题过。R1在表现最好的时候,第二个问题回答对了(大部分时候回答不对)。

这主要不是模型能力差,因为模型能做对很多数学竞赛和编程题,那些比阿毗达磨题目难太多了(更何况上面列举的只是非常基础的阿毗达磨题目)。主要原因是什么呢?是网上的阿毗达磨数据质量太差了,99%的数据都是错的。说99%毫不夸张。这也是我想尝试微调开源模型的原因。

我完全不懂编程。连一行代码都看不明白。能够跑通,首先得益于刘琨的指导和帮助,其次得益于有诸多AI可用。也可以说主要是刘琨跑通的,我主要负责写这个帖子。

所以,我把微调的代码放出来,以便自己以后还想微调有个备份(两年前微调的那些流程我清理电脑已经找不到了)。

1、用jsonl还是txt?

我的选择是毫不犹豫地用txt。

不过一开始,还是试了jsonl数据。方法是,先分卷把《俱舍论》塞给Claude,让它从每一卷中提取出40个问题,列成jsonl格式。效果如下(举三例):

{“instruction”: “”, “input”: “什么是"色蘊”?", “output”: “色蘊包含五根(眼、耳、鼻、舌、身根)、五境(色、声、香、味、触)以及无表色。”}

{“instruction”: “”, “input”: “文中提到的"五根"具体指什么?”, “output”: “五根指眼根、耳根、鼻根、舌根、身根,这五种净色是识的所依。”}

{“instruction”: “”, “input”: “文中提到的"界"是什么意思?”, “output”: “界的含义是法的种族义,如同一座山中有多种金银铜铁等族群,一身或一相续中有十八类诸法种族,故名十八界。”}

复制这些内容成jsonl,还会碰到一些问题,一个是要把空行删除,再一个是内容中的引号会让程序出错,以及可能还会有一些其他问题。

但这些都不是最关键的问题。最关键的问题是,jsonl类型的阿毗达磨数据质量高不了。高质量的数据只能手动去写,但我不可能有那个精力。AI根据《俱舍》《婆沙》生成的1万条jsonl数据,假设其中包含20万字,它的价值只相当于俱舍论的4000字,这就是为什么用jsonl数据训练很不可行。

所以,我简单试了下jsonl数据,还是回归到txt数据。

2、1小时可运行的代码

我是在google colab上微调的。一开始是用10MB的数据,包含《俱舍》《婆沙》《正理》三部阿毗达磨文献全文。还有个更大的,整个毗昙部的文献,48MB左右,想先跑通一遍流程,没用那个。用的是T4 GPU,最早的代码,显示微调完成需要36小时。我想先跑通流程,所以修改参数到最小,又换成一个4MB的数据(只包含《俱舍》《正理》),训练需要1小时左右。因此,现在放上来的也是这个。

以下的代码解释,每一部分放在一个单元格中,解释是让Claude完成的。

%%capture
# Normally using pip install unsloth is enough

# Temporarily as of Jan 31st 2025, Colab has some issues with Pytorch
# Using pip install unsloth will take 3 minutes, whilst the below takes <1 minute:
!pip install --no-deps bitsandbytes accelerate xformers==0.0.29 peft trl triton
!pip install --no-deps cut_cross_entropy unsloth_zoo
!pip install sentencepiece protobuf datasets huggingface_hub hf_transfer
!pip install --no-deps unsloth

好的,我来详细解释这段安装依赖的代码。让我们一步步来看:

\1. 首先看到 %%capture

- 这是一个Jupyter/Colab的魔法命令

- 它的作用是隐藏命令执行时的输出信息,让notebook看起来更整洁

- 如果不加这个,安装过程中会出现大量的日志信息

\2. 关于依赖安装的总体说明

- 通常情况下,只需要运行 pip install unsloth 就够了

- 但在2025年1月底,由于Colab环境的特殊性,需要分步安装以提高效率

- 这种方式可以把安装时间从3分钟缩短到1分钟以内

\3. 让我们看看安装了哪些核心库:

```python

!pip install --no-deps bitsandbytes accelerate xformers==0.0.29 peft trl triton

```

- --no-deps: 表示只安装指定的包,不安装它们的依赖包

- bitsandbytes: 用于模型量化,可以减少显存占用

- accelerate: Hugging Face的加速训练工具

- xformers: Facebook开发的Transformer优化库

- peft: Parameter-Efficient Fine-Tuning的缩写,用于高效微调

- trl: Transformer Reinforcement Learning,用于强化学习训练

- triton: 一个编程语言,用于编写高效的GPU代码

\4. 安装特定功能的包:

```python

!pip install --no-deps cut_cross_entropy unsloth_zoo

```

- cut_cross_entropy: 优化的交叉熵损失函数实现

- unsloth_zoo: unsloth的模型库

\5. 安装Hugging Face相关的工具:

```python

!pip install sentencepiece protobuf datasets huggingface_hub hf_transfer

```

- sentencepiece: 用于文本分词

- datasets: Hugging Face的数据集工具

- huggingface_hub: 用于与Hugging Face模型库交互

- hf_transfer: 优化的模型下载工具

\6. 最后安装unsloth主包:

```python

!pip install --no-deps unsloth

```

这些库构成了一个完整的大语言模型微调环境。使用unsloth可以帮助我们更高效地进行模型微调,它提供了很多优化和加速的特性。

小提示:如果安装过程中遇到错误,可以去掉%%capture来查看具体的错误信息,这样更容易排查问题。

在这里插入图片描述

好的,我来详细解释这段代码的作用。这是加载预训练模型的关键步骤,让我们逐行分析:

\1. 首先是导入必要的库:

```python

from unsloth import FastLanguageModel

import torch

```

- FastLanguageModel 是unsloth提供的快速语言模型加载工具

- torch 是PyTorch深度学习框架,为模型训练提供基础支持

\2. 加载预训练模型:

```python

model, tokenizer = FastLanguageModel.from_pretrained(

model_name = “unsloth/DeepSeek-R1-Distill-Llama-8B-unsloth-bnb-4bit”,

max_seq_length = 512,

dtype = None,

load_in_4bit = True,

)

```

这行代码的各个参数含义如下:

- model_name: 指定要加载的模型

- 这里使用的是DeepSeek-R1-Distill-Llama-8B模型

- 这是一个8B参数的Llama架构模型

- "unsloth"前缀表明这是经过unsloth优化的版本

- "bnb-4bit"表示使用了4位量化

- max_seq_length = 512:

- 设置模型能处理的最大文本长度

- 512是一个比较保守的设置,可以节省显存

- 根据实际需求,这个值可以调整

- dtype = None:

- 数据类型设置为None,表示使用模型默认的数据类型

- 在4位量化的情况下,这个参数实际上不会起作用

- load_in_4bit = True:

- 启用4位量化加载模型

- 这可以大大减少显存占用

- 相比16位或32位精度,显存占用可以减少4-8倍

- 虽然精度降低,但对大多数任务的影响很小

这段代码执行后会返回两个重要对象:

- model: 加载好的语言模型,用于后续的训练和推理

- tokenizer: 分词器,用于将文本转换为模型可以理解的数字序列

小贴士:

\1. 如果显存不足,可以考虑:

- 进一步减小max_seq_length

- 使用参数更少的模型版本

\2. 第一次运行时会从网络下载模型,可能需要一些时间

\3. 建议确保有足够的显存(建议至少10GB以上)才运行这段代码

在这里插入图片描述

让我详细解释这段配置PEFT(Parameter-Efficient Fine-Tuning)模型的代码。这是使用LoRA方法进行高效微调的重要设置:

\1. FastLanguageModel.get_peft_model()的作用:

- 将普通的语言模型转换为可以进行高效参数微调的版本

- 使用LoRA(Low-Rank Adaptation)技术来减少训练参数量

- 保持模型主体不变,只训练少量新增参数

\2. 重要参数解析:

- r = 8: LoRA的秩设置

- 这个值决定了LoRA矩阵的大小

- 值越小,训练参数越少,显存占用越低

- 但如果太小可能会影响模型效果

- 8是一个比较平衡的选择

- target_modules = ["q_proj", "k_proj", "v_proj"]:

- 指定要应用LoRA的具体层

- 这里只选择了注意力机制中最核心的三个投影矩阵:

- q_proj: Query投影

- k_proj: Key投影

- v_proj: Value投影

- 这样可以在保持效果的同时最大限度减少训练参数

- lora_alpha = 8:

- LoRA的缩放因子

- 控制LoRA层的影响程度

- 通常设置为与r相同的值

- lora_dropout = 0:

- LoRA层的dropout率

- 设为0表示不使用dropout

- 这可以加快训练速度

- bias = "none":

- 设置是否训练偏置项

- "none"表示不训练偏置

- 这样可以进一步减少训练参数

- use_gradient_checkpointing = "unsloth":

- 使用unsloth优化的梯度检查点

- 可以显著减少显存使用

- 虽然会稍微降低训练速度,但对于大模型来说很有必要

- random_state = 3407:

- 设置随机种子

- 确保实验可以复现

- 3407是机器学习中常用的一个幸运数字

实用建议:

\1. 如果显存still很紧张,可以:

- 进一步减小r的值(比如改为4)

- 减少target_modules的数量

\2. 如果训练效果不理想,可以:

- 适当增加r的值

- 增加target_modules(比如加入"o_proj")

\3. 这些参数设置体现了"够用就好"的原则,在效果和资源消耗之间找到平衡

通过这样的设置,我们可以用很小的计算资源实现模型微调,这对于个人开发者来说特别友好。

在这里插入图片描述

我来详细解释这段数据处理的代码。这是准备训练数据的关键步骤:

\1. 首先导入数据集工具:

```python

from datasets import load_dataset

```

- datasets是Hugging Face提供的数据集处理库

- 它让数据集的加载和处理变得简单高效

\2. 定义数据格式化函数:

```python

def formatting_prompts_func(examples):

texts = []

for example in examples[“text”]:

​ text = example + EOS_TOKEN

​ texts.append(text)

return {“text”: texts}

```

这个函数的作用是:

- 接收一批文本样本

- 在每个文本末尾添加结束符(EOS_TOKEN)

- 将处理后的文本重新打包返回

- 这样可以让模型知道每个样本在哪里结束

\3. 加载本地数据集:

```python

dataset = load_dataset(“text”, data_files={“train”: “jud.txt”})

```

- 使用load_dataset加载本地文本文件

- data_files参数指定文件路径

- "jud.txt"是您的训练文本文件

- 这里假设文件采用简单的文本格式

\4. 划分数据集:

```python

split_dataset = dataset[“train”].train_test_split(

test_size=0.1,

seed=42

)

```

- 将数据集分为训练集和验证集

- test_size=0.1表示验证集占总数据的10%

- seed=42是随机种子,确保划分可重现

- 这个比例可以根据实际需求调整

\5. 重组数据集字典:

```python

dataset = {

“train”: split_dataset[“train”],

“validation”: split_dataset[“test”]

}

```

- 创建标准格式的数据集字典

- 包含"train"和"validation"两个部分

- 验证集用于评估模型训练效果

实用建议:

\1. 关于数据文件(jud.txt):

- 确保文件编码正确(推荐UTF-8)

- 最好提前清理好数据格式

- 建议每行一个样本

\2. 关于划分比例:

- 如果数据量很大,验证集可以设得更小(如5%)

- 如果数据量小,可以适当增加比例

- 确保验证集足够代表数据分布

\3. 数据质量检查:

- 建议在训练前打印几个样本检查格式

- 确认EOS_TOKEN正确添加

- 检查是否有异常的空行或格式问题

这段代码为后续的模型训练做好了数据准备工作。好的数据预处理对训练效果至关重要。

from transformers import AutoTokenizer

# tokenizer部分保持不变
tokenizer = AutoTokenizer.from_pretrained("unsloth/DeepSeek-R1-Distill-Llama-8B-unsloth-bnb-4bit")

# 加载txt数据集
dataset = load_dataset(
    "text",    
    data_files={"train": "jud.txt"},    
    split="train"
)

# 划分数据集
split_dataset = dataset.train_test_split(test_size=0.1, seed=42)
train_dataset = split_dataset["train"]
val_dataset = split_dataset["test"]

# 查看数据结构
print("数据集列名:", train_dataset.column_names)
print("\n第一条数据样例:", train_dataset[0])

def format_text(examples):
    """处理纯文本数据"""    
    formatted_texts = []    
    for text in examples["text"]:    
        # 为每个文本片段添加EOS token        
        formatted_text = text + tokenizer.eos_token        
        formatted_texts.append(formatted_text)    
    return {"text": formatted_texts}

# 应用数据处理
train_dataset = train_dataset.map(
    format_text,    
    batched=True,    
    remove_columns=train_dataset.column_names
)

val_dataset = val_dataset.map(
    format_text,    
    batched=True,    
    remove_columns=val_dataset.column_names
)

# 验证输出
print("\n处理后的训练集样例:")
print(train_dataset[0]["text"][:200], "...") # 只打印前200个字符
print("\n处理后的验证集样例:")
print(val_dataset[0]["text"][:200], "...")

让我详细解释这段数据处理和分词的代码。这是对前面代码的优化和扩展版本:

\1. 导入分词器并初始化:

```python

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained(“unsloth/DeepSeek-R1-Distill-Llama-8B-unsloth-bnb-4bit”)

```

- 使用和模型相同的分词器配置

- 确保数据处理与模型期望的输入格式一致

\2. 加载数据集:

```python

dataset = load_dataset(

“text”,

data_files={“train”: “jud.txt”},

split=“train”

)

```

- 直接指定训练数据文件

- 先作为单个数据集加载

\3. 数据集划分:

```python

split_dataset = dataset.train_test_split(test_size=0.1, seed=42)

train_dataset = split_dataset[“train”]

val_dataset = split_dataset[“test”]

```

- 90%作为训练集

- 10%作为验证集

- 使用固定随机种子确保可重现性

\4. 检查数据结构:

```python

print(“数据集列名:”, train_dataset.column_names)

print(“\n第一条数据样例:”, train_dataset[0])

```

- 打印数据集的基本信息

- 有助于理解数据格式和内容

\5. 定义文本处理函数:

```python

def format_text(examples):

“”“处理纯文本数据”“”

formatted_texts = []

for text in examples[“text”]:

​ formatted_text = text + tokenizer.eos_token

​ formatted_texts.append(formatted_text)

return {“text”: formatted_texts}

```

- 为每条文本添加结束符

- 使用tokenizer的标准结束符

- 批量处理以提高效率

\6. 应用数据处理:

```python

train_dataset = train_dataset.map(

format_text,

batched=True,

remove_columns=train_dataset.column_names

)

val_dataset = val_dataset.map(

format_text,

batched=True,

remove_columns=val_dataset.column_names

)

```

特别注意的参数:

- batched=True: 启用批处理以提高效率

- remove_columns: 移除原有列,保持数据结构清晰

\7. 验证处理结果:

```python

print(“\n处理后的训练集样例:”)

print(train_dataset[0][“text”][:200], “…”)

print(“\n处理后的验证集样例:”)

print(val_dataset[0][“text”][:200], “…”)

```

- 打印处理后的样本

- 只显示前200个字符避免输出过长

- 方便检查处理是否符合预期

实用建议:

\1. 数据检查:

- 仔细检查打印出的样例

- 确保文本格式正确

- 验证结束符是否正确添加

\2. 内存管理:

- 如果数据集很大,可以考虑使用流式处理

- 可以添加cache_file_name参数来缓存处理结果

\3. 错误处理:

- 建议添加try-except来捕获可能的错误

- 特别是处理大量数据时

\4. 性能优化:

- batched=True对大数据集很重要

- 可以通过num_proc参数启用多进程处理

这段代码提供了更完整的数据处理流程,并加入了必要的验证步骤,这对确保训练数据质量非常重要。
在这里插入图片描述
让我详细解释这段配置训练器的代码。这是整个训练过程中最关键的配置部分:

\1. 首先是导入必要的组件:

```python

from trl import SFTTrainer

from transformers import TrainingArguments

from unsloth import is_bfloat16_supported

```

- SFTTrainer: 用于监督微调(Supervised Fine-Tuning)的训练器

- TrainingArguments: 训练参数配置类

- is_bfloat16_supported: 检查是否支持bfloat16格式

\2. 创建SFTTrainer对象:

```python

trainer = SFTTrainer(

model = model,

tokenizer = tokenizer,

train_dataset = train_dataset,

eval_dataset = val_dataset,

dataset_text_field = “text”,

max_seq_length = 512,

dataset_num_proc = 1,

packing = True,

args = TrainingArguments(…)

)

```

主要参数解析:

- model: 之前配置好的LoRA模型

- tokenizer: 分词器

- train_dataseteval_dataset: 训练集和验证集

- dataset_text_field: 指定数据集中的文本字段名

- max_seq_length = 512: 限制序列长度,节省显存

- dataset_num_proc = 1: 数据处理的进程数

- packing = True: 启用序列打包,提高训练效率

\3. TrainingArguments详细配置:

基础训练参数:

```python

per_device_train_batch_size = 4, # 每个设备的批次大小

gradient_accumulation_steps = 2, # 梯度累积步数

warmup_steps = 5, # 预热步数

num_train_epochs = 1, # 训练轮数

```

优化器相关:

```python

learning_rate = 3e-4, # 学习率

optim = “adamw_8bit”, # 使用8位AdamW优化器

weight_decay = 0.01, # 权重衰减率

lr_scheduler_type = “linear”, # 学习率调度策略

```

精度设置:

```python

fp16 = not is_bfloat16_supported(), # 如果不支持bf16就用fp16

bf16 = is_bfloat16_supported(), # 优先使用bf16

```

其他设置:

```python

logging_steps = 1, # 每步都记录日志

seed = 3407, # 随机种子

output_dir = “outputs”, # 输出目录

report_to = “none”, # 不使用外部记录工具

```

实用建议:

\1. 关于批次大小:

- 如果显存充足,可以适当增加per_device_train_batch_size

- 如果显存不足,可以增加gradient_accumulation_steps

- 实际批次大小 = per_device_train_batch_size × gradient_accumulation_steps

\2. 关于学习率:

- 3e-4是比较激进的设置

- 如果训练不稳定,可以降低到1e-4或5e-5

- warmup_steps可以帮助稳定训练初期

\3. 关于训练轮数:

- 单轮训练可能不够

- 可以根据验证集表现适当增加

- 注意观察是否过拟合

\4. 关于显存优化:

- 使用8位优化器节省显存

- 根据硬件选择合适的精度(fp16/bf16)

- 可以通过减小max_seq_length进一步节省显存

这些配置体现了在有限资源下的优化策略,既要保证训练效果,又要确保训练能够顺利进行。
在这里插入图片描述
让我详细解释这段执行训练和评估的代码:

\1. 执行训练:

```python

trainer_stats = trainer.train()

```

- 这行代码启动实际的训练过程

- 会返回包含训练统计信息的对象

- 训练过程中会看到进度条和实时指标

\2. 打印训练统计信息:

```python

print(“\n训练统计:”)

print(f"总训练时间: {trainer_stats.metrics[‘train_runtime’]:.2f} 秒")

print(f"训练损失: {trainer_stats.metrics[‘train_loss’]:.4f}")

```

重要指标说明:

- train_runtime: 整个训练过程耗时

- train_loss: 训练集上的平均损失值

- 损失值越低表示模型拟合得越好

- 但要注意不能太低,可能出现过拟合

\3. 验证损失检查:

```python

if ‘eval_loss’ in trainer_stats.metrics:

print(f"验证损失: {trainer_stats.metrics[‘eval_loss’]:.4f}")

```

- 检查训练过程中是否计算了验证损失

- 这部分是可选的,取决于训练配置

\4. 最终模型评估:

```python

final_metrics = trainer.evaluate()

print(“\n最终验证集评估结果:”)

print(f"验证损失: {final_metrics[‘eval_loss’]:.4f}")

```

- 在完整验证集上评估模型表现

- 获得最终的验证指标

- 这个分数最具参考价值

实用建议:

\1. 关于训练监控:

- 记录初始损失值作为基准

- 观察损失下降趋势是否健康

- 警惕损失突然增大或不稳定的情况

\2. 训练时间分析:

- 如果训练时间过长,可以考虑:

- 减少数据量

- 减少训练轮数

- 增加批次大小

- 如果训练时间过短,可能需要:

- 增加训练轮数

- 增加数据量

\3. 损失值分析:

- 训练损失和验证损失的差距不应太大

- 如果验证损失明显高于训练损失,说明过拟合

- 理想情况下两者应该同步下降

\4. 常见问题处理:

- 如果损失不下降:

- 检查学习率是否合适

- 检查数据预处理是否正确

- 如果训练不稳定:

- 降低学习率

- 增加warmup步数

- 如果显存溢出:

- 减小批次大小

- 减少序列长度

这段代码是整个训练过程的收尾,通过这些指标可以判断训练是否成功,模型效果如何。建议保存这些指标,方便与其他训练配置进行比较。
在这里插入图片描述

让我详细解释这段用于模型推理的代码:

\1. 定义提示模板:

```python

alpaca_prompt = “”"

指令:{0}

输入:{1}

输出:{2}

“”"

```

- 使用Alpaca格式的提示模板

- 包含三个部分:指令、输入和输出

- 使用format()方法可以方便地填充内容

\2. 开启快速推理模式:

```python

FastLanguageModel.for_inference(model)

```

- 启用unsloth的原生快速推理

- 可以获得2倍的推理速度提升

- 这是优化后的推理模式

\3. 准备输入数据:

```python

inputs = tokenizer(

[

​ alpaca_prompt.format(

​ “”, # instruction

​ “三界是什么?”, # input

​ “”, # output - leave this blank for generation!

​ )

], return_tensors = “pt”).to(“cuda”)

```

- 使用模板格式化输入

- 将文本转换为模型需要的张量格式

- 将数据移到GPU上进行处理

\4. 设置文本流式输出:

```python

from transformers import TextStreamer

text_streamer = TextStreamer(tokenizer)

```

- 导入并初始化文本流式输出器

- 可以实时看到生成的文本

- 比等待全部生成完再显示更友好

\5. 生成文本:

```python

_ = model.generate(

**inputs,

streamer = text_streamer,

max_new_tokens = 512

)

```

主要参数说明:

- **inputs: 展开准备好的输入数据

- streamer: 使用流式输出器

- max_new_tokens: 限制生成的最大token数

实用建议:

\1. 关于提示工程:

- 提示模板可以根据需要修改

- 可以尝试不同的指令来获得更好的输出

- 注意保持提示格式的一致性

\2. 输出控制:

- 可以调整max_new_tokens控制输出长度

- 可以添加temperature参数控制随机性

- 可以设置top_p或top_k参数控制采样策略

\3. 性能优化:

- 使用batch处理可以提高效率

- 可以尝试不同的推理设置

- 注意显存使用情况

\4. 错误处理:

- 建议添加try-except捕获可能的错误

- 特别是处理长文本时

- 注意处理特殊字符和换行符

这段代码展示了如何使用微调后的模型进行实际的文本生成。通过调整各种参数,可以获得不同风格和质量的输出。建议多做实验,找到最适合您需求的设置。

如何零基础入门 / 学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

全套AGI大模型学习大纲+路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

read-normal-img

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

img

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值