torch笔记二十 | 参数初始化

引言

在设计好神经网络结构之后,权重初始化方式会很大程度上影响模型的训练过程和最终效果。权重初始化方式包括ImageNet预训练参数,kaiming_uniform方式以及多种权重初始化方式。神经网络中需要进行参数初始化操作的有Linear,Conv,BN等。

参数初始化命令

1. 不进行初始化操作,系统的默认初始化方法

# Conv{1,2,3}d 都是继承于_ConvNd,其中对于参数的默认初始化方法如下:
def reset_parameters(self):
        n = self.in_channels
        for k in self.kernel_size:
            n *= k
        stdv = 1. / math.sqrt(n)
        self.weight.data.uniform_(-stdv, stdv)
        if self.bias is not None:
            self.bias.data.uniform_(-stdv, stdv)
            
# Linear
def reset_parameters(self):
        stdv = 1. / math.sqrt(self.weight.size(1))
        self.weight.data.uniform_(-stdv, stdv)
        if self.bias is not None:
            self.bias.data.uniform_(-stdv, stdv)
            
# BN{1,2,3}d 都是继承于_BatchNorm,其中对于参数的默认初始化方法如下:
def reset_parameters(self):
        self.reset_running_stats()
        if self.affine:
            self.weight.data.uniform_()
            self.bias.data.zero_()

2. torch.nn.init.uniform_(tensor, a=0, b=1)

使用均匀分布U(a,b)初始化Tensor,即Tensor的填充值是等概率的范围为 [a,b) 的值。均值为 (a + b)/ 2.

w = torch.empty(2, 3)
nn.init.uniform_(w)
print(w)

3. torch.nn.init.normal_(tensor, mean=0, std=1)

高斯分布(Gaussian distribution),也称正态分布。
若随机变量X服从一个数学期望为μ、方差为σ2的正态分布,记为N(μ,σ^2)。其概率密度函数为正态分布的期望值μ决定了其位置,其标准差σ决定了分布的幅度。当μ = 0,σ = 1时的正态分布是标准正态分布。

4. torch.nn.init.constant_(tensor, val)

将Tensor填充为常量值。

5. torch.nn.init.xavier_uniform_(tensor, gain=1)

w = torch.empty(2,3)
nn.init.xavier_uniform_(w, gain=nn.init.calculate_gain('relu'))
print(w)
tensor([[-0.4091, -1.1049, -0.6557],
        [-1.0230, -0.4674, -0.4145]])

6. torch.nn.init.xavier_normal_(tensor, gain=1)

w = torch.empty(2,3)
nn.init.xavier_normal_(w)
print(w)
tensor([[ 1.1797, -0.7723, -1.3113],
        [ 0.3550, -0.3806, -0.5848]])

7. torch.nn.init.kaiming_uniform_(tensor, a=0, mode=‘fan_in’, nonlinearity=‘leaky_relu’)

w = torch.empty(2,3)
nn.init.kaiming_uniform_(w, mode='fan_in', nonlinearity='relu')
print(w)

8. torch.nn.init.kaiming_normal_(tensor, a=0, mode=‘fan_in’, nonlinearity=‘leaky_relu’)

w = torch.empty(2,3)
nn.init.kaiming_normal_(w, mode='fan_out', nonlinearity='relu')

初始化方法

1. 使用For循环进行权重初始化

net = MyNet()
 
for m in net.modules():
    if isinstance(m, nn.Conv2d):
        nn.init.kaiming_normal_(m.weight, mode='fan_out', nonlinearity='relu')
    elif isinstance(m, nn.BatchNorm2d):
        nn.init.constant_(m.weight, 1)
        nn.init.constant_(m.bias, 0)

2. 使用Apply函数进行权重初始化

apply函数会递归地搜索网络内的所有module,并把参数表示的函数应用到所有的module上。

def weights_init_kaiming(m):
    classname = m.__class__.__name__
    # print(classname)
    if classname.find('Conv') != -1:
        init.kaiming_normal(m.weight.data, a=0, mode='fan_in')
    elif classname.find('Linear') != -1:
        init.kaiming_normal_(m.weight.data, a=0, mode='fan_out')
        init.constant_(m.bias.data, 0.0)
    elif classname.find('BatchNorm1d') != -1:
        init.normal_(m.weight.data, 1.0, 0.02)
        init.constant_(m.bias.data, 0.0)
 
def weights_init(m):
    if isinstance(m, nn.Conv2d):
        xavier(m.weight.data)
        xavier(m.bias.data)     
        
net=MyNet()
net.apply(weights_init_kaiming) 
net.apply(weights_init)

参考:

https://blog.youkuaiyun.com/u013978977/article/details/84861453

### 关于 UnSloth 的本地化微调 UnSloth 是一个用于加速大模型推理和训练的开源工具包,支持多种框架和硬件优化。要实现对其的本地化微调,可以按照以下方法进行操作: #### 安装依赖 首先需要确保安装的是最新的夜间构建版本(Nightly Build),这可以通过指定 Git 存储库来完成[^3]。以下是具体的命令: ```bash !pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git" ``` 此步骤会卸载旧版 `unsloth` 并安装带有扩展功能的新版本。 --- #### 配置环境 在执行任何微调之前,建议仔细阅读项目的 README 文档中的 **环境搭建指导**[^1]。通常情况下,UnSloth 支持 Docker 和 Conda 环境管理方式。如果计划使用 GPU 加速,则还需要确认驱动程序以及 CUDA 版本是否匹配目标框架的要求[^2]。 例如,在基于 NVIDIA 显卡的情况下,可能需要用到如下设置: ```bash nvidia-smi # 查看当前显卡状态及CUDA版本号 conda create -n unsloth python=3.9 conda activate unsloth pip install torch torchvision torchaudio cudatoolkit=11.8 ``` 以上脚本创建了一个名为 `unsloth` 的虚拟环境,并集成了 PyTorch 及其对应的 CUDA 工具链。 --- #### Notebook 文件分析 UnSloth 提供了一系列 Jupyter Notebooks 来展示不同场景下的应用实例[^1]。这些笔记本不仅是学习资源,也是实际开发过程中不可或缺的一部分。通过研究其中的内容,能够了解如何加载预训练模型、定义数据管道以及调整超参数等核心环节。 特别需要注意的是每份 notebook 中关于 **参数注释的部分**,因为它们直接影响到最终效果的好坏程度[^1]。比如某些实验可能会涉及批量大小(batch size)的选择或者学习率(learning rate)范围设定等问题。 --- #### 开始微调过程 当一切准备就绪之后就可以着手实施 Fine-Tuning 流程了。一般而言,整个工作流可概括为以下几个方面: - 数据预处理:将原始语料转换成适合输入的形式; - 构建适配器(Adapter): 如果采用 Adapter-based 方法的话; - 训练阶段控制逻辑编写: 如早停机制(Early Stopping), 动态权重衰减策略等等; 下面给出一段简单的伪代码作为参考: ```python from transformers import AutoTokenizer, AutoModelForCausalLM import unsloth as usl # 初始化 tokenizer 和 model 实例 tokenizer = AutoTokenizer.from_pretrained("your-base-model-name") model = AutoModelForCausalLM.from_pretrained("your-base-model-name") # 调整特定层的学习速率 optimizer_grouped_parameters = [ {'params': [p for n, p in model.named_parameters() if 'adapter' not in n], 'lr': 5e-5}, {'params': [p for n, p in model.named_parameters() if 'adapter' in n], 'lr': 0.001} ] # 创建 optimizer 对象 optimizer = AdamW(optimizer_grouped_parameters) # 设置 trainer 参数 training_args = TrainingArguments( output_dir='./results', num_train_epochs=3, per_device_train_batch_size=4, save_steps=10_000, save_total_limit=2, logging_dir='./logs', logging_steps=10, ) trainer = Trainer( model=model, args=training_args, train_dataset=train_dataset, eval_dataset=val_dataset, data_collator=data_collator, optimizers=(optimizer,None), ) # 启动训练循环 trainer.train() ``` 上述片段展示了如何组合多个组件共同作用从而达成高效稳定的 fine-tune 结果。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值