人工智能复习总结

本文总结了人工智能领域的深度学习知识,包括多层感知机的结构和优化方法,如学习率和交叉熵损失函数;注意力机制的概念及其在模型训练中的作用;RNN网络的工作原理;迁移学习中的抑制遗忘策略,如增量学习和非遗忘学习;以及神经网络的可解释性和多模态学习。此外,还探讨了常用的训练优化技术,如预训练、dropout、权重衰减正则化和数据增广,并介绍了Batch Normalization及其解决的内部协变量移位问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

多层感知机

结构:输入层,隐藏层,输出层;mlp 是一种最简单的神经网络算法。
学习率:参数变化的步长
CrossEntropyLoss 是 交叉熵
为什么使用交叉熵
使用交叉熵作为损失函数相比于均方差,可以消除sigmoid的一次导数项(很小的数据),反向传播时可以保留更多的数据,加速网络收敛
torch 的 nn 包里面有input_layer 有 hidden 有 output 都使用nnLinear构造输入输出节点
optim.Adam() 包含很多的优化包
torch中tensor的使用

torch.tensor(data, dtype=torch.float)

将data数据类型转换为float
如何理解 pytorch 中的tensor 的 dim=-1
dim=-1和dim=2 是同样的效果
在这里插入图片描述
tensor.T相当于是在做转置
zero_grad() 优化器的梯度去除是为了不让上一次的梯度影响这一次的传播,因此需要在方向传播之前完成

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import random

random.seed(1919810)

class MLP(nn.Module):
    def __init__(self):
        super(MLP, self).__init__()
        self.input_layer = nn.Linear(4, 20)
        self.hidden = nn.Linear(20, 5)
        self.output = nn.Linear(5, 2)
        self.loss_fn = nn.CrossEntropyLoss()
    
    def forward(self, x, label):
        x = self.input_layer(x)
        x = F.elu(x)
        x = self.hidden(x)
        x = F.elu(x)
        x = self.output(x)
        loss = self.loss_fn(x, label)

        x = F.softmax(x, dim=-1)

        predict = x
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值