深度学习几个名词的简单理解——梯度

梯度:
梯度是一个向量求导的导数:f的梯度是包含所有偏导数的向量。向量的导数还是一个向量,所以梯度既是导数又是向量。
梯度的方向:与这个函数在该点增长最快的方向一致。梯度的大小:|梯度|=max(方向导数)

梯度下降法作用:求损失函数(loss function) 最小值
吴恩达笔记:沿着下坡走,找到局部最小值,下坡方向就是梯度反方向,最小值就是loss function的
在这里插入图片描述
深度学习花书笔记:
一维时
y=f(x)
f(x+ε)≈ f(x)+εf’(x)
因为f(x-εsign(f’(x)))是比f(x)小的,往导数反方向走

多维时
则是往所有向量的偏导数方向走。

### 深度学习中的 Patch 和降维概念 #### 什么是 Patch? 在计算机视觉领域,Patch 是指将输入图像分割成若干个小区域或子图的过程。这些小区域通常是非重叠的矩形块,用于表示局部图像信息。通过这种方式,可以将整幅图像转换为一组更易于处理的小片段(即 Patch Token)。这种方法不仅有助于减少计算复杂度,还能够更好地捕捉到图像的空间结构特性[^3]。 例如,在 Vision Transformer (ViT) 中,一张图片会被切分成固定大小的 patches,并进一步映射为一维向量作为模型输入的一部分: ```python import numpy as np def image_to_patches(image, patch_size=16): """ 将图像划分为多个patches。 参数: image: 输入图像 (H x W x C) patch_size: 单个patch的高度和宽度 返回: patches: 划分后的patches列表 """ H, W, C = image.shape num_patches_h = H // patch_size num_patches_w = W // patch_size patches = [] for i in range(num_patches_h): for j in range(num_patches_w): patch = image[i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size] patches.append(patch.flatten()) # 展平为一维向量 return np.array(patches) # 示例调用 image = np.random.rand(224, 224, 3) # 随机生成一幅RGB图像 patches = image_to_patches(image, patch_size=16) print(f"Patches shape: {patches.shape}") # 输出形状应为 (num_patches, flattened_patch_dim) ``` #### 什么是降维? 降维是指降低数据维度的技术,目的是去除冗余信息并保留最重要的特征。这一步骤对于提高模型效率以及防止过拟合至关重要。常见的降维方法包括主成分分析(PCA)、线性判别分析(LDA),以及其他基于神经网络的方法如自编码器等[^1]。 举个例子来说,当我们将高分辨率彩色照片压缩存储时,实际上就是在执行一种形式的数据降维操作——丢弃那些不影响整体感知质量的信息部分。 #### 关联与应用 - **Patch 的作用**:它允许我们像对待自然语言一样去看待图像,即将其分解成离散单元来构建序列建模框架下的解决方案; - **降维的意义**:帮助简化问题空间的同时保持关键属性不变,从而使得后续训练过程更加高效稳定; 两者结合起来看,则是在现代深度学习架构设计里非常重要的两个方面之一 —— 如何有效地表征原始样本以便于下游任务完成得更好。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值