- 博客(46)
- 收藏
- 关注
原创 torch.zeros()用法简介
通过灵活调整参数,可满足不同维度和数据类型的零张量需求。仅分配内存,内容未初始化(可能含随机值)。会显式初始化所有元素为0,而。
2025-05-30 08:48:02
537
原创 np.random.normal()用法简介
是NumPy库中用于生成正态分布(高斯分布)随机数的函数。该函数广泛用于统计分析、机器学习中的数据生成和模拟实验。
2025-05-30 08:30:18
265
原创 设置随机数种子的作用
这是一个常用示例值(源自《银河系漫游指南》),实际开发中可用任意整数。种子相同则每次运行生成的随机序列完全相同。,目的是保证程序运行时生成的。这三行代码的作用是。随机数具有可重复性。
2025-05-28 11:08:13
150
原创 Q网络(Q-Network)简介
在强化学习(Reinforcement Learning, RL)中, 是深度Q学习(Deep Q-Learning, DQN)算法的核心组件,用于近似。
2025-05-23 14:30:10
948
原创 batch_size(批大小)核心作用和设置建议
在TensorFlow训练模型中,batch_size(批大小)是一个关键的超参数,它决定了每次迭代时用于计算梯度并更新权重的样本数量。以下是它的核心作用和设置建议:nvidia-smi:batch_size会影响一个epoch的迭代次数(总样本数/batch_size),需确保最后一个batch的样本数不足时正确处理(参数)。
2025-05-15 12:13:31
576
原创 深度可分离卷积简介
深度可分离卷积(Depthwise Separable Convolution)是一种将标准卷积分解为两步操作的高效计算方式,旨在减少模型的参数量和计算量,同时保持特征提取能力。其核心思想是通过分离空间维度和通道维度的相关性,优化卷积过程。
2025-05-07 10:48:42
1001
原创 ImageDataGenerator ()用法简介
是 Keras 中用于图像数据增强和预处理的工具。它允许你实时生成增强的图像数据,这在训练深度学习模型时特别有用,因为它可以帮助提高模型的泛化能力。以下是。
2025-04-29 16:14:42
946
原创 深度学习中的正则化简介
:正则化是深度学习模型训练不可或缺的工具,通过限制模型复杂度,显著提升泛化能力,但需根据任务需求合理选择方法并调优参数。L1正则化可用于特征选择(稀疏性)验证集损失不再下降时提前终止训练。
2025-04-28 10:26:30
780
原创 os.path.sep简介
功能:获取系统路径分隔符,避免跨平台开发时路径硬编码问题。返回值:Windows 下为\\,Unix/Linux/macOS 下为。
2025-04-25 11:18:09
237
原创 os.path.join() 简介
os.path.join() 是 Python 标准库os.path模块提供的路径拼接函数,主要用于将多个路径组件合并为一个完整的路径字符串。
2025-04-23 11:04:35
350
原创 np.random.permutation() 的用法总结
若输入数组/列表/元组,返回元素随机排列后的新数组。直接修改原数据,无返回值。返回新数组,原数据不变;
2025-04-21 10:51:20
499
原创 yield 在 Python 中的用法详解
特性生成器 (yield普通函数 (return返回值生成器对象(可迭代)单次返回值内存占用低(逐项生成)高(需预加载所有数据)执行状态可暂停和恢复一次性执行完成适用场景大数据、无限流、协程明确结果的简单计算掌握yield可以显著提升代码的内存效率和灵活性,尤其在处理流式数据或异步任务时。
2025-04-18 10:38:48
1096
原创 tf.data.Dataset.from_tensor_slices()的用法
将输入数据(张量、数组、元组、字典等)按第一个维度切片,生成数据集元素。:输入为元组或字典时,所有元素的第一个维度必须相同,切片后每个样本的。特征和标签一一对应。
2025-04-15 15:08:22
374
原创 random.sample()的用法简介
是 Python 中random模块的一个函数,用于从序列(如列表、元组、字符串等)中随机抽取的指定数量的元素。
2025-04-14 16:37:19
503
原创 np.concatenate() 用法详解
可高效实现多维数组的拼接,是 NumPy 中处理数据合并的核心工具。有数组在非拼接轴上的维度必须一致。:沿列方向(水平拼接。
2025-04-14 14:53:14
380
原创 在迁移学习中冻结部分层的作用
冻结层的核心目标是通过 特征复用 与 参数控制,实现高效、稳定的迁移学习,尤其适用于数据量有限或任务相似性较高的场景。
2025-04-14 11:01:15
240
原创 K.reshape()用法
是 TensorFlow Keras 后端中的一个函数,用于重新调整张量(Tensor)的形状。它的作用与 NumPy 的reshape()或 TensorFlow 的类似,但专门为 Keras 模型设计。
2025-04-01 10:34:34
284
原创 python语言中类中装饰器和普通方法的区别
在Python中,类中的装饰器方法(如@property)与普通方法的主要区别体现在参数传递、调用方式、设计用途等方面。
2025-03-26 11:02:49
434
原创 Keras/TensorFlow 中,call(self, inputs, training=None, **kwargs)的使用说明
在 Keras/TensorFlow 中,是自定义层(Layer子类)的核心方法,它定义了层的前向传播逻辑。
2025-03-25 14:45:09
638
原创 layers.Add() 的核心用途
在 Keras 中,是一个,用于将多个输入张量(tensors)按元素逐个相加。它是实现跳跃连接(Skip Connections)、残差网络(ResNet)和多分支特征融合的关键操作。
2025-03-25 11:11:24
412
原创 灰度图像和彩色图像的卷积核的差别
综上所述,灰度图像和彩色图像的卷积核在CNN中是不同的,主要体现在通道数(深度)、卷积过程、参数数量以及功能和应用等方面。
2025-03-06 10:16:26
417
原创 keras.layers.Concatenate()用法
在Keras中,层用于将多个输入张量(tensor)沿着指定的轴拼接在一起。这在构建复杂的神经网络时非常有用,特别是当你需要将来自不同层或不同分支的特征组合在一起时。
2025-02-25 10:25:23
328
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人