- 博客(11)
- 收藏
- 关注
原创 tensorflow学习记录11——构建深度学习神经网络0
隐藏层:位于输入层和输出层之间,是神经网络进行特征学习和非线性变换的核心部分。隐藏层中的每个神经元都会对输入数据进行加权求和,并通过激活函数进行非线性变换。输入层:接收原始数据输入,它不进行任何形式的函数计算或变换,仅仅是作为数据的入口。1) 如何构建以上网络的输入层、隐藏层、输出层,使用哪些函数,函数语法规则怎样?1)训练网络过程中会有哪些参数,分别起什么作用,怎么调整会有什么效果?输出层:接收隐藏层的输出,并根据具体的任务进行最终的预测或分类。3)损失函数是什么?有哪些损失函数,分别什么任务类型使用?
2025-04-02 13:43:03
235
原创 tensorflow学习记录10——数据准备(六)
二、数据预处理前两节加载数据后,可能需要对数据进行数据预处理操作,不同格式分开展示。将原始数据转换为适合分析和建模的格式,提高,确保模型的准确性和可靠性。
2025-03-26 13:47:19
393
原创 tensorflow学习记录9——数据准备(五)
构建文本与整数的映射关系:先迭代每个样本的值,再使用tfds.features.text.Tokenizer()实例化一个分词器tokenizer,再将分词器tokenizer放入一个集合中,依次清除重复项,然后获取该词汇表的大小。#正常每次编码结果是一样的,这里如果按书上代码写,输出不一样是因为单词存在set中,set无序。将原始数据转换为适合分析和建模的格式,提高数据质量,确保模型的准确性和可靠性。# 实例化一个分词器tokenizer,我的tf版本旧,是features。# 输出查看词汇样式。
2025-03-19 13:47:54
1023
原创 tensorflow学习记录8——数据准备(四)
targets: 接收int、float类型值,(如果不处理标签只处理数据,传入targets=None)表示目标值,和data长度一样。sequence_length: 接收int类型值,一个输出序列sequence的长度,即有多少个timestep。data:接收int、float类型值,表示要转换的原始时间序列数据,里面的每个叫做一个。将原始数据转换为适合分析和建模的格式,提高数据质量,确保模型的准确性和可靠性。sequence_stride:接收int类型值,表示连续输出序列的周期。
2025-03-19 11:30:50
575
原创 tensorflow学习记录6——数据准备(二)
random.shuffle(all_image_paths) # 打散数据,使其顺序随机打乱,你能看到上边截图中是cat.1.jpg、cat.2.jpg、cat.3.jpg、cat.4.jpg,下述结果中为cat.0.jpg、cat.1.jpg、cat.10.jpg、cat.100.jpg乱序的。all_image_paths = [str(path) for path in all_image_paths]# 将列表中的所有Path对象转换为字符串形式,并存储在新的列表中。
2025-03-12 13:42:15
1102
原创 tensorflow学习记录5——数据准备(一)
加载完成后,数据需调整格式,转换为Dataset对象,才能在tensorflow中流转,使用tensorflow中提供的各种便捷,使用tf.data.Dataset.from_tensor_slices(data)将data转为Dataset对象。使用load_data()函数加载,然后划分为训练数据集(data_x,data_y)及测试数据集(testdata_x,testdata_y),并输出了分割后数据集的shape值。# 波士顿房价数据集加载csv2,每次运行得批数据可能不同,输出结果可能不同。
2025-03-06 23:49:47
724
原创 tensorflow学习记录4——搭建、训练网络并对网络进行评估
网络模型有很多,需要根据要解决的任务选择合适网络模型,以下以搭建Sequential网络结构为例先使用tf.keras.Sequential()函数创建一个空容器,再用add()函数添加层(add添加层可以是全连接层、卷积层、池化层等),如果是全连接层就是tf.keras.layers.Dense( inputs,activation, input_shape),其中参数 inputs 表示指定该网络层中的神经元个数;参数 activation 表示激活函数,以字符串的形式给出,包括relu、
2025-03-03 23:47:54
692
原创 tensorflow学习记录3——张量操作
使用tf.concat()函数拼接张量,tf.concat函数是用于拼接张量的重要工具。它的基本用法是tf.concat([tensor1, tensor2, tensor3,...], axis),其中axis参数指定了拼接的维度,axis=0代表在第0个维度拼接,axis=1代表在第1个维度拼接。可以用来改变张量的形状,它接受一个张量和一个新的形状作为输入,返回一个具有新形状的张量。元素个数不可以改变哦。可以用来在张量的指定轴上增加一个维度,它接受一个张量和一个轴作为输入,返回一个具有新形状的张量。
2025-02-20 22:33:57
373
原创 tensorflow学习记录7——数据准备(三)
分割数据,使用 tf.strings.split 函数将文件路径 filename 按照操作系统的路径分隔符 os.sep 进行分割# 读取并输出输入文件名的全部内容# 编码解码处理# 转换为float类型# 尺寸调整为128*128第四步、调用parse_image函数,操作数据集元素# 找到文件路径print('image的内容',image)print('label的内容',label)# 自定义函数绘制图像图形。
2025-02-12 12:53:47
223
原创 tensorflow学习记录2——创建常量、变量
verify_shape: 默认值为False,如果值为True时,在定义常量时会自动检测value和shape维度是否相同,不同则报错,例如value定义为1,而shape定义为一行两列的矩阵(1,2),那么肯定会报错。其中indices中的顺序必须有前后顺序,比如[0,6]不能在[0,2]前边,否则会报错,tf.sparse.reorder方法可以解决这个问题,自动调整顺序。:一个矩阵,一个数值表格,例如 [[1, 2], [3, 4],[5, 6]]。value:常量值,可以为数值、向量或矩阵。
2025-02-10 12:48:33
474
原创 tensorflow学习记录1——了解张量
向量的形状只包含一个元素,比如 (3,),而标量的形状为空,即 ()。2)形状:这是一个元组,表示张量沿每个轴的维度大小(元素个数),因表示元素个数,一定是整数元组。(数据表):一个矩阵,一个数值表格,例如 [[1, 2], [3, 4],[5, 6]]。(只有大小):(也叫标量张量、零维张量、0D 张量)只有一个数值,比如1;(有大小有方向):一个向量,一个数值序列,比如 [1, 2, 3]。1)阶:常用阶来表示张量的维度,几个阶就有几个维度,就有几个轴。每一个张量都有一个唯一的数据类型。
2025-01-31 14:36:51
460
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人