- 博客(9)
- 收藏
- 关注
原创 第五节 食物分类
卷积核不认识图像被放大缩小旋旋转拉伸前后的图片,所以需要进行数据增广,即让模型对图片的各种处理再跑一遍。为了复现好的随机结果,所以需要随机种子环境参数保存函数 seed everything。lr是动态变化的,梯度大,lr就小,两者乘积就不会爆炸。adam 综合考虑前一个点和当前点的混合梯度方向。sgd是梯度计算函数,只考虑当前点的梯度方向。
2025-03-04 16:05:41
254
原创 第二节下 回归实战——线性回归代码
def data_provider(data, label, batchsize): # 每次调用这个函数,都能产生 batchize 大小的一批数据,用这个大小的数据进行一次训练。w_0 = torch.normal(0, 0.01, true_w.shape, requires_grad=True) #需要计算梯度。plt.scatter(X[:, 1], Y, 1) #1表示散点图点的大小, X[:, 1] 取所有行,1列。print("真实的函数是",true_w, true_b)
2025-02-25 19:14:12
628
原创 第2节上 python基础
list4 = [i for i in range(1,10,2)] #循环后置,列表表达式中暗藏循环结构。# for i in range(2,10,3): #2是开头,10是结尾(取不到),3是步进。# laoli = person("ligekaoyan",28) #实例化。# array = np.array(list1) #把list1 矩阵化。array = np.array(list1) #把list1 矩阵化。# # print(list1[1:4]) #左开右闭。
2025-02-19 14:14:00
626
原创 第1节 深度神经网络
激活函数类似于阈值(门槛),对传递信息进行筛选判断。激活函数给神经网络引入了非线性关系,使得神经网络可以模拟非线性的模型。B站搜小甲鱼,学一些基本的python操作(字典)。梯度下降法(梯度指的是函数值下降最快的那个方向)作业:环境配置,python语法配置。有矩阵方程 r = W X + b。无激活函数,预测值只能表现为直线。神经网络本质是矩阵运算。1、sigmoid函数。向前过程——梯度回传。梯度下降算法 w-η。(r),σ是激活函数。
2025-01-13 22:15:38
207
原创 第0节 机器学习与深度学习
机器学习:狭义上指非深度学习的机器学习内容,有解释性(说得通,有逻辑),常见机器学习模型有KNN模型(判断归属),决策树(垃圾邮件,;深度学习:设计一个很深的网络架构让机器自己学习,也可以理解成找一个函数f,数据就是自变量x,产出y取决于投喂数据的质量。线性神经元比较简单,数学本质是线性函数(如果无激活函数),因此无法拟合复杂函数(分段函数,高次函数etc)。L 是位置参数 w、b的函数,L 函数值衡量参数值与真实值的亲近程度。用η对L(w,b)进行迭代更新(类似于牛顿迭代),实现逼近极值。
2025-01-12 17:43:22
226
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅