- 博客(9)
- 收藏
- 关注
原创 【深度学习(李沐)】
无论使用哪个深度学习框架,它的张量类(在MXNet中为ndarray, 在PyTorch和TensorFlow中为Tensor)都与Numpy的ndarray类似。如果我们的目标形状是(高度,宽度), 那么在知道宽度后,高度会被自动计算得出,不必我们自己做除法。在上面的例子中,为了获得一个3行的矩阵,我们手动指定了它有3行和4列。下面的例子分别演示了当我们沿行(轴0,形状的第一个元素)和按列(轴1,形状的第二个元素)连结两个矩阵时,会发生什么情况。在这里,最外层的列表对应于轴0,内层的列表对应于轴1。
2022-11-12 10:45:27
1493
原创 吴恩达ML WEEK8+9 练习四:神经网络+SVM+聚类
学习时间:2022.10.24~2022.11.6–ex4.m - 指导你在整个练习。ex4data1.mat - 手写数字的训练集。ex4weights.mat -练习4的神经网络参数。submit.m - Submission script that sends your solutions to our serversdisplayData.m - 数据可视化。fmincg.m - 最小化程序函数。sigmoid.m - Sigmoid函数。computeNumericalGradien
2022-11-06 21:12:49
900
原创 吴恩达ML WEEK7 机器学习
学习时间:2022.10.17~2022.10.23完成练习三:神经网络的前向传播算法学习神经网络的代价函数学习并理解神经网络反向传播算法自学了反向传播公式的推导过程学习神经网络梯度检验方法和权重矩阵的随机初始化。
2022-10-24 20:06:23
693
原创 吴恩达ML WEEK6 练习三(神经网络)+神经网络学习
学习时间:2022.10.10~2022.10.16完成练习三:神经网络的前向传播算法学习神经网络的代价函数学习并理解神经网络反向传播算法自学了反向传播公式的推导过程学习神经网络梯度检验方法和权重矩阵的随机初始化。
2022-10-16 20:00:13
561
原创 吴恩达ML WEEK5 练习二(逻辑回归)+神经网络表示+练习三(多分类)
学习时间:2022.10.3~2022.10.9==背景:==假设你是一个大学系的管理员,你需要根据每个申请人的两次考试的结果决定录取机会。任务:完成,画出figure1,横轴和纵轴是两个考试分数,正和负样本用不同符号表示。代码:参考链接: python绘制散点图结果tips:np.r_是按列连接两个矩阵,就是把两矩阵上下相加,要求列数相等。np.c_是按行连接两个矩阵,就是把两矩阵左右相加,要求行数相等。sigmoid函数:g(z)=11+e−zg(z)=\frac{1}{1+e^{-z}}g
2022-10-09 17:13:42
912
1
原创 吴恩达ML WEEK3 练习一代码(线性回归)
复习单变量线性回归和多变量线性回归复习MATLAB软件的使用利用所学知识,完成单变量线性回归代价函数计算、梯度下降的代码编写利用所学知识,完成多变量线性回归代价函数计算、梯度下降的代码编写,以及正规方程法求解θ\thetaθ的代码编写。熟悉了使用梯度下降法求解线性回归的流程和代码,可以很好地运用MATLAB求解问题。
2022-09-18 16:21:06
581
原创 吴恩达ML WEEK2 线性回归+MATLAB
学习时间:2022.9.5 ~ 2022.9.11学习了多变量的线性回归的公式表达、梯度下降方法,以及如何进行特征缩放,如何选择学习率。学习了多变量的线性回归的另一种求解参数的方法——正规方程,以及正规方程中不可逆的情况的求解方法。比较了梯度下降和正规方程两种方法的优劣,学会在何种情况下使用何种方法的诀窍。复习了matlab对数据的基本操作,包括:矩阵的运算、切片、绘图等等,还复习了while、for语句的语法、函数的编写方法。学习如何用向量代替循环,从而使运算速度加快。
2022-09-11 14:46:56
586
原创 吴恩达ML WEEK1 线性回归+线性代数
参考视频: B站吴恩达机器学习学习时间:2022.8.29 ~ 2022.9.4Arthur Samuel并非下棋高手,却可以使程序经过学习后,可以成为西洋棋高手。以下围棋为例:经验e 就是程序上万次的自我练习的经验; 任务 t 就是下棋;性能度量值 p ,就是它在与一些新的对手比赛时,赢得比赛的概率。
2022-09-04 14:47:42
798
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人