2019.10.5学习进度
今天是第六天参与STAR Pro,今天主要学习了两方面内容:
浅层神经网络
这周开始学习第三周–浅层神经网。今天学了神经网络的概览和表示。联系上周所学知识,神经网络可以看成是多个由logisitc回归组成的。而且神经网络的输出也可以用上周所学的向量法来计算,不同样本的神经网络也可用向量法计算。
第二周大作业——Python Basics with Numpy
此次大作业简单的教会了如何用代码实现向量化,还有向量化的一些计算,以及与普通的实数计算相比,向量化计算的优势。
math与numpy中exp函数区别:
math:
numpy:
可以进行向量的计算
sigmoid函数及其求导:
规范行量:
广播和softmax函数
向量化:LOSS函数
碰到问题:
在求范数中,函数列表的参数代表了什么意思?
解答:
https://blog.youkuaiyun.com/hqh131360239/article/details/79061535,ord=1:列和的最大值
ord=2:|λE-ATA|=0,求特征值,然后求最大特征值得算术平方根(matlab在线版,计算ans=ATA,[x,y]=eig(ans),sqrt(y),x是特征向量,y是特征值)
ord=∞:行和的最大值
ord=None:默认情况下,是求整体的矩阵元素平方和,再开根号。(没仔细看,以为默认情况下就是矩阵的二范数,修正一下,默认情况下是求整个矩阵元素平方和再开根号)
③axis:处理类型
axis=1表示按行向量处理,求多个行向量的范数
axis=0表示按列向量处理,求多个列向量的范数
axis=None表示矩阵范数。
④keepding:是否保持矩阵的二维特性
True表示保持矩阵的二维特性,False相反
2019.10.6学习进度
今天是第七天参加STAR Pro,今天主要学习了第三周———浅层神经网的知识。在此节中,了解了浅层神经网络是如何设置的,在train中通过正向传播计算出预值和导数,之后再通过梯度下降法优化参数,反向优化所求函数。
2019.10.7学习进度
今天是第八天参与STAR Pro,今天主要完成了两方面内容:
1.《机器学习-李宏毅》
初步学习了P1与P2.
P1了解机器学习的概念、种类及其应用。
P2主要了解了神经网络的构造,构建一个神经网络主要分为三步:Step 1: Model、 Step 2: Goodness of Function 、Step 3: Gradient Descent。模型越复杂,实际test中精度不一定准确,而且在回归模型构建和输入x选择上考虑的因素覆盖面要广。函数中可以加入smooth functions,The functions with smaller ??are better。
第二周大作业——Logistic Regression as a Neural 1-4.2
学习了如何对矩阵进行转置等操作.
样本矩阵的参数
转置矩阵
sigmoid()函数设置
初始化参数
碰到问题1
2中pil.imshow函数的作用是什么?
解决
问题2
numpy中array的使用方法有哪些?
解决
https://blog.youkuaiyun.com/MsSpark/article/details/83050000
https://docs.scipy.org/doc/numpy/reference/generated/numpy.reshape.html
https://docs.scipy.org/doc/numpy/reference/generated/numpy.ndarray.shape.html