
cs231n
文章平均质量分 95
管大虾
这个作者很懒,什么都没留下…
展开
-
【cs231n】详解神经网络中的反向传播
定义:使用计算图来表示任意函数,其中图的节点表示我们要执行的每一步计算。好处:使用计算图来表示一个函数,就能使用反向传播技术递归地调用链式法则来计算一下计算图中每个变量的梯度。当涉及到非常复杂的函数时,这种方法非常有用。对于函数f(x,y,z)=(x+y)zf(x,y,z) = (x+y)zf(x,y,z)=(x+y)z,其中x=-2,y=5,z=-4链式法则,比如计算∂f∂y=∂f∂q∂q∂y\dfrac{\partial f}{\partial y} = \dfrac{\partial f}{\pa原创 2022-07-06 14:52:46 · 549 阅读 · 0 评论 -
【cs231n】损失函数SVM、softmax及梯度下降优化
如何确定W,如何利用训练数据得到好的W。损失函数:定义一个函数,输入W,然后定量计算W的好坏。给定一个样本(xi,yi)(x_i,y_i)(xi,yi),其中xix_ixi是图片,yiy_iyi是图片真实对应的标签,就是第几类,i代表是训练集第i个样本。用支持向量机表示为:Li=∑j≠yimax(0,sj−syi+1)L_i = \sum_{j\neq y_i}max(0,s_j-s_{y_i}+1)Li=j=yi∑max(0,sj−syi+1),S为这张图片通过分类器计算出来的各个原创 2022-07-06 14:51:55 · 915 阅读 · 0 评论 -
【cs231n】图像分类K最邻近算法和线性分类器
很难直接写出一个代码来判断他是什么对象通过比较图像之间的差异进行分类,通过像素进行比较差异。首先通过训练函数只是简单地所有的训练数据都记忆下来,每次输入一张图片进行预测时,将遍历已经记忆的训练数据找到最相近的图片,根据最相近的图片的类别来预测这个输入图片的类别。训练的复杂度:O(1)预测的复杂度:O(N)这是很坏的一个结果,因为在训练时这个算法很快,但是真正进行预测时很慢,这和我们的初衷完全相反。如果只计算最邻近一个图片,会有弊端,比如下图,绿色分区中单独有一个黄色的点,因为只计算最近的那个点,所以那一片就原创 2022-07-06 14:51:28 · 730 阅读 · 0 评论