
深度学习
文章平均质量分 89
深度学习的一些基础认识
Tine Chan
独立追根溯源思考
展开
-
定语状语异同 限定和修饰关系 句子结构(修饰和被修饰)
为了达成某些目的,需要准备一些条件,不可控条件,通过一些方式,达成目的,形成良好结果,也有可能不好的结果,分析不好结果的原因,可能是方式,条件导致的,分析采用这种方式的原因,平行对比这种比较好,为啥需要这个条件,由目的产生。描述对象语(主语)、特征语(谓语、补语、表语,放到名语前后都有)、状语(限定谓语)、定语(限定名语))如果是对明天下雨的点明,说明明天下雨是个假设条件,这个条件是对不去的说明,是对不去学校的说明,人也是说明和限定指代对象的词,快乐是说明和限定类对象的词,两个限定词结合替代描述对象。原创 2020-09-10 17:24:28 · 1929 阅读 · 0 评论 -
单变量线性回归
·认识一下函数:x相对于上次变了,y相对于上次也变;通过关系找到的自变量和应变量认识下两数相乘:两者互为斜率和输入,不同的斜率/不同的输入模型:函数的大致模型由变量和幂次决定,函数的参数只能影响函数的走势,不能影响函数的固定大致外形方向代价(损失另一种叫法):付出的代价值,真实的输出与预测的输出造成的心理误差梯度下降:是一种求局部极小值得方法,可在多处使用...原创 2019-12-15 17:54:01 · 97 阅读 · 0 评论 -
矩阵乘法的认识
第一个矩阵按行看,第二个矩阵按列看;行/列都可看成人或者次数。矩阵的发明,可以简洁数学书写;求和也是一种简写,每项有1-n的参数如何拆分数学数字加法为简洁矩阵写法,第一个矩阵按行排,第二个按列排在编程方面的优势体现,两个矩阵可解决大量的数学加乘法运算,并行计算速率高思路:思考难的实现时,可由简单实现类比,...原创 2019-12-15 17:53:51 · 582 阅读 · 0 评论 -
多元线性回归
元即变量,变量即对应于某一类不同的输入值,多元即多个不同类参数:即斜率或者单价(互相性可看作输入)梯度下降:特征缩放便于快速求解,如何实现均值归一化:,将原始数据的波动限制在-0.5~0.5之间掐学习率(绝对不能过大,过小也不好)两个变量各自对输出都有影响,从开始下手,整合成一个对输出影响是一样的多项式:多个项例如一元多项式:多个项(可以是单个项),一个变量经过加减乘除、幂...原创 2019-12-15 17:53:39 · 190 阅读 · 0 评论 -
数据集的重要性
线性回归中,预测的输出必定需要输入数据集的影响,不然这样没有关联的数据预测没有意义原创 2019-12-15 17:53:28 · 5605 阅读 · 0 评论 -
神经网络
用于分类,解决逻辑回归解决不了特征庞大的图像特征(复杂非线性假设模型)虽然逻辑回归可以将非线性函数改成线性,但是由于非线性组合太多,所以即使改过来,那么线性特征将太多,加剧运算量(线性化也行不通)例:一幅照片当有2500个特征时候,即x1、x2、x3........x2500,所有二次项有2500*2499/2=300万个,换成线性化。。。300万个特征合适的权重很重要代价函数用于...原创 2019-12-15 17:52:44 · 165 阅读 · 0 评论 -
检测重要性(准确且节约时间)-评估
对结果进行验证或纠正或调整,指导下一步操作的重要性,能够准确的找出结果所对应的原因用新样本去检测,好不好训练集用来拟合参数,验证集用来选择模型,测试集作为泛化误差(无人为选择参与过程)一般出现误差=过拟合(方差大-数据集过少,特征过多,)+欠拟合(偏差大-模型选择不好)坐标的横轴重要性,变化如何影响输出(灵敏度)验证集代表即使用非训练集旁边的点(结合图原因)作图技巧,不同的...原创 2019-12-15 17:52:34 · 305 阅读 · 0 评论 -
深度学习-自动训练参数
卷积核:明显化特征最大池化:提取特征,去掉不需要的特征卷积层:普通神经网络的特殊化-未全连接-连接后未参数不同(训练参数缩小,对应数据集小的情况,防止过拟合,有利于提升计算速度)全连接:普通神经网络(训练参数众多)...原创 2019-12-15 17:50:17 · 631 阅读 · 0 评论 -
目标检测
检测:不但分类而且还有定位盒子(通过盒子中心点和长宽)分类:建立输入与输出的关系(比如特征),输入是图片,输出是标签,此物的特征;所以说呢,此物的特征是需要做的,而大量训练过后,就找到了特征和联系,再次输入,检测到特征,即输出目标特征检测:通过训练大量目标物的坐标,之后输入新的,也会得到特征点滑动窗口的目标检测算法:缺点:框的大小小了,步长小了,切片变多,框数量多,计算成本高;框的大小...原创 2019-12-15 17:49:58 · 1206 阅读 · 0 评论