
机器学习
ccdous
这个作者很懒,什么都没留下…
展开
-
二、线性回归
2、m样本数,x输入特征,y输出结果,(x,y)一个训练样本,x^(i)上标i训练集的索引,h假说函数。其中的\Theta 0,\Theta 1是假说函数h(x)=theta0+theta1*x的系数。2、线性回归的代价函数总是一个弓形函数,且只有一个全局最优解没有局部最优解。3、Batch梯度下降算法会遍历完整个样本集,适用于大型样本集。1、使用(三)中方法,多个参数的J代价函数需求偏导。二、代价函数(平方误差函数、平方误差代价函数)三、梯度下降算法最小化任意J函数。,即定上述定义式j为0和1。原创 2024-05-24 21:42:29 · 251 阅读 · 1 评论 -
一、概念定义
2、聚类算法:分成几个簇,比如分析用户数据,聚类出一些相同特点,划分出一些消费者市场,但最开始的时候并不知道会分出哪几类。3、鸡尾酒会算法:在酒会中,两个测试人员站在距离两个麦克风不同距离的位置用不同的语言数数,算法根据声音的差异将其分离开来。2、计算机程序从经验E中学习解决某一任务T,进行某一性能度量P,通过P测定在T上的表现,因经验E而提高。eg:跳棋游戏中:经验E是与自己进行成百上千次的对弈,任务T是玩跳棋,度量P是与对手对弈获胜的概率;2、给算法大量的数据,要求它找出数据的类型结构。原创 2024-05-14 20:46:53 · 206 阅读 · 2 评论