【Udacity笔记】What is Machine Learning?

Teaching computers to learn to perform tasks from past experiences(recorded data)

一、Decision Tree(决策树)

——Example:for recommend app

二、Naive Bayes Algorithm(朴素贝叶斯)

——Example:for detecting Spam e-mails(垃圾邮件)

三、Gradient descent(梯度下降)

——Example:Minimize the Error

四、Linear Regression(线性回归)

——Example:Price of a house

五、(对数几率回归)

Logistic Regression(逻辑回归)
Log loss function (对数损失函数)——代表错误数目

——Example:找出能最小化误差函数的最佳拟合线

1143923-20170908175953210-901313228.jpg

最小化误差函数——结合梯度下降算法
爬山——每一步都走梯度下降最快的(误差减小更多)

六、Support Vector Machine(支持向量机SVM)

  • Cutting data with style
  • Support——靠近边界的点被称为支撑(support)

1143923-20170908180014679-1362063656.jpg

1143923-20170908180021601-1864406014.jpg

七、Kernel Trick(核函数)

  • when a line is not enough
    1143923-20170908180052601-603074809.jpg
    1143923-20170908180057132-1824153503.jpg
    1143923-20170908180100319-587601003.jpg

八、Neural Network(神经网络)

1143923-20170908180146429-1521483371.jpg

九、类比忍者

1143923-20170908180219819-563019761.jpg
1143923-20170908180223163-1399741990.jpg

十、K均值聚类(K-Means Clustering)

  • Example pizza parlors
  • 需要预知最后分成几组

1143923-20170908180242554-749612718.jpg

十一、层次聚类(Hierarchical Clustering)

  • 无需预知最后聚类数目

1143923-20170908180318163-492462865.jpg

阶段总结

1143923-20170908180334804-1968877958.jpg

转载于:https://www.cnblogs.com/Neo007/p/7495840.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值