机器学习
文章平均质量分 56
居南
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
[机器学习]02.逻辑回归(Logistic Regression)
Logistic Regression 属于分类(classification)问题。 在逻辑回归中,假设函数为 其中g(z)为Sigmoid Function/logistic Function,形状如: 此时,假设函数h(X)的意思为:对于样本x的y=1的可能性的大小 Y=1 时,相当于 g(z)>=0.5 或z>0 或 h (x) >=0.5 或 X*theta >0原创 2017-05-24 18:49:57 · 278 阅读 · 0 评论 -
[机器学习]03.高级优化法(Advanced Optimization)
梯度下降调用fminunc函数 先列出theta、cost function、以及cost function对各theta的偏导数 在octave中创建一个costFunction,表示为 调用fminunc Optimset : GradObj on:梯度下降打开。MaxIter:设置最大迭代次数100; opTheta:自动选择各种原创 2017-05-24 18:56:30 · 971 阅读 · 0 评论 -
[机器学习]04.多级分类(Multiclass classfication) 过度拟合(overfitting)
Multi-class classfication k类用k个分类器 将一类取出,剩下所有的都归为一类,来进行第一次分类,再分下一个; 当分类一个新的x时,放到假设函数去看哪个的可能性大 过度拟合(overfitting) 有很多特征变量,而训练集很少 可能出现过度拟合 解决: 1.减少特征量 2.Regularization 正则化 Cost fu原创 2017-05-24 19:24:06 · 2474 阅读 · 0 评论 -
[机器学习]week3编程作业:Logistic Regression
plotData.m function plotData(X, y) %PLOTDATA Plots the data points X and y into a new figure % PLOTDATA(x,y) plots the data points with + for the positive examples % and o for the negative e原创 2017-05-24 19:40:42 · 1681 阅读 · 0 评论 -
[机器学习]01.线性回归(Linear Regression) 梯度下降(Gradient Decent)
线性回归(Linear Regression) 1.假设函数( Hypothesis Function) 给定了一系列离散的点,求一条直线与这些点最吻合。将这条直线的函数叫假设函数,设为 改变theta的值时,式子将产生不同的直线,有的偏差严重,有的相对好一些。要看直线与点的吻合程度,需要一个函数来作为误差函数。 2.代价函数(Cost Function) 计算theta原创 2017-05-17 20:05:22 · 727 阅读 · 0 评论 -
[机器学习]week2编程作业:Linear Regression
ex1: warmUpExercise.m % ============= YOUR CODE HERE ============== % Instructions: Return the 5x5 identity matrix % In octave, we return values by defining which variables %原创 2017-05-18 20:43:51 · 909 阅读 · 0 评论 -
[机器学习]week4编程作业:Multi-class Classification and Neural Networks
lrCostFunction.m function [J, grad] = lrCostFunction(theta, X, y, lambda) %LRCOSTFUNCTION Compute cost and gradient for logistic regression with %regularization % J = LRCOSTFUNCTION(theta, X,原创 2017-06-05 19:12:48 · 857 阅读 · 0 评论 -
[机器学习]05.神经元神经网络
神经元模型,逻辑单元 x0,偏置单位/偏置神经元=1 Theta是参数,又称权重weight 神经网络:不同的神经元在一起的组合 第一层输入层input layer 最后一层输出层output layer 中间hidden layer 当只有一层hidden layer时 a第j层的第i个单位的激励 Theta 第j到j+1层的作用函数原创 2017-06-05 20:27:34 · 371 阅读 · 0 评论
分享