fθ:x→yf_{\theta}: x\rightarrow yfθ:x→y
yyy通常可以分为两类:离散或连续
连续时为回归问题
linear regression
loss function
gradient descent
loss surface
convex Optimization
- linear regression
- linear Regression
- logistic Regression
- Classification
回归问题实战
-
线性回归
-
离散值预测
-
Image Classificaton
- ImageNet
- MNIST
- Hand-written Digits Recognition
- 7000 images per category
- train/test:60k/10k
-
Input and Output
- flatten
- matrix to vector
- one-hot
- ∑p(y=i∣x)=1\sum{p(y = i | x)} = 1∑p(y=i∣x)=1
- flatten
-
-
Regression vs Classification
- y∈Rdy \in R^dy∈Rd
- y[i]=p(y=i∣x)y[i] = p(y = i| x)y[i]=p(y=i∣x)
-
unlinear
- ReLU
-
hidden layer stack
-
Loss
- MSE(out, label)
- Cross Entropy
-
GPU speedup!
-
Enjoy MNIST!
本文深入探讨了机器学习中的核心概念,包括回归与分类问题,介绍了线性回归、逻辑回归等算法,并讨论了如ReLU激活函数和交叉熵损失函数等关键组件。同时,通过MNIST手写数字识别数据集实例,展示了从输入到输出的完整流程,包括图像分类和预测离散值的方法。
1199

被折叠的 条评论
为什么被折叠?



