基于TensorFlow的经典机器学习与神经网络实践
1. 逻辑回归与分类问题
在处理分类问题时,逻辑回归是一种常用的方法。当涉及两个以上的类别时,就需要使用多项逻辑回归。在多项逻辑回归中,我们使用softmax函数来替代sigmoid函数。softmax函数的数学表达式如下:
Softmax函数会为每个类别生成概率,并且这些概率的总和为1。在预测时,softmax值最高的类别即为输出或预测类别。损失函数通常是负对数似然函数 -l(w),可以使用梯度下降等优化器来最小化该损失函数。多项逻辑回归的损失函数形式如下:
其中 ϕ(z) 是softmax函数。
1.1 二元分类
二元分类是指只有两个不同类别的问题。我们可以使用SciKit Learn库中的 make_classification() 函数来生成数据集,示例代码如下:
import sklearn.datasets as skds
import numpy as np
import matplotlib.pyplot as plt
import sklearn.model_selection as skms
import tensorflow as tf
X, y = skds.make_classification(n_samples=200,
n_features=2,
n_informative=2,
超级会员免费看
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



