8、基于TensorFlow的经典机器学习与神经网络实践

基于TensorFlow的经典机器学习与神经网络实践

1. 逻辑回归与分类问题

在处理分类问题时,逻辑回归是一种常用的方法。当涉及两个以上的类别时,就需要使用多项逻辑回归。在多项逻辑回归中,我们使用softmax函数来替代sigmoid函数。softmax函数的数学表达式如下:

Softmax函数会为每个类别生成概率,并且这些概率的总和为1。在预测时,softmax值最高的类别即为输出或预测类别。损失函数通常是负对数似然函数 -l(w),可以使用梯度下降等优化器来最小化该损失函数。多项逻辑回归的损失函数形式如下:

其中 ϕ(z) 是softmax函数。

1.1 二元分类

二元分类是指只有两个不同类别的问题。我们可以使用SciKit Learn库中的 make_classification() 函数来生成数据集,示例代码如下:

import sklearn.datasets as skds
import numpy as np
import matplotlib.pyplot as plt
import sklearn.model_selection as skms
import tensorflow as tf

X, y = skds.make_classification(n_samples=200,
                                n_features=2,
                                n_informative=2,
                 
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值