分类算法入门:从二维回归到多类分类及情感分析应用
1. 二维回归问题求解
在处理分类问题时,我们常常会遇到多个独立变量的情况。独立变量的数量对应着维度,例如二维逻辑回归问题就是要对一对独立变量进行标记。
举个例子,当你考虑购买一部新手机时,你关心的属性可能有操作系统、尺寸和成本,目标是决定这部手机是否值得购买。这里就有三个独立变量(手机的属性)和一个因变量(是否值得购买),这可以看作是一个三维的分类问题。
再看一个具体的数据集,它代表了城市中两个帮派的犯罪活动。第一个维度是 x 轴,可以看作是纬度;第二个维度是 y 轴,代表经度。有一个聚类在 (3, 2) 附近,另一个在 (7, 6) 附近。现在的任务是判断在位置 (6, 4) 发生的一起新犯罪最可能是哪个帮派所为。
在 TensorFlow 中,交叉熵损失可以通过 tf.reduce_mean 操作对每个输入/输出对进行平均。此外,TensorFlow 库还提供了一个更通用的函数 tf.nn.softmax_cross_entropy_with_logits ,你可以在 官方文档 中了解更多信息。
下面是使用逻辑回归解决二维问题的代码示例:
import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt
learning_rate = 0.1
training_e
超级会员免费看
订阅专栏 解锁全文
5万+

被折叠的 条评论
为什么被折叠?



