西湖大学自然语言处理(十一)—— 分类

本文探讨了分类与聚类在自然语言处理中的应用,特别关注了线性可分的SVM模型,包括其定义、训练过程以及与感知机的区别。讲解了如何处理多分类问题,并比较了SVM与Perceptron在批学习和在线学习上的差异。涵盖了输出特征选择和多类别模型扩展方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

分类和聚类

在这里插入图片描述
在这里插入图片描述

聚类分类
核心将数据分成簇从已经分组好的数据中训练得出目标函数,把新数据放到已经分好的组中
学习类型无监督学习有监督学习
典型算法K-means,DBSCAN ,层次聚类,光谱聚类决策树,贝叶斯,逻辑回归
算法输出聚类结果并不确定,不一定能够反映数据的真实分类,同样的聚类,对于不同的需求,可能好也可能坏分类结果是确定的,分类的优劣是客观的,不根据业务或算法需求而定

聚类(无监督学习)

  • 不需要手工标注的训练数据
  • 文档中所有单词都具有同等的重要性
  • 很难保证固定的向量划分

分类(有监督学习)

  • 需要手工标注的训练数据
  • 对于分类任务挑选重要的单词
  • 使用模型参数来定义空间划分

Support Vector Machine(SVM)

Linear separability(线性可分性)

超平面:高维向量空间中的线性形状

  • 2维空间:线
  • 3维空间:面
  • 多维空间:超平面

线性可分:标记点具有超平面来分离边界

线性分类器:准确性和复杂性之间的平衡

  • 支持向量机
  • 感知机

SVM模型的定义

在这里插入图片描述
定义:向量空间中二元分类的线性模型
支持向量的定义:距离分类的超平面最近的标记点
距离的定义:支持向量与超平面之间的距离
训练目标:寻找最大化距离的超平面

SVM建模

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
对于任何一个支持向量而言,SVM要求 ∣ w ⃗ T v ⃗ ( x i ) + b ∣ = 1 |\vec{w}^T\vec{v}(x_i)+b| = 1 w Tv (xi)+b=1,这样可以使计算变得简便
在这里插入图片描述
约束条件可以这样理解:对于任何一个训练样本而言,它到超平面的距离都要大于等于边际距离
在这里插入图片描述

Perceptron(感知机)

The perceptron algorithm

在这里插入图片描述
在这里插入图片描述

Perceptron update

在这里插入图片描述

Numerical Interpretation(代数解释)

在这里插入图片描述

SVM和感知机区别

在这里插入图片描述
Batch learning是针对整个训练集而言来训练的,简称批学习
Online learning是对每个样本迭代更新参数

多分类问题

如何把二分类问题应用到多分类问题上?

两种思路:

  • 将所有样本分成1类和其他类
  • 针对每一组couple,训练一个分类器,判断样本属于哪一类
    在这里插入图片描述
    在这里插入图片描述
    正负样本的引入

Output-based features

在这里插入图片描述
在这里插入图片描述

Multi-class SVM

在这里插入图片描述
在这里插入图片描述

Multi-class perceptron

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值