无监督学习之t-SNE

本文深入解析了t-SNE算法,一种由Laurens van der Maaten和Geoffrey Hinton提出的非线性降维技术,特别适用于高维数据的可视化。文章通过与PCA的对比,展示了t-SNE在手写数字体数据集上的卓越表现,并提供了Python代码实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

http://www.datakit.cn/blog/2017/02/05/t_sne_full.html

一、Visualizing Data using t-SNE

  • 论文链接:http://www.jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf
  • t-SNE(t-distributed stochastic neighbor embedding)是用于降维的一种机器学习算法,是由 Laurens van der Maaten 和 Geoffrey Hinton在08年提出来。此外,t-SNE 是一种非线性降维算法,非常适用于高维数据降维到2维或者3维,进行可视化。相对于PCA来说,t-SNE可以说是一种更高级有效的方法,在第二部分我们会展示t-SNE和PCA在手写数字体上的效果对比。
  • 原理简述:t-SNE是一种降维算法,目的就是把X(原始高维数据)转换成Z(指定低维度的数据)。t-SNE首先将距离转换为条件概率来表达点与点之间的相似度,距离通过欧式距离算得,S( x^i , x^j )表示求 x^i,x^j 之间的欧式距离。计算原始高维数据X与转换后的低维数据Z的公式如下所示。

 

计算完X数据之间的的概率P( x^j|x^i )和Z数据之间的概率Q( z^j | z^i )之后,接下来就是我们 的目的就是P和Q连个分布尽可能的接近,也就是要是如下公式的KL散度尽可能小。

sklearn中已有现成的TSNE,下面我们来比较一下t-SNE与PCA的效果。

二、简单示例

from sklearn.manifold import TSNE
from sklearn.datasets import load_iris,load_digits
from sklearn.decomposition import PCA
import matplotlib.pyplot as plt
import os

digits = load_digits()
X_tsne = TSNE(n_components=2,random_state=33).fit_transform(digits.data)
X_pca = PCA(n_components=2).fit_transform(digits.data)

ckpt_dir="images"
if not os.path.exists(ckpt_dir):
    os.makedirs(ckpt_dir)

plt.figure(figsize=(10, 5))
plt.subplot(121)
plt.scatter(X_tsne[:, 0], X_tsne[:, 1], c=digits.target,label="t-SNE")
plt.legend()
plt.subplot(122)
plt.scatter(X_pca[:, 0], X_pca[:, 1], c=digits.target,label="PCA")
plt.legend()
plt.savefig('images/digits_tsne-pca.png', dpi=120)
plt.show()

从结果可以看出PCA降到二维后基本混到一起来,很难进行区分。而t-SNE的效果非常的不错。

 

三、参考资料

  1. t-SNE完整笔记
  2. A tutorial on the t-SNE learning algorithm
  3. 线性判别(LDA)与主成分分析(PCA)

 

### 无监督域适应中使用 t-SNE 的实现方法 在无监督域适应(UDA)领域,t-SNE可以作为一种可视化工具来评估不同域之间的分布差异。通过将高维特征映射到二维或三维空间,研究者能够直观地观察源域和目标域样本的分布情况及其重叠程度。 对于无监督域适应而言,在应用t-SNE之前通常会先利用深度学习模型提取两个域的数据特征向量作为输入给t-SNE算法[^1]。具体来说: - **数据预处理**:收集来自源域(Source Domain)和目标域(Target Domain)的数据集,并对其进行标准化等必要的前处理操作。 - **特征提取**:采用卷积神经网络(CNNs)或其他类型的编码器对上述两类数据分别进行特征表示的学习过程;此阶段可能涉及到迁移学习技术的应用以便更好地初始化权重矩阵从而加速收敛并提高泛化能力。 - **降维与可视化**:基于所获得的深层特征表达,调用sklearn.manifold.TSNE类完成最终低维度嵌入式的转换工作。这一步骤有助于揭示潜在结构信息并且便于后续分析比较两者之间是否存在明显界限或者交叉现象发生。 下面给出一段简单的Python代码片段展示如何结合CNN与t-SNE来进行跨域图像分类任务中的特征对比实验: ```python from sklearn.manifold import TSNE import torch.nn as nn import torchvision.models as models class FeatureExtractor(nn.Module): def __init__(self, pretrained=True): super().__init__() self.model = models.resnet50(pretrained=pretrained) def forward(self, x): features = [] # Remove fully connected layer and only keep convolutional layers. modules = list(self.model.children())[:-1] for module in modules: x = module(x) if isinstance(module, nn.Conv2d): features.append(x.view(x.size(0), -1)) return sum(features) def visualize_features(source_loader, target_loader): extractor = FeatureExtractor() source_features = [] target_features = [] with torch.no_grad(): for batch_idx, (data, _) in enumerate(source_loader): feature = extractor(data).cpu().numpy() source_features.extend(feature) for batch_idx, (data, _) in enumerate(target_loader): feature = extractor(data).cpu().numpy() target_features.extend(feature) tsne = TSNE(n_components=2, random_state=42) all_data = np.vstack((source_features, target_features)) transformed_data = tsne.fit_transform(all_data) plt.figure(figsize=(8, 6)) colors = ['r', 'b'] labels = ["Source", "Target"] for i, c, label in zip([0, len(source_features)], colors, labels): plt.scatter(transformed_data[i:i+len(source_features), 0], transformed_data[i:i+len(source_features), 1], color=c, label=label) plt.legend(loc='best') plt.show() visualize_features(source_dataloader, target_dataloader) ``` 这段程序定义了一个`FeatureExtractor`类继承自PyTorch模块,它移除了ResNet架构的最后一层全连接部分只保留前面若干个卷积核用于获取更抽象级别的表征形式。接着创建名为`visualize_features()`的功能函数接收两个加载器对象——即代表各自领域的批量图片序列——经过一系列变换之后绘制散点图呈现出来供人们查看效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值