TensorFlow(二) Classfication

本文介绍了一种使用TensorFlow实现的手写数字识别方法。通过导入MNIST数据集,建立了一个包含输入层、隐藏层和输出层的神经网络模型。模型采用Softmax分类器进行预测,并通过梯度下降法进行训练。实验结果显示,该模型能够有效识别手写数字,准确率较高。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

导入mnist数据集,0-9  10个数字的图片,经过训练后, 预测图片中是哪个数字,运用softmax进行分类,最后计算准确度

from __future__ import print_function
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
from tensorflow.examples.tutorials.mnist import input_data

mnist = input_data.read_data_sets('E:/mnist_data', one_hot=True)

def add_layer(inputs, in_size, out_size, activation_function=None):   #添加一个层
    w = tf.Variable(tf.random_normal([in_size, out_size]))   #从正态分布中生成随机值
    b = tf.Variable(tf.zeros([1, out_size]) + 0.1)
    Wx_plus_b = tf.matmul(inputs, w) + b
    if activation_function is None:
        outputs = Wx_plus_b
    else:
        outputs = activation_function(Wx_plus_b)
    return outputs

def compute_accuracy(v_xs, v_ys):
    global prediction
    y_pre = sess.run(prediction, feed_dict={xs:v_xs})           #计算出预测值
    correct_prediction = tf.equal(tf.argmax(y_pre, 1), tf.argmax(v_ys, 1))      #看预测值的准确性
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))          #将bool类型转换为dtype类型,并计算均值
    result = sess.run(accuracy, feed_dict={xs:v_xs, ys:v_ys})           #运行,计算准确性并返回
    return result


xs = tf.placeholder(tf.float32, [None, 784])                #784列
ys = tf.placeholder(tf.float32, [None, 10])                 #10列

prediction = add_layer(xs, 784, 10, activation_function=tf.nn.softmax)          #经过训练,出一个预测值

loss = tf.reduce_mean(-tf.reduce_sum(ys * tf.log(prediction), reduction_indices=[1]))           #softmax损失函数计算方法
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss)                  #训练,梯度下降

sess = tf.Session()

sess.run(tf.initialize_all_variables())                                #初始化
for i in range(1000):
    batch_xs, batch_ys = mnist.train.next_batch(100)                    #按批次训练,每批次100行
    sess.run(train_step, feed_dict={xs:batch_xs, ys: batch_ys})         #执行训练
    if i % 50 == 0:
        print(compute_accuracy(mnist.test.images, mnist.test.labels))       #计算精确度

 

### 少样本分类简介 少样本分类(Few-Shot Classification),作为机器学习的一个分支,旨在解决当仅有少量标注数据可用时如何有效地训练模型的问题。这种场景下传统监督学习方法往往表现不佳,因为它们通常依赖大量带标签的数据来捕捉模式并泛化到新实例上。 为了应对这一挑战,提出了新的范式——即小样本学习(Few-Shot Learning),其目标是从有限数量的例子中获取知识,并能够快速适应未见过的新类别[^3]。 ### 方法概述 #### 原型网络(Prototypical Networks) 原型网络是一种简单而有效的few-shot分类算法。该方法通过计算支持集内每个类别的平均嵌入向量(称为“原型”),并将查询样本分配给与其最接近的原型所属的类别完成分类任务。这种方法不仅直观而且易于实现,在许多基准测试中表现出色[^1]。 ```python import torch.nn.functional as F def euclidean_dist(x, y): """Compute Euclidean distance between two tensors.""" n = x.size(0) m = y.size(0) d = x.size(1) assert d == y.size(1) x = x.unsqueeze(1).expand(n, m, d) y = y.unsqueeze(0).expand(n, m, d) dist = torch.pow(x - y, 2).sum(2) return dist class PrototypicalNetwork(nn.Module): def __init__(self, encoder): super().__init__() self.encoder = encoder def forward(self, support_images, query_images): # Extract features using pretrained CNN backbone. z_support = self.encoder(support_images) z_query = self.encoder(query_images) # Compute class prototypes by averaging over all samples per class within the support set. proto = [] for c in range(num_classes): proto.append(z_support[support_labels==c].mean(dim=0)) protos = torch.stack(proto) # Calculate distances from each query sample to every prototype. logits = -euclidean_dist(z_query, protos) return logits ``` #### 转导学习(Transductive Learning) 转导学习已经成为few-shot分类中的一个重要话题。不同于归纳推理仅基于已知标记样本来预测未知样本标签的方式,转导学习利用无标签数据的信息来进行更精确地推断。尽管存在一些局限性,比如假设无标签数据分布平衡等问题,但最近提出的嵌入传播算法已经证明可以显著提升性能[^2]。 ### 应用场景 - **医疗影像诊断**:由于高质量医学图像难以获得且成本高昂,因此采用few-shot技术可以帮助医生更快更好地识别罕见疾病。 - **自然语言处理(NLP)**:对于低资源语言或特定领域术语的理解和翻译,few-shot学习提供了有效解决方案。 - **个性化推荐系统**:针对冷启动问题(如新产品发布初期缺乏足够的交互记录),可以通过分析少数用户的反馈迅速调整推荐策略。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值