自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(29)
  • 收藏
  • 关注

原创 参加数学建模

数学建模

2022-06-23 20:54:10 631 1

原创 contrastive learning的学习

Gaussian Mixture Variational Autoencoder with Contrastive Learning for Multi-Label Classification-Accepted to NeurIPS 2021 Workshop on Deep Generative Models and Downstream Applications文章目录Gaussian Mixture Variational Autoencoder with Contrastive Learnin

2022-04-19 21:37:14 392

原创 Contrastive learning的学习

Contrast Learning Visual Attention for Multi Label Classification-CVPR Submitted on 24 Jul 2021文章目录Contrast Learning Visual Attention for Multi Label Classification-CVPR Submitted on 24 Jul 2021前言一、摘要二、method1.input2.output3.contrastive learning三、实验总结前

2022-04-18 20:10:29 2936

转载 python arff 转换为mat

python arff 转换为mat近来见到一种神奇的格式arff格式,需要将这种格式转化为matlab可以读取的数据,即mat文件。首先我们看一下arff数据是什么样子的:首先arff数据都有一个索引:这里记录的数据每一个维度是什么意思。而下面的数据有两大类:压缩矩阵和非压缩矩阵:压缩矩阵看起来比较小,因为他只是记录了一部分的信息,就是稀疏矩阵的一部分有信息的数据,没有记录的就默认为0非压缩的矩阵就比较正常了,因为里面每一条数据的每一个维度都有数据记录。这里对于非压缩矩阵,我们用以下

2022-04-07 15:49:49 436

原创 混淆矩阵举例说明

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、动机二、概念三、数学式四、例子对比五、结论前言对混淆矩阵进行讲述一、动机为了查验算法是否合理,适用于不平衡数据集。避免算法准确率高是因为预测类别全部分为其中一类。二、概念下面先介绍常见的模型评价术语。我们分类目标有两类,计为正例(positive)和负例(negtive):True positives(TP):被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数)。False .

2022-03-10 16:42:46 2091 1

原创 running example

问题:一个instance的运行过程过程描述:例如:一个instance有20个特征,6个标签。最后需要得到10个特征。$$\mathbf{x}$$,$ \dots$如下图所示:

2022-03-03 14:52:59 396 1

原创 2021-9月第三周周报

对多标签分类进行图注意力机制的分类

2021-09-18 10:12:42 295 1

原创 2021-9-16对CMALE代码的理解

代价敏感多标签主动学习

2021-09-18 09:47:33 187

原创 阅读文章-用于图像分类的多标签主动学习算法:概述和未来前景

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、多标签主动学习?二、目前常用方法1.2.三、未来展望前言应闵老师要求,在开学前阅读完,然后讲解出来。一、多标签主动学习?多标签图像分类的成功与否与构建训练集的方式密切相关。由于主动学习旨在通过迭代地选择信息量最大的示例来构建有效的训练集以从注释器中查询标签,因此将其引入多标签图像分类。该综述将目前多标签图像分类算法分别从两个方面分为两大类:采样和注释(注释还不清楚在是什么,有什么用,在一个具体的数据集中值哪部分

2021-08-28 19:35:34 1071

原创 2021-08-03魔鬼训练报告

数学表达式魔鬼训练文章目录数学表达式魔鬼训练作业作业定义一个标签分布系统, 即各标签的值不是 0/1, 而是[0,1] 区间的实数, 且同一对象的标签和为 1.Definition. A multi-label distribution decision system is a tuple S=(X,Y)S = (\mathbf{X}, \mathbf{Y})S=(X,Y) where X=[xij]n×m∈Rn×m\mathbf{X}= [ x_{i j} ] _{n \times m} \in

2021-08-08 18:37:33 166

原创 2021-08-02魔鬼训练报告

数学表达式魔鬼训练文章目录数学表达式魔鬼训练作业作业写出无向图的邻接矩阵该图的邻接矩阵为E=[0111101011011010]\mathbf{E}=\begin{bmatrix} 0&1&1&1 \\ 1&0&1&0 \\1&1&0&1\\1&0&1&0 \end{bmatrix}\quadE=⎣⎢⎢⎡​0111​1010​1101​1010​⎦⎥⎥⎤​定义无向网络Definition :

2021-08-02 23:35:40 101

原创 2021.7.28魔鬼训练报告

数学表达式魔鬼训练文章目录数学表达式魔鬼训练作业作业将向量下标为偶数的分量 (x2x_2x2​, x4x_4x4​, …) 累加, 写出相应表达式.∑i%2=0xi(1)\sum_{i \%2 =0} x_i \tag{1}i%2=0∑​xi​(1)各出一道累加、累乘、积分表达式的习题, 并给出标准答案.(1)将100以内的,%3=0\%3=0%3=0的数累加起来∑i=1,i%3=0100i(2)\sum_{i=1,i \%3 =0}^{100} i\tag{2}i=1,i%3=0∑1

2021-07-29 00:57:08 155

原创 记录之前写的逻辑回归

#!/usr/bin/env python3# -*- coding: utf-8 -*-import numpyimport xlrdimport xlsxwriterfrom numpy import *import matplotlib.pyplot as pltfrom sklearn.model_selection import train_test_splitimport numpy as npfrom csv import readerdef read_xlrd(exc.

2021-07-28 23:05:27 102

原创 2021.7.27魔鬼训练报告

数学表达式魔鬼训练文章目录数学表达式魔鬼训练作业作业令 A={1,2,5,8,9}\mathbf{A} = \{1, 2, 5, 8, 9\}A={1,2,5,8,9}, 写出 A\mathbf{A}A上的 “模 2 同余” 关系及相应的划分.R={(a,b)∈A×A∣amod  2=bmod  2}\mathbf{R} = \{(a, b) \in \mathbf{A} \times \mathbf{A} \vert a \mod 2 = b \mod 2\}R={(a,b)∈A×A∣amod

2021-07-27 23:33:55 186

原创 2021.7.26魔鬼训练报告

公式规范文章目录公式规范前言一、概述作业1二、集合的表示与运算作业2三、向量与矩阵作业3找错前言数学表达式魔鬼训练第一天闵老师数学表达式学习贴一、概述讲述本次魔鬼训练的目的以后论文的格式多参考《离散数学》《概率论与数理统计》《机器学习》(西瓜书)作业1一篇论文的符号较多,前后连接起来就容易混乱一篇论文里面重复使用同一个字母,但是在不同的位置表达的意思不一样。有时候一篇论文的符号系统跟常规的命名不一致,造成歧义二、集合的表示与运算作业2令A={3,5},写出2A\ma

2021-07-27 01:11:12 397

原创 论文阅读笔记——Missing multi-label learning with non-equilibrium based on classification margin

目录基于标签密度的分类裕度1.标签密度和分类裕度2.基于标签密度的分类裕度非平衡缺失多标签学习1.非平衡标签完成矩阵的建模2.基于分类裕度的非均衡缺失多标签学习目前的方法大多集中于将采样技术与代价敏感学习相结合,并引入标签相关性来提高分类器的性能,但一般没有考虑标签代价导致的标签丢失。事实上,标注未知实例经常受到判别函数阈值的影响,尤其是对于阈值附近的标注类型。基于我们以前的研究,我们认为数据分布密度和标签密度等信息可以整合到标签相关性中,并且可以扩展分类裕度以有效解决阈值附近标

2021-03-08 11:32:31 458

原创 Hebb 学习规则

学习hebb

2021-03-04 11:18:11 4582

原创 论文阅读笔记——Multi-Label Learning by Exploiting Label Correlations Locally(利用局部标签相关性进行多标签学习)

目录摘要The ML-LOC Approach1、框架2、目标函数推导过程2.1.将全局判别拟合和局部相关灵敏度整合到一个统一的框架中,所以将同时优化和,使下面的函数最小:2.2.将公式2、3、5代入公式1中摘要1、为了编码标签相关性的局部影响,推导了一个LOC代码来增强每个实例的特征表示;2、将全局判别拟合和局部相关灵敏度整合到一个统一的框架中,并提出了交替求解的优化方法。The ML-LOC Approach1、框架对每个实例Xi引入向量Ci编码表示,

2021-03-01 16:01:30 787

原创 论文阅读笔记——Multi-Label Learning with Global and Local Label Correlation(具有全局和局部标签相关性的多标签学习)

一、低秩矩阵如果X是一个m行n列的数值矩阵,rank(X)是X的秩,假如rank (X)远小于m和n,则我们称X是低秩矩阵。低秩矩阵每行或每列都可以用其他的行或列线性表出,可见它包含大量的冗余信息。利用这种冗余信息,可以对缺失数据进行恢复,也可以对数据进行特征提取。二、矩阵填充已知A的秩rank(A)<<m且rank(A)<<n,那么我们可以通过矩阵各行(列)之间的线性相关将丢失的元素求出。你会问,这种假定我们要恢复的矩阵是低秩的,合理吗?实际上是十分合理的,比如一个用户

2021-02-01 23:03:39 1457 1

原创 显示数据集中的图片

学习目标:学习用pytorch读取显示数据集中的图片学习内容:参考视频教程:https://www.bilibili.com/video/BV1xA411e7oX视频以chest数据集为例,讲解了如何读取数据集中的图片,然后将其进行处理,最终显示出来# 1 加载库import torchimport torch.nn as nnfrom torchvision import datasets, transformsimport osfrom torch.utils.data

2021-01-28 19:16:56 1413

原创 Anaconda创建虚拟解释器并在pycharm中进行配置下

项目场景:在pycharm中新建项目,如果需要新建python环境时的全部操作问题描述:显示所有的python解释器:conda info -eanaconda已经安装好了,创建新的python环境:conda create --name python37 python=3.7 #创建一个名字为python37,版本是python3.7的新环境,conda会自动安装3.7的最新版本;它会把新安装的python环境放在anaconda3的envs目录下:...

2021-01-27 20:01:12 3878

原创 Multi-Label Classification with Label Graph Superimposing

首先,将统计共现信息构建的标签图叠加到由标签知识先验构建的标签图中,建立标签相关性模型,然后在最终的叠加图上应用多层图卷积进行标签嵌入抽象。其次,我们提出利用整个标签系统的嵌入来更好地表示学习。在浅层、中层和深层分别加入GCN和CNN的横向连接,将标签系统的信息注入主干CNN中,在特征学习过程中进行标签识别。在MSCOCO和Charades数据集上进行了大量的实验,结果表明,本文提出的方法能够显著提高识别性能,达到新的最先进的识别性能。KSSNet的标签图叠加深度卷积网络1.基于知识的...

2021-01-27 11:32:09 420

转载 优化问题中的正则项作用

正则项的加入使原来的非适定问题变为适定问题。一个例子是,图像去噪的目标函数,如果只考虑一项(去噪后的图像的像素平均值和原图像一致),问题就有无穷多组解。但是,加上正则项(一般的是BV范数)以后,问题的解就变成唯一的了。 剩下的问题就是什么是适定问题?什么是不适定问题? 定解问题是适定的,是指它具备如下三个条件: (1)问题的解存在;(2)问题的解唯一;(3)解连续依赖于定解条件,即定解条件(数据)改变很小时,相应的解也改...

2021-01-27 11:29:49 2219

转载 2020-10-13 一阶范数;二阶范数

学习目标:一阶范数;二阶范数学习内容:过拟合与规则化监督机器学习问题:在规则化参数的同时最小化误差。最小化误差是为了让我们的模型拟合我们的训练数据,而规则化参数是防止我们的模型过分拟合我们的训练数据。因为参数太多,会导致我们的模型复杂度上升,容易过拟合,也就是我们的训练误差会很小。但训练误差小并不是我们的最终目标,我们的目标是希望模型的测试误差小,也就是能准确的预测新的样本。所以,我们需要保证模型“简单”的基础上最小化训练误差,这样得到的参数才具有好的泛化性能(也就是测试误差也小),而模

2021-01-27 11:25:43 6924 1

原创 Pycharm导入sklearn出错

新安装的pycharm, 然后需要导入sklearn,出错。然后根据网上说的在pycharm,文件,setting中导入,只能导入numpy,不能导入scipy。然后看其他博主的方法(https://blog.youkuaiyun.com/qq_41876038/article/details/103741758)可能是版本的问题,然后根据(https://www.lfd.uci.edu/~gohlke/pythonlibs/)下载对应版本的。我解释器下载的是3.7.7的,然后下载scipy应该是下载的

2021-01-27 11:25:06 2206

转载 最小二乘法

最小化二乘法是一种数学优化技术,是一种最简单的优化问题。实例数据编号 1 2 3 4 实验次数w 2 1 1 1 x 0.1 0.2 0.3 0.4 y 1.1 1.9 3.1 3.9 要拟合得到形如y=a+bx的函数,求解函数中系数的方程组为其中,为权重,对应每个实验点的实验次数,4个实验点只有第一个点重复做了一次且得到相同结果(如果结果不同则另算一个实验点),其..

2021-01-27 11:23:45 2322

原创 用pytorch分类手写数字识别数据集

学习目标:学习pytorch搭建神经网络学习内容:MNIST数据集有60000张图片作为训练集,10000张图片作为测试集,每张图片像素是28*28,单通道灰度图片;一、pytorch搭建神经网络1、加载必要的库2、定义超参数3、构建pipeline,对图像做处理4、下载、加载数据5、构建网络模型6、定义优化器7、定义训练的方法8、定义测试方法9、调用方法7/8二、完整代码和运行结果# 1 加载必要的库import torchimport.

2021-01-27 11:22:31 741

原创 C++读取图片数据

学习目标:学习用C++读取图片学习内容:1、 下载codeblock编译器,用于运行C++2、 C++读取单个图片文件采用文件流的方式// read a file into memory#include <iostream> // std::cout#include <fstream> // std::ifstreamusing namespace std;int main () { // 1.Open picture .

2021-01-21 11:51:02 12638 3

原创 搭建一个简单的神经网络进行分类

参考了其他博主的博客构建一个简单的神经网络首先导入需要用到的包 # os包集成了一些对文件路径和目录进行操作的类import osfrom torch.autograd import Variableimport torchfrom torchvision import transforms, datasetsimport time 读取数据读取数据大致有4步;将数据集的位置信息放入data_dir中;data_dir = 'F:\workspace\pythonP.

2021-01-20 12:20:24 721

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除