- 博客(60)
- 资源 (1)
- 问答 (1)
- 收藏
- 关注
原创 科研相关资料
1. 科研查询网址1.1 EI检索https://www.engineeringvillage.com/home.url?redir=t EI检索1.2 SCI检索https://www.webofscience.com/wos/alldb/basic-search1.3 论文档次查询中科院分区 http://www.letpub.com.cn/index.php?page=journalappSCI 影响因子https://jcr.clarivate.com/jcr/homeCC
2021-12-24 21:29:46
847
原创 ffmpeg的安装与使用
1. 安装1.1 Windows 环境下载地址:http://ffmpeg.org/download.html#build-windows解压文件配置环境变量,将bin路径添加测试,CMD窗口 ffmpeg –version1.2 Linux 环境sudo apt-get install ffmpeg2. 相关概念2.1 容器视频文件本身其实是一个容器(container),里面包括了视频和音频,也可能有字幕等其他内容。常见的容器格式有以下几种:- MP4-
2021-12-08 23:05:43
2341
原创 新加坡公派留学手续流程和时间
2021.9.13和外导确认好,准备11月去NTU2021.9.14SCSE 老师发来邮件,准备STP申请第一步学校需要的材料学校同意文件CSC资助文件在读证明
2021-12-07 16:12:48
1864
1
原创 好用的计算机软件
1. Tabby – 终端神器Tabby是一款可无限定制的跨平台终端应用程序,用于本地shell、SSH连接。官网:https://tabby.sh/github 下载地址: https://github.com/Eugeny/tabby/releases2. Obsidian – 文件管理打造「知识循环」体系官网: https://obsidian.md/github: https://github.com/obsidianmd/obsidian-releases3. Typora –
2021-11-22 09:21:10
1155
原创 各种python数据类型保存成文件
一. list1. 保存为TXT文件file= open('log.txt', 'w') for fp in list_log: file.write(str(fp)) file.write('\n')file.close()**2. 读取 **file=open('log.txt', 'r')list_read = file.readlines()二. numpy1. 保存为.npy数组import numpy as npnumpy_ar
2021-11-15 09:54:19
2152
原创 loss function & cost function & objective function
1. 中文翻译loss function: 损失函数cost function:代价函数objective function:目标函数2. 解释如果有个函数,我们想对其求极大值或者极小值,通常会将这个函数称为Objective function。目标函数是优化问题中的一个概念。任何一个优化问题包括两个部分:(1)目标函数,最终是要最大化或者最小化这个函数;(2)约束条件,且约束条件是可选的。当我们是想求极小值时,便会以cost function (loss function)来称呼该目标函
2021-09-23 23:59:44
942
原创 深度模型参数save & load 遇到的各种问题
1. torch版本问题1.1 torch1.5版本及以下import torch## 模型参数保存torch.save(model.state_dict(),'checkpoint/xxx.pth')## 模型参数加载args = torch.load('checkpoint/xxx.pth') # 参数读取model_state_dict = model.state_dict()for key in args: if key in model_state_dict: mod
2021-09-22 10:58:26
664
原创 各式随机数的生成Python
random1. random.sample(x,y): 从序列x中,随机选择y个不重复的元素,返回list列表import random#从[A,B)间随机生成N个不重复的数,结果以列表返回resultList=random.sample(range(A,B),N)2.random.randint(low, hight):从[low,hight]之间的返回一个整数import randomx=random.randint(1,10)3.random.random(...
2021-09-06 21:28:18
229
原创 域对抗(域适应)训练
1. 引入在传统监督学习中,我们经常需要大量带标签的数据进行训练,并且需要保证训练集和测试集中的数据分布相似。如果训练集和测试集的数据具有不同的分布,训练后的分类器在测试集上就没有好的表现。这种情况下该怎么办呢?域适应(Domain Adaption),也可称为域对抗(Domain Adversarial),是迁移学习中一个重要的分支,用以消除不同域之间的特征分布差异。其目的是把具有不同分布的源域(Source Domain) 和目标域(Target Domain) 中的数据,映射到同一个特征空间.
2021-08-26 17:34:43
21391
6
原创 对比学习介绍Contrastive Learning
Generative Methods(生成式方法)这类方法以自编码器为代表,主要关注pixel label的loss。举例来说,在自编码器中对数据样本编码成特征再解码重构,这里认为重构的效果比较好则说明模型学到了比较好的特征表达,而重构的效果通过pixel label的loss来衡量。对比式学习着重于学习同类实例之间的共同特征,区分非同类实例之间的不同之处。与生成式学习比较,对比式学习不需要关注实例上繁琐的细节,只需要在抽象语义级别的特征空间上学会对数据的区分即可,因此模型以及其优化...
2021-08-14 10:27:15
4972
1
原创 神经网络模型计算量 & 参数量 解释
1. 概念计算量(FLOPs)对应我们之前的时间复杂度,计算量要看网络执行时间的长短PS:FLOPS:全大写,意指每秒浮点运算次数,理解为计算速度,是一个衡量硬件性能的指标。FLOPs:s小写,意指浮点运算数,理解为计算量,用来衡量模型的复杂度 (如果模型FLOPs为X,使用的GPU性能Y FLOPS,意味处理该模型只需X/Y秒)参数量对应于我们之前的空间复杂度,参数量要看占用显存的量2. 对硬件要求计算量的要求是在于芯片的fl...
2021-08-13 08:43:29
9534
1
原创 显卡相关知识
1. A卡 & N卡a卡和n卡分别是指AMD(超威半导体)和NVIDIA(英伟达)显卡。 A卡 频率高,适合超频看高清,画面效果好,但驱动不是很稳定, N卡 频率较低,但很稳定,速度快,驱动完善2. GeForce &Tesla (英伟达显卡)GeForce属于普通消费级显卡,主要应用于游戏娱乐领域 (RTX 2080ti / GTX 1080ti) Tesla归类为专业级显卡,更偏重于深度学习、人工智能和高性能计算 (P40 / V100)3.RTX ...
2021-08-12 17:23:26
4013
原创 变分自编码器VAE
1. VAE & GAN变分自编码器(Variational auto-encoder,VAE)是一类重要的生成模型(generative model)除了VAEs,还有一类重要的生成模型GANsVAE 跟 GAN 比较,目标基本是一致的——希望构建一个从隐变量Z生成目标数据X的模型,但是实现上有所不同。生成模型的难题就是判断生成分布与真实分布的相似度,因为我们只知道两者的采样结果,不知道它们的分布表达式。KL 散度是根据两个概率分布的表达式来算它们的相似度的,我们只有样本...
2021-08-11 10:30:42
8610
3
原创 OpenSmile介绍和使用
ComparE_2016,6373个特征,其中65个low level descriptors(LLD),例如音调、MFCC、响度和发声概率。54个统计泛函应用于59个lld,46个统计泛函应用于相应的59个delta系数。对其他6个lld,应用了39个统计泛函。'D:/opensmile-2.3.0/bin/Win32/SMILExtract_Release -configfile D:/opensmile-2.3.0/config/ComParE_2016.conf -appendcsvl..
2021-07-19 19:27:18
6002
2
原创 Latex使用
1.基础斜体:可以用\textit{} 也可以用\it{}加粗:\textbf{}居中:\begin{center} \end{center}换行不缩进:\\换行+缩进两字符:\par字体颜色:\usepackage{color}\textcolor{red/blue/green/black/white/cyan/magenta/yellow}{text}2.图片图片位置:\includegraphics[width=0.8\textwidth...
2021-05-18 20:57:32
1206
原创 音视频序列数据分析(RNN->seq2seq->Encoder+Decoder->Attention->Transformer)
1. RNN 针对语音、视频等序列数据,我们需要进行全局时序信息考虑,因此RNN模型是最初最基础的模型结构。 主要可以分析的任务:语音识别、语音合成、视频摘要生成、音视频情感预测等。 存在问题:输出的序列长度与输入序列长度保持一致,不能任意变化。2. Seq2Seq (即 Encoder + Decoder 结构) seq2seq,由Encoder和Decoder两个部分组成,每部分都是一个RNNCell(RNN、LSTM、GRU等)结构。 Encoder将一个序列编码为...
2021-05-06 00:22:20
1168
原创 语音信号的时域、频域含义及其表示
1. 时域 & 频域时域:自变量是时间,即横轴是时间,纵轴是信号的变化(振幅)。 如下图中红色曲线, 描述信号随时间变化情况 (二维空间: Time-Amplitude)频域:自变量是频率,即横轴是频率,纵轴是该频率信号的幅度(振幅)。 声音信号在频域表现为多个不同频率、振幅信号组成。(给定频率和振幅,可以得到该信号表示,下图中一条蓝色曲线,周期信号) 2. 时域图(波形图) & 频谱图时域图...
2021-04-30 10:58:37
13890
3
原创 语音信号基本知识和处理
语音信号(音频;声音)是模拟信号,现实生活中表现为连续的、平滑的波形,其横坐标为时间轴,纵坐标表示声音的强弱。我们需要将其保存为数字信号再进行处理。1. 声音三要素1.1 音调人耳对声音高低的感觉称为音调。音调主要与声波的频率有关。声波的频率高,则音调也高。人耳听觉音频范围是20Hz-20000Hz1.2 音量人耳对声音强弱的主观感觉称为响度。响度和声波的振幅有关。一般说来,声波振动幅度越大则响度也越大。1.3 音色音色是人们区别具有同样响度、同样音调的两个声音之
2021-04-27 21:14:00
11772
5
原创 多块GPU并行计算 pytorch
1. 指明要是用的GPUimport osos.environ["CUDA_VISIBLE_DEVICES"]="0,1,3" 上述代码说明,给本程序分配了编号“0,1,3”的三块GPU可供使用 PS: 本机必须是有上述声明的显卡,否则在使用时会出错 RuntimeError: cuda runtime error (38) : no CUDA-capable device is detected at ..\aten\src\THC\THCGeneral.cpp...
2020-09-16 10:28:23
1146
原创 预训练模型的参数保存与加载
1. 预训练参数保存def savecheckpoint(model,dir): para=model.state_dict() torch.save(para, dir)2. 预训练参数加载def LoadParameter(_structure, _parameterDir): """ :param _structure: model :param _parameterDir: 参数位置 :return: """ chec
2020-08-08 10:49:50
1511
原创 双线性池化 bilinear pooling
bilinear pooling主要用于特征融合,对于从同一个样本提取出来的特征x和特征y,通过bilinear pooling得到两个特征融合后的向量,进而用来分类。如果特征x和特征y来自两个特征提取器,则被称为多模双线性池化(MBP,Multimodal Bilinear Pooling)如果特征x=特征y,则被称为同源双线性池化(HBP,Homogeneous Bilinear Pooling)或者二阶池化(Second-order Pooling)bilinear pooling详.
2020-07-14 10:01:19
8785
1
原创 深度学习常用激活函数介绍和使用
注: Sigmoid一般不与MSE配合使用。在深度学习里,Sigmoid函数是常见的激活函数。特别注意的是,当使用Sigmoid做激活函数的时候,损失函数不能选择MSE。因为Sigmoid的导数为f(x)(1−f(x))。假设当预测值为f(x)=1而真实值为0的时候,此时虽然(yi−y˜)很大,但是f(x)(1−f(x))太小接近0,收敛速度同样很慢。...
2020-07-12 15:33:37
819
原创 文件、文件夹的处理使用 python
1. 子文件夹的获取2. 文件的复制移动# -*- coding:utf-8 -*-import osfrom shutil import copy2allDir="D:\\pics\\易烊千玺"trainDir = "C:\\Users\\WEIJIE\\Desktop\\train_data\\0"dir=os.listdir(allDir) #获取所有子文件夹index=0for i in dir: folder=os.path.join(allDir, i)
2020-06-06 10:48:25
346
原创 爬虫明星图片 python
# -*- coding: utf-8 -*-"""Created on Mon Oct 16 20:32:27 2017@author: Jingwang Li"""import requestsimport reimport osfrom pypinyin import pinyin, lazy_pinyindef getHTMLText(url): try: r = requests.get(url, timeout=30) r.ra..
2020-06-06 10:03:07
881
1
原创 视频的读取与保存 python
1. 视频的读取主要使用python的cv2主要介绍:视频帧读取、视频宽高读取、FPS读取import cv2 as cvvc = cv.VideoCapture('12.mp4') # 读入视频文件 fps=vc.get(cv.CAP_PROP_FPS) #获取fpssize = (int(vc.get(cv.CAP_PROP_FRAME_WIDTH)),int(vc.get(cv.CAP_PROP_FRAME_HEIGHT))) #获取宽高rval, frame = vc.r
2020-06-06 09:51:26
1420
原创 Visio,Python,Matlab 画图
1. Visio 1)对齐技巧: 先选择的第一个为基准位置 2)保存高清图技巧:另存为--》类型:.jpg 2. Python 画曲线 & 保存 实现代码:import numpy as npimport matplotlib.pyplot as pltx = np.linspace(0, length, length)for j in range(25): plt.plot(x, heatmaps[...
2020-05-30 20:00:18
1688
原创 情感识别相关数据集总结
(*主要介绍数据集的格式)一. 图片1. artphoto 未划分train-test; 图片数据;标签2. SFEW2.0 训练集+验证集: 图片数据;标签;特征 测试集 : 图片数据;特征3. JAFFE 未划分train-test; 图片数据;标签4. fer2013 训练集: 图片数据+标签...
2020-04-13 17:00:33
5411
9
原创 数组、列表、字典的使用 python
1. 定义import numpy as npa=[1,2,3] #list b=np.ones(100) #numpy c=np.ones([2,3]) #numpy,2行3列 d={'a':1,'b':2,'c':3} 2. 转换 list & arrayimport numpy as np a=[1,2,3] ...
2020-03-20 15:52:28
852
原创 action recognition论文阅读
1.Potion步骤:(1) 抓取每一帧每个joint的heatmaps(每一个像素点被划分为某一个joint概率的heatmap) --》每一帧图像都得到N个heatmap(H*W), 共 T*N*H*W(2) 对每一帧每个joint的heatmaps按照时间顺序进行colorizing,可以多个通道 --》每个he...
2020-03-17 20:15:48
370
原创 深度学习常用损失函数介绍和使用
1. nn.L1Loss取预测值和真实值的绝对误差的平均数注意数据类型为:double或floatimport torch.nn as nn import torch import numpy as np x=np.array([1,2,4]) label=torch.from_numpy(x).double() pre=torch.ones([3]).double(...
2020-03-15 21:05:59
687
原创 pytorch函数使用
1. Squeeze函数与UNsqueeze函数torch.squeeze()主要对数据的维度进行压缩,去掉维数为1的的维度 添加参数,则表示仅去掉该维数为1的维度torch.unsqueeze()主要是对数据维度进行扩充。给指定位置加上维数为一的维度2. View函数a.view(i,j)...
2020-03-15 18:25:01
684
原创 pycharm与GitHub联合使用
1. 将新项目提交到GitHub1)登录GitHub2)点击VCS3) 设置名字和权限4)选择要上传的文件5)成功2. 修改、添加文件后更新GitHub1)点击右上角commit2)添加描述,进行commit and push3) push4)成功3. 创建分支1. 点击VCS--> Git2. 新建...
2020-03-13 20:38:09
312
原创 pytorch的一些库
1. torchvision的models 里面包含常用的深度模型:AlexNet、VGG、GoogleNet等 使用: model=models.resnet50()2. pretrainedmodels 里面包含常用的深度模型:AlexNet、VGG、GoogleNet等,还包括一些新的模型Xception、SENet等 使用:args1=pre...
2020-03-13 15:40:57
1463
原创 卷积操作中的group
group参数,其意思是将对应的输入通道与输出通道数进行分组卷积处理, 默认值为1。比如输入数据为B*Cin*H*W, 卷积核配置为 Cout 3*3 group: group=1,即我们常用的全连接的卷积,对输入的全部Cin个通道与输出的Cout通道全卷积 group=2,将输入的Cin通道分成2个(Cin/2)通道,输出的Cout通道分成2个(Cout/2)通道;第一个Cin/2通道...
2020-03-13 14:36:52
2281
原创 GitHub创建空白新分支
1. 本地clone GitHub上的Repository: git clone https://github.com/janie1996/项目 进入项目:cd 项目 创建新分支: git branch newBranchName 切换到新分支: git checkout newBranchName(并非空白,查看文件) 查看分支下文件:dir 删除原来的文件:git rm -...
2020-03-11 02:33:43
3173
原创 迁移学习-模型参数加载
1. 模型定义时name规则定义了变量名的,name=变量名; 没有定义变量名的,使用Sequential()的,从0开始标号name。class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1=nn.Conv2d(in_channels=3,ou...
2020-03-10 20:51:55
817
原创 深度学习常用模型
1. VGG(1)卷积层串联两个3*3卷积层的串联相当于1个5*5的卷积层,三个3*3的卷积层串联相当于1个7*7的卷积层 3个3*3卷积层的感受野大小相当于1个7*7的卷积层。但是3个3*3的卷积层参数量只有7*7的一半左右,同时前者可以有3个非线性操作,而后者只有1个非线性操作,这样使得...
2020-03-10 17:08:33
3703
原创 BatchNorm和Pool使用
1. BatchNorm主要具有以下特性:更快的训练速度:由于 BatchNorm 的权重分布差异很小(论文中称为 internal covariate shift),我们可以使用更高的学习率来训练网络,让我们朝向损失函数最小的方向前进。 改进网络正则化(Regularization):通过 BatchNorm 可以使网络在训练的时候,每个 batch 里的数据规范化都是不一样的,有助于...
2020-03-09 21:42:46
1114
原创 图片处理 python
1. 图片分辨率表示 Width * Height2. cv2读入图片及缩放方式 读入图片存储类型: numpy array --> Height * Width * Channel import cv2 as cv # 读入原图片 img = cv.imread('./0000001-imgL.png') # 打印出图片尺寸 ...
2020-02-27 23:28:31
281
原创 压缩感知字典训练
function [Dictionary]=train(D,n)param.L = 3; % number of elements in each linear combination.param.K = n; % number of dictionary elementsparam.numIteration = 6; % number of iteration to execute ...
2018-06-20 17:39:28
1546
1
python中关于super调用父类构造方法
2015-09-11
TA创建的收藏夹 TA关注的收藏夹
TA关注的人