
深度学习
文章平均质量分 64
XiaoE爱食橙
记录点东西方便查看,积累
展开
-
【Numpy】常用操作
numpy数组的拼接(扩维拼接和非扩维拼接)_木盏-优快云博客_numpy 拼接维度import numpy as npls = []a = np.array([[1, 1],[1, 1]])b = np.array([[2, 2],[2, 2]])ls.append(a)ls.append(b)c = np.array(ls)print(c)print(c.shape)...原创 2021-10-18 11:37:37 · 195 阅读 · 0 评论 -
【Sklearn】
fit_transform,fit,transform区别和作用详解fit_transform,fit,transform区别和作用详解!!!!!!_欢迎光临啊噗不是阿婆主的酒馆-优快云博客_fit_transformSklearn之数据预处理——StandardScalerSklearn之数据预处理——StandardScaler_小白一直白-优快云博客_standardscaler...原创 2021-10-17 16:43:06 · 192 阅读 · 0 评论 -
关于sklearn的roc_auc_score
占坑记录:跑模型出分数的时候被这个方法差点坑了,怪自己理解不够到位,占坑记录一下。最早发现这个问题是发觉输入roc_auc_score(xtest,prediction)输出的auc与plot_auc的值相差甚远,查资料之后发现关键在于第二个参数应该输入模型的输出概率值而非预测值,这里是个小坑 ,因为其他如acc pre f1score都是输入真实与预测值,当模型输出概率时,应该输入Prob。...原创 2021-10-17 11:22:28 · 1100 阅读 · 2 评论 -
【机器翻译】调优和测评
学习率优化方法warmup参考:【调优方法】——warmup_黑白象-优快云博客翻译测评参考:机器翻译评测——BLEU算法详解 (新增 在线计算BLEU分值) - 胖喵~ - 博客园原创 2021-09-27 09:18:10 · 178 阅读 · 0 评论 -
【pytorch】pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization
提前挖坑:ttpytorch系列 -- 9 pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization_墨流觞的博客-优快云博客原创 2021-09-24 19:38:41 · 455 阅读 · 0 评论 -
【Time series】时间序列
代码中需要用到的包# Importing librariesimport osimport warningswarnings.filterwarnings('ignore')import numpy as np import pandas as pdimport matplotlib.pyplot as pltplt.style.use('fivethirtyeight') # Above is a special style template for matplotlib, high转载 2021-09-02 17:08:01 · 525 阅读 · 0 评论 -
【Pytorch】nn.LSTM的理解
Pytorch中的nn.LSTMPytorch中LSTM总共有7个参数,前面3个是必须输入的input_size – The number of expected features in the input xhidden_size – The number of features in the hidden state hnum_layers – Number of recurrent layers. E.g., setting num_layers=2 would mean stackin转载 2021-08-25 16:38:05 · 20283 阅读 · 3 评论 -
【深度学习】(三)神经网络与反向传播算法
神经元神经元和感知器本质上是一样的,只不过我们说感知器的时候,它的激活函数是阶跃函数;而当我们说神经元时,激活函数往往选择为sigmoid函数或tanh函数。如下图所示:计算一个神经元的输出的方法和计算一个感知器的输出是一样的。假设神经元的输入是向量,权重向量是(偏置项是 ),激活函数是sigmoid函数,则其输出:sigmoid函数的定义如下:将其带入前面的式子,得到sigmoid函数是一个非线性函数,值域是(0,1)。函数图像如下图所示sigmoid函数的导数..转载 2021-08-18 12:02:47 · 1829 阅读 · 0 评论 -
【深度学习】(二)线性单元和梯度下降
转载自:https://www.zybuluo.com/hanbingtao/note/448086线性单元是啥感知器有一个问题,当面对的数据集不是线性可分的时候,『感知器规则』可能无法收敛,这意味着我们永远也无法完成一个感知器的训练。为了解决这个问题,我们使用一个可导的线性函数来替代感知器的阶跃函数,这种感知器就叫做线性单元。线性单元在面对线性不可分的数据集时,会收敛到一个最佳的近似上。为了简单起见,我们可以设置线性单元的激活函数为这样的线性单元如下图所示对比此前我们讲过的感知转载 2021-08-17 11:05:44 · 237 阅读 · 0 评论 -
【深度学习】(一)感知机
深度学习是啥在人工智能领域,有一个方法叫机器学习。在机器学习这个方法里,有一类算法叫神经网络。神经网络如下图所示:上图中每个圆圈都是一个神经元,每条线表示神经元之间的连接。我们可以看到,上面的神经元被分成了多层,层与层之间的神经元有连接,而层内之间的神经元没有连接。最左边的层叫做输入层,这层负责接收输入数据;最右边的层叫输出层,我们可以从这层获取神经网络输出数据。输入层和输出层之间的层叫做隐藏层。隐藏层比较多(大于2)的神经网络叫做深度神经网络。而深度学习,就是使用深层架构(比如,深度神经网转载 2021-08-16 18:20:13 · 935 阅读 · 0 评论