- 博客(8)
- 收藏
- 关注
原创 2018下半年总结
一、问题 1.管理松懈 表现为大部分成员在实验室的时间很短,作业、任务等完成质量低下。以及由此导致的包括但不限于以下的问题 2.教学与考核体系不完整 填鸭式教学不适合本专业的内容,几小时的知识讲解,让人不知其然亦不知其所以然。教学集中于学期中,学期初期、学期末、长假之间形成长时间的断层。考...
2019-01-17 18:19:22
145
原创 分类和标注词汇
包括以下章节:内置标注器、默认字典、自动标注、n-gram标注内置标注器nltk内置词性标注器: 'alice'->('alice', 'NN')text = nltk.word_tokenize("And now for something completely different") text = 'alice' nltk.pos_tag(text)“标注”已标注...
2018-12-07 19:40:12
363
原创 处理原始文本
友情提醒:NLTK study notes 系列均为从本地代码粘贴上来的,粘贴时缩进出现大量错误,敬请注意。包括以下章节:用正则表达式提取特征、词性规范化、文本分词、分割等正则表达式提取特征查找word中的所有元音import nltk, re word = "supercalifragilistcexpialidocious" re.findall(r'[aeiou...
2018-11-30 21:45:42
399
原创 Convotional Neural Network
CNN属于DNN的特例之一,比之后者,最主要的区别在于卷积层与池化层的加入,而除去这2中层,其他与一般的深度神经网络还是基本一致的。1.卷积层对于实例的特征,将其原本的向量形式转化为m*n的矩阵形式,另外引入一个a*a的矩阵称为卷积核。特征矩阵与卷积核的相应位置分别相乘然后作和,将此值投影到一个新的特征矩阵上。卷积核从特征矩阵的左上角开始,每次向右或向下移动一定步长(stride)并求此位置的值,...
2018-05-03 10:45:18
236
原创 Deep Neural Network
将一个进行科学计算的数学模型形象化为一个神经元,模仿人类大脑的工作原理,构成神经网络。多层神经网络一般包括一个输入层,若干隐藏层,一个输出层,每一层都会有若干神经元。隐藏层中进行着大量的运算,如同一个黑箱,“不管是什么数据,我都能给你算”。每个上一层的输出都是下一层的输入,这样便给特征附加了多样性,每层神经元不再都是处理完全相同的原始数据,而是经过上一层处理的不一样的数据。以一个最基本的含有1个隐...
2018-04-29 21:49:26
370
原创 Gradient Descent
对多元函数在某点的各个自变量分别求偏导数,并将各偏导h数作为向量的分量,此向量即为函数在此点的梯度,表示函数因变量(方向导数)变化最快的方向。当梯度前的符号为“+”时,函数值向最大值方向移动,符号为“-”时,函数值向最小值方向移动。在求解线性回归模型及逻辑回归模型的代价函数最值时,梯度下降法具有广泛的应用性,对θ参数矩阵进行迭代,直至得到关于θ的函数(代价函数)局部最优解,即最值。举个栗子,假如你...
2018-04-21 22:42:57
344
原创 Logistic Regression
解决分类问题,需要输出离散型变量,而线性回归模型是连续型变量,因此,将线性回归模型的结果离散化,便可以得到解决分类问题的逻辑回归模型:其函数图像如图所示横坐标为线性回归模型的因变量,纵坐标表示实例被划分为正向类的概率。与线性回归模型类似,求出模型中的θ矩阵需要建立代价函数,并在代价函数取得最小值时模型较为合适,逻辑回归的代价函数为其矩阵表示式为:对逻辑回归模型的代价函数的求最值,由于其因变量是离散...
2018-04-21 15:58:27
185
原创 Liner Regression
对于有n个特征的实例,建立形如矩阵表示为的线性回归模型。x表示各特征的值,θ表示为拟合数据而加入的参数;X为m*n的矩阵,θ为n*1的矩阵。为评估所建立的h(x)模型的准确性、适用性,需将理论值与实际值进行比较,衡量准确性的方法为代价函数,形如,矩阵表示式为代价函数的自变量为θ矩阵,因变量的大小与准确性成负相关,当且仅当代价函数(近似)取得最小值时,相应的θ参数矩阵为使线性回归模型更合适的最优解。...
2018-04-21 14:59:01
182
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人