一、深度学习相关
(一)深度学习与传统神经网络训练方法差异
深度学习为解决多层神经网络训练难题而生,创造出诸多新结构与方法,如 CNN、RNN 架构,以及 XAVIER 权重初始化、Dropout 防止过拟合等技术,有效应对梯度消失、过拟合等问题。分类问题常用交叉熵、合页、坡道等损失函数;回归问题则多采用 l1、l2、tukey's biweight 损失函数 。这些损失函数各自具备独特意义,像交叉熵用于多分类,将输出转化为概率;l1 损失函数衡量预测值与真实值偏差。
(二)卷积神经网络(CNN)
CNN 通过对图像局部像素区域处理,加强信息连续性,借助批量过滤器滚动收集信息,从底层边缘信息逐步提取高层语义。卷积的本质是加权叠加,不同卷积核提供多样加权方式,实现参数共享,减少参数量,避免过拟合。
二、自然语言处理相关
(一)中文分词
中文分词旨在将无空格的汉字序列按语义切分为词语。机械分词法基于词典匹配,简单但依赖词典完备性;基于语法和规则的分词法通过句法语义分析标注词性,因汉语语法复杂,精度有待提高;基于统计的分词法依据字符串在语料中的词频判断,常见模型有 HMM、CRF 等,因其精度高成为主流方法。
(二)深度学习在 NLP 领域应用
深度学习在 NLP 领域应用广泛,如机器翻译(神经机器翻译 NMT)提供了区别于统计方法的新途径;知识问答机器人可从语料学习答案;自然语言生成能依据关键信息自动生成文本。
三、机器学习算法相关
(一)LR 和 SVM 对比
LR 和 SVM 均为监督学习分类算法,在不考虑核函数时,分类决策面呈线性。二者区别在于损失函数不同,SVM 聚焦局部边界点,LR 则考虑全局点对边界线的影响。
(二)降维方法
面对高维数据集与有限内存的情况,可采取关闭其他程序释放内存、随机采样数据集、分离并删除关联变量(数值变量用相关性分析,分类变量用卡方检验)、使用 PCA 选取主成分、采用在线学习算法(如 VowpalWabbit)、利用随机梯度下降法建立线性模型等方法,还可结合业务理解评估变

最低0.47元/天 解锁文章
1898

被折叠的 条评论
为什么被折叠?



