
机器学习
文章平均质量分 77
HZ-VUW
这个作者很懒,什么都没留下…
展开
-
浅谈机器学习竞赛中的一些技巧
有很多技巧可以帮助我们在机器学习比赛中取得好成绩。因此,在本文中,我将重点介绍一些在机器学习比赛中常用但在教科书中很少提及的小技巧。因此,我希望通过撰写本文,机器学习领域的新手能够从这些有趣的技巧中获益。数据预处理缺失数据分析分析数据中缺失的数据是一种非常有用的方法,可以识别无用的特征,并在后续步骤中设计插补策略。为此,我们可以使用“missingno”包。import missingno as msnomsno.bar(info)删除丢失数据过多的列在分析丢失的数据之后,我们可以原创 2021-04-29 16:55:49 · 559 阅读 · 0 评论 -
如何在MATLAB中进行神经网络的增量学习?
在深度学习领域,很多成功的案例可以归因于增量学习技术。增量学习有两个优点。首先,通过增量学习,我们不需要将大量数据加载到内存中。对于每次训练迭代,我们只需要加载相应的数据,就可以大大提高系统效率。此外,增量学习可以帮助我们减少训练时间。对于传统的机器学习算法,如果有任何新数据传入,我们需要重新训练我们的模型。但是,就神经网络而言,我们仅需要基于预训练的参数执行几次增量学习迭代,即可显着减少学习时间并节省计算资源。在MATLAB中,执行增量学习的方式不是那么直观。在本文中,我将介绍一种执行增量学习的简单方法原创 2021-01-11 17:24:48 · 2673 阅读 · 10 评论 -
偏差方差分解Python示例
偏差方差分解是在机器学习中众所周知的归因损失的工具。通常,针对特定问题的模型误差与该模型的稳定性和该模型的拟合能力有关。我们称该模型的拟合能力为偏差,并称该模型的稳定性为方差。偏差方差分解为确定模型性能不佳的根源提供了一种有效的方法,可以进一步有效地指导我们设计高质量的机器学习模型。首先,我们应该认识到,偏差方差分解不是分解特定模型的单个误差值,而是着重于根据不同的训练数据分解一组机器学习模型的预期误差。例如,我们可以使用不同的训练数据子集构建十个不同的决策树。然后我们可以计算该算法的预期误差。然而,一原创 2021-01-08 16:52:49 · 892 阅读 · 0 评论 -
基于神经网络的中文论文评分器(Transformer + XGBoost)
此项目仅用于教育目的,我们不应在现实世界中使用它。作为助教,我总是要评审很多论文,这使我感到压力很大。因此,为了使自己免于重复工作,我建立了这个项目,并尝试使用机器学习来自动化评分过程。与传统的基于神经网络的评分器相比,该评分器基于传统的机器学习技术XGBoost。其背后的原因是,与神经网络相比,XGBoost在资源和时间消耗方面更容易训练。项目的基本想法很简单,我们可以从PDF文档中提取文本,然后使用Transformer从文档中提取文档嵌入向量。之后,我们可以使用XGBoost进行基于文档嵌入向量原创 2020-09-13 17:03:33 · 1852 阅读 · 3 评论 -
基于极限学习机ELM的人脸识别程序
前言有关极限学习机基础知识请参考 极限学习机详解思路可以直接将ELM看做一个黑盒算法,将人脸图片转化为NUMPY数组加入到ELM中即可。代码import hpelmimport numpy as npimport cv2import os,reimglist=[] #训练数据列表step=10 #每种照片样本数type_num=15 #种类数file_dir原创 2017-06-13 18:21:09 · 3876 阅读 · 14 评论