
机器学习
文章平均质量分 66
irober
这个作者很懒,什么都没留下…
展开
-
pytorch安装
pytorch安装原创 2023-06-16 17:01:48 · 641 阅读 · 0 评论 -
直观解读 KL 散度的数学概念
选自http://thushv.com,作者:Thushan Ganegedara,机器之心编译。机器学习是当前最重要的技术发展方向之一。近日,悉尼大学博士生 Thushan Ganegedara 开始撰写一个系列博客文章,旨在为机器学习初学者介绍一些基本概念。本文是该系列的第一篇文章,介绍了 KL 散度(KL divergence)的基本数学概念和初级应用。作者已将相关代码发布在 GitHub 上。代码:https://github.com/thushv89/nlp_examples_thushv转载 2021-02-10 11:39:27 · 814 阅读 · 1 评论 -
机器学习:特征选择(feature selection)2020
特征选择常见方法Filter1、去掉取值变化小的特征(Removing features with low variance)2、单变量特征选择 (Univariate feature selection)Wrapper3、递归特征消除 (Recursive Feature Elimination)Embedding4、使用SelectFromModel选择特征 (Feature selection using SelectFromModel)5、将特征选择过程融入pipeli转载 2020-09-30 14:49:08 · 1700 阅读 · 0 评论 -
数据科学你可能遇到的有关代码的查询
kaggle_房价预测kaggle竞赛房价预测–排名前4%jupyter notebook目录导航Python可视化 | Seaborn pairplotstats.probplot(QQ图)Python数据可视化-seaborn库之countplot人工智能实战就业(面试)学习路线图imputeitems()python enumerate用法总结...原创 2020-09-28 16:38:53 · 132 阅读 · 0 评论 -
SVM的两个参数 C 和 gamma
SVM模型有两个非常重要的参数C与gamma。其中 C是惩罚系数,即对误差的宽容度。c越高,说明越不能容忍出现误差,容易过拟合。C越小,容易欠拟合。C过大或过小,泛化能力变差 gamma是选择RBF函数作为kernel后,该函数自带的一个参数。隐含地决定了数据映射到新的特征空间后的分布,ga...转载 2020-08-31 21:21:20 · 1256 阅读 · 0 评论