
python机器学习
文章平均质量分 58
使用python对光谱数据处理
ThePaK
慢慢来
展开
-
机器学习之弹性网络(Elastic Net)
ElasticNet是一个训练时同时用ℓ1和ℓ2范数进行正则化的线性回归模型,lasso是使用ℓ1范数进行正则化的线性回归模型。原创 2023-08-03 12:47:11 · 1299 阅读 · 0 评论 -
PCA降维_鸢尾花案例python代码实现
【代码】PCA降维_鸢尾花案例python代码实现。原创 2023-08-03 12:45:48 · 920 阅读 · 1 评论 -
泰坦尼克号生存者数据的预测
第三次模型的建立使用网格搜索对超参数进行最优值选取,时间会较长,且效果不一定有第二次模型建立的好,仅供参考。原创 2023-08-03 12:44:37 · 184 阅读 · 0 评论 -
数据预处理之数据标准化StandardScaler
机器学习算法实践中,往往需要将不同规格的数据转换到同一规格,或者将不同分布的数据转换到某个特定分布的需求,这种需求统称为将数据“无量纲化”。在以梯度和矩阵为核心的算法中,譬如逻辑回归、支持向量机、神经网络,无量纲化可以加快求解速度;在距离类模型,譬如K近邻、KMeans聚类中,无量纲化可以帮我们提升模型精度,避免某一个取值范围特别大的特征对距离计算造成影响。特例是决策树和树的集成算法,对决策树不需要无量纲化,决策树可以把任意数据都处理得很好。数据的无量纲化可以是线性的,也可...原创 2022-02-13 20:32:57 · 7856 阅读 · 0 评论 -
大作业论文之基于迁移学习的图像预测研究
基于迁移学习的图像预测研究摘要:深度学习技术发展迅速,在图像处理领域取得了显著成果.[2]但是由于部分图像样本少,标注困难,使得深度学习的效果远未达到预期.迁移学习是机器学习中一种新的学习范式,它可以克服深度学习需要大量样本的缺陷,能够解决图像分析中数据集较小导致模型不准确的问题,因而成为继深度学习之后在图像分析领域的研究热点.[1]本文介绍了迁移学习方法的基本概念、模型、常用策略及模型,并基于迁移学习的VGG16神经网络模型实现了对图像的分类和预测.关键词: 迁移学习;神经网络;深...原创 2022-02-13 20:48:35 · 2618 阅读 · 0 评论 -
随机森林分类器详解及代码实现
class sklearn.ensemble.RandomForestClassifier(n_estimators='100', criterion='gini', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='sqrt', max_leaf_nodes=None, min_impurity_decrease=0.0, bootstrap=True,原创 2022-05-31 14:00:19 · 6753 阅读 · 0 评论 -
python之使用plt笔记
若xxt为 (2,800) np.array类型的数组,将其画图并对每条线设置名字,且横坐标为指定范围[1000,1800]。画图展示如果想要相邻两个点之间距离为自定义值,而非0,如一共有400个点,每两点相隔距离1.9375,横坐标指定[315,1090],即(1090-315)/1.9375=400. 代码如下【X为(279,400)pd.DataFrame类型】画图展示...原创 2022-06-18 15:07:57 · 984 阅读 · 0 评论 -
python实现PCA降维画分类散点图并标出95%的置信区间
python实现PCA降维画分类散点图并标出95%的置信区间,以鸢尾花数据集为例原创 2023-03-03 18:19:27 · 9129 阅读 · 2 评论 -
使用python求PLS-DA的方差贡献率
以鸢尾花数据集为例,实现PLS-DA降维,画出降维后数据的散点图并求其方差贡献率。原创 2023-03-09 17:38:19 · 1953 阅读 · 0 评论 -
label与one-hot独热编码向量之间的相互转换
按列时,第一列最大值是5,索引值为1;第二列最大值是7,索引值为1;第三列最大值是8,索引值为2;第三列最大值是7,索引值为0.按行时,第一行最大值是7,索引值为3;第二行最大值是7,索引值为1;第三行最大值是8,索引值为2.keras中to_categorical函数:将类别向量转换为二进制(只有0和1)的矩阵类型表示。也就是将类别向量转换为独热编码。原创 2023-04-11 14:23:42 · 618 阅读 · 0 评论 -
卷积神经网络的三大特性
卷积神经网络的三大特性原创 2023-06-28 10:14:35 · 2739 阅读 · 0 评论