
复制粘贴了再寻找
文章平均质量分 59
SCUT-Chung
2024.9 电子信息研二在读
展开
-
21.8.29 逻辑分类
1. 人工分类主要靠 plt.pcolormesh 来实现尝试使用线性回归和岭回归来耍耍,但效果不咋地特别是正则项c的取法,奇怪的一批import numpy as npimport matplotlib.pyplot as pltx = np.array([ [3, 1], [2, 5], [1, 8], [6, 4], [5, 2], [3, 5], [5, 7], [4, -1]])y = np.array([0, 1,原创 2021-08-29 21:07:40 · 217 阅读 · 0 评论 -
21.8.28_random forest
1.正向激励方法:import sklearn.tree as stimport sklearn.ensemble as se# model: 决策树模型(一颗)model = st.DecisionTreeRegressor(max_depth=4)# 自适应增强决策树回归模型 # n_estimators:构建400棵不同权重的决策树,训练模型model = se.AdaBoostRegressor(model, n_estimators=400, random_state=7)# 训原创 2021-08-29 13:09:54 · 121 阅读 · 0 评论 -
21.8.23_决策树
reference:1.https://blog.youkuaiyun.com/jiaoyangwm/article/details/795252372.https://www.bilibili.com/video/BV1CB4y1c7UQ?p=221. 决策树原理: 将信息分类,使得沿着路径特征不断聚合比如用这张图,根据深度由根到叶到子叶可以将分类目标分别设置为年龄,学历,经历,性别到深的叶节点,每一个点上的特征有四种且每种只有一个对于待预测样本,根据其每一个特征的值,选择对应的子表,逐一匹配,直到找原创 2021-08-24 01:27:39 · 183 阅读 · 0 评论 -
个人学习_21.8.12-线性回归部分
1.超简易代码(不用sklearn)可以改进的地方:导入函数没写,不过大部分默认使用 .csv的格式import numpy as npimport matplotlib.pyplot as plttrain_x = np.array([0.5, 0.6, 0.8, 1.1, 1.4])train_y = np.array([5.0, 5.5, 6.0, 6.8, 7.0])test_x = np.array([0.45, 0.55, 1.0, 1.3, 1.5])test_y = np.原创 2021-08-13 22:07:48 · 280 阅读 · 1 评论 -
个人学习_2021.8.10
基于https://www.bilibili.com/video/BV1CB4y1c7UQ?p=9&spm_id_from=pageDriver#问题分类:回归(函数输出),分类,聚类(根据相似度划分成不同的群落),降维(降低数据复杂度)#数据预处理:将字符串转为数值,将数据归一化(避免最后的过度拟合)#1.标准化#均值移除:一个样本的不同特征差异可能较大,不利于机器学习算法惊样本处理#将样本化为均值为0,标准差为1的数据集#均值为0算法:1.求平均值 2.每个分量减去平均值#标原创 2021-08-11 20:42:50 · 113 阅读 · 0 评论