- 博客(192)
- 收藏
- 关注

原创 考研初试经验分享
本文主要是分享一些关于考研公共课准备的经验。适用于一些自己通过自学准备考研的同学,没有最好的方法,只有最适合自己的方法,希望各位同学结合自己的实际情况,选择出适合自己的方法。文章目录一、备考时间二、备考经验1.政治2.英语3.数学总结一、备考时间考研初试的时间一般为12月下旬,个人觉得起始时间要根据自身的情况,数学和专业课是考虑的重点。如果这两门课有着较好的基础,建议是从六月份开始,时间足够。否则,就要早点开始,时间越早越好,六月份之前可以先学一遍,数学和专业课的基础知识,打一遍基础。如果是选
2021-01-05 20:14:51
469
原创 1. Looking Closer at the Scene: Multiscale Representation Learning
阅读《Looking Closer at the Scene: Multiscale Representation Learning for Remote Sensing Image Scene Class》
2024-10-29 17:39:54
1009
原创 1. 学术英语 (English For Academic Purposes (EAP)) 写作教程
学术英语写作教程:文章结构、代词用法、文章语态、时态以及模糊词(Hedging)的使用。
2024-10-16 11:04:45
4439
原创 监测深度学习模型训练时CPU和GPU的使用情况
监测代码:import pynvmlimport torchimport psutilimport os# 获取当前进程信息process = psutil.Process(os.getpid()) # 获取当前 Python 进程的 PIDdef print_resource_usage(phase, device=None): """ 打印当前阶段的资源使用情况,包括 CPU 使用率、内存占用和 GPU 占用情况。 :param phase: 当前的阶段标识
2024-09-25 11:24:37
382
原创 Linux上PyTorch离线安装教程
以python 3.6 为例,找到相应版本的。下载完成后,上传至Linux服务器上。选项表示仅安装torchvision。
2024-08-08 19:56:43
1371
1
原创 4.R包相关介绍
点击 Tools -> Global Option -> Packages。安装R包之前,先确定来源,每个包的 包名 需要加引号。不同来源的R包,有不同的安装方式。加载包的 包名 无需加引号。
2024-04-07 15:58:57
269
原创 3.函数相关基础
iris 鸢尾花数据集包含150个样本,每行数据表示一个样本,每个样本包含四个特征和一个类别信息,所以iris数据集是一个150行5列的数据框,前四列是特征信息,第五列是类别信息。定义一个函数Uzi(),可以求两个值a,b的平方和。其中from,to,by均为形式参数,可以省略;1,10,2均为实际参数,使用者可以改动。
2024-04-07 10:51:11
228
原创 任意7个数字,选出5个进行组合排列,并使用Excel打印组合的所有情况。
任意7个数字,选出5个进行组合排列,并使用Excel打印组合的所有情况。
2022-06-07 18:32:09
8474
6
原创 从案例中学习决策树。
决策分类树一、决策树的介绍分类型决策树在叶子节点上的决策规则是少数服从多数,在一个叶子节点上,如果某一类标签所占的比例较大,那所有进入这个叶子节点的样本都回被认为是这一类别。如果叶子节点的样本有90%都是类别0(叶子比较纯),那新进入叶子节点的测试样本的类别也很有可能是0。但是,如果51%的样本是0,49%的样本是1(极端情况),叶子节点还是会被认为是0类叶子节点,但此时此刻进入这个叶子的测试样本点几乎有一半的可能性应该是类别1。从数学上来说,类分布为(0,100%)的结点具有零不纯性,而均衡分布(
2021-10-17 20:45:24
1474
1
原创 scikit-learn实现SVM(3) SVM 思想解决回归问题
目录1. 导入数据2. SVM 思想解决回归问题1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsboston = datasets.load_boston()X = boston.datay = boston.targetfrom sklearn.model_selection import train_test_splitX_train, X_test, y_tr
2021-08-06 19:44:35
405
原创 scikit-learn实现SVM(2)SVM中的使用多项式特征
目录1. 导入数据2. 使用多项式特征的SVM2.1 法一:先升维,再计算2.2 法二:使用核函数2.2.1 使用多项式核函数的SVM2.2.3 使用高斯核函数2.2.4 高斯核函数,过拟合2.2.5 高斯核函数,欠拟合1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsX, y = datasets.make_moons(noise=0.15, random_state=666)
2021-08-06 19:14:02
362
原创 scikit-learn实现LinearSVC(1)Hard Margin SVC与Soft Margin SVC
1. 导入数据from sklearn import datasetsiris = datasets.load_iris()X = iris.datay = iris.targetX = X[y<2,:2]y = y[y<2]plt.scatter(X[y==0,0], X[y==0,1], color='red')plt.scatter(X[y==1,0], X[y==1,1], color='blue')plt.show()import numpy as npi
2021-08-06 18:16:42
679
原创 scikit-learn实现集成学习(2):Boosting
目录1. 导入数据2. 数据分割3. 使用AdaBoosting4. 使用Gradient Boosting5. 拓展:Boosting 解决回归问题1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsX, y = datasets.make_moons(n_samples=500, noise=0.3, random_state=666) plt.scatter(X[y==0
2021-08-06 11:22:52
187
原创 scikit-learn实现集成学习(2):随机森林、Extra-Trees
目录1. 导入数据2. 随机森林3. Extra-Trees4. 拓展1. 导入数据随机森林拥有决策树和BaggingClassifier的所有参数import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsX,y = datasets.make_moons(n_samples=500,noise=0.3,random_state=666)plt.scatter(X[y==0,0],X[y==0,
2021-08-06 11:13:04
835
原创 scikit-learn实现集成学习(1)
目录1. 导入数据2. 使用Voting Classifier2.1 hard Voting2.2 soft Voting3. 使用 Bagging4. 使用oob4.1 obb查看准确率的方式5. 使用bootstrap_features1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasets# 样本数:n_samples、标准差:0.3X, y = datasets.make_m
2021-08-05 17:28:51
317
原创 scikit-learn决策树(2)决策树的学习曲线与模型复杂度曲线
目录1.决策树的学习曲线1.1 导入数据并分割数据1.2 基于RMSE绘制学习曲线1.3 基于R^2值绘制学习曲线1.4 以max_depth参数为例,看不同参数学习曲线的不同.2.模型复杂度曲线2.1 导入数据并分割数据2.2 结论1.决策树的学习曲线1.1 导入数据并分割数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsboston = datasets.load_boston()
2021-08-05 15:31:21
1166
原创 scikit-learn实现决策树(1)
1.导入数据import numpy as np import matplotlib.pyplot as pltfrom sklearn import datasetsiris = datasets.load_iris()X = iris.data[:,2:]y = iris.target2.表示数据plt.scatter(X[y==0,0], X[y==0,1])plt.scatter(X[y==1,0], X[y==1,1])plt.scatter(X[y==2,0], X[y
2021-08-05 15:19:48
351
原创 评价分类结果(3)--多分类问题中的混淆矩阵
1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsdigits = datasets.load_digits()X = digits.datay = digits.target2. 数据分割from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = tr
2021-08-04 17:37:36
314
原创 评价分类结果(2)--精准度-召回率曲线、ROC曲线
目录1.精准度和召回率受决策边界的影响导入数据数据分割逻辑回归各种衡量指标2.改变决策边界3.精准度-召回率曲线4.ROC曲线1.精准度和召回率受决策边界的影响导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsdigits = datasets.load_digits()X = digits.datay = digits.target.copy()y[digits.targ
2021-08-04 17:27:29
808
原创 评价分类结果(1)--混淆矩阵、精准率、召回率、F1 Score
1. 导入数据from sklearn import datasetsdigits = datasets.load_digits()X = digits.datay = digits.target.copy()y[digits.target==9] = 1y[digits.target!=9] = 02 .数据分割from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test
2021-08-04 16:35:57
194
原创 scikit-learn实现逻辑回归
目录1.导入数据2.分割数据3.使用scikit-learn中的逻辑回归4.OvO and OvR1.导入数据import numpy as npimport matplotlib.pyplot as pltnp.random.seed(666)X = np.random.normal(0,1,(200,2))y = np.array((X[:,0]**2+X[:,1])<1.5,dtype='int')for _ in range(20): y[np.random.rand
2021-08-04 11:13:52
491
原创 scikit-learn实现岭回归 和 LASSO回归
1. 导入数据import numpy as npimport matplotlib.pyplot as pltnp.random.seed(42)x = np.random.uniform(-3.0, 3.0, size=100)X = x.reshape(-1, 1)y = 0.5 * x + 3 + np.random.normal(0, 1, size=100)2. 分割数据集from sklearn.model_selection import train_test_split
2021-08-03 11:43:26
310
原创 scikit-learn实现多项式回归
1. 导入数据import numpy as npimport matplotlib.pyplot as plt x = np.random.uniform(-3,3,100)X = x.reshape(-1,1)y = y = 0.5 * x**2 + x + 2 + np.random.normal(0, 1, 100)2. 多项式回归from sklearn.preprocessing import PolynomialFeatures# 将多项式的最高次幂 升至 2pol
2021-08-03 11:27:04
339
原创 scikit-learn中的PCA
目录1. 获取数据2. 数据分割3. 使用PCA进行降维4. PCA的作用1. 获取数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsdigits = datasets.load_digits()X = digits.datay = digits.target2. 数据分割from sklearn.model_selection import train_test_split
2021-08-01 17:04:37
172
原创 关于梯度的计算调试
1. 思想用该点临近两点的斜率 代替 该点的斜率。2. 导入数据import numpy as npimport matplotlib.pyplot as pltnp.random.seed(666)X = np.random.random(size=(1000, 10))true_theta = np.arange(1, 12, dtype=float)X_b = np.hstack([np.ones((len(X), 1)), X])y = X_b.dot(true_theta)
2021-07-30 17:57:13
166
原创 使用梯度下降法的线性回归
目录1. 线性回归类2. 梯度下降法3. 使用过程3.1 导入数据3.2 分割为训练集和测试集3.3 数据归一化3.4 使用梯度下降法4. 补充1. 线性回归类class LinearRegression: def __init__(self): """初始化Linear Regression模型""" self.cofe_ = None #参数 self._theta[1:] self.intercept_ = None #截距 self._t
2021-07-30 17:18:28
144
原创 scikit-learn中多元线性回归问题
目录1. 导入数据2. 数据分割为 训练集 和 测试集3. 使用线性回归4. 算法的评测补充1. 导入数据import numpy as npfrom sklearn import datasetsboston = datasets.load_boston()X = boston.datay = boston.target#去除边界值X = X[y < 50.0]y = y[y < 50.0]2. 数据分割为 训练集 和 测试集from sklearn.model_s
2021-07-30 15:18:35
141
原创 scikit-learn中简单线性回归问题
1. 导入数据import numpy as npx = np.array([1., 2., 3., 4., 5.])y = np.array([1., 3., 2., 3., 5.])x_new = x.reshape([-1,1])2. 图形表示数据import matplotlib.pyplot as pltplt.scatter(x,y)plt.show()3. 简单线性回归from sklearn.linear_model import LinearRegress
2021-07-30 15:09:55
87
原创 用sklearn 实现 kNN算法的流程
kNN实现1.1 获取数据1.2 将数据分割成为 训练集 和 测试集1.3 数据归一化1.3.1 最值归一化1.3.2 均值方差归一化1.4 使用kNN算法分类(采用均值方差归一化为例)1.4.1 网格搜索 确定最优超参数1.4.2 开始分类1.4.3 accuracy_score 准确度1.1 获取数据from sklearn import datasetsiris = datasets.load_iris()X = iris.datay = iris.target1.2
2021-07-30 11:30:48
1719
原创 Numpy:矩阵运算np.matmul与np.dot。
目录一、准备数据二、np.matmul三、np.dot一、准备数据>>> a = np.array([[80, 86], [82, 80], [85, 78], [90, 90], [86, 82], [82, 90], [78, 80], [92, 94]])>>> b = np.array([[0.7], [0.3]])二、np.matmul>>> np.
2021-05-28 17:19:00
595
原创 Numpy:ndarray运算。
一、通用判断函数np.all() – 全部元素都满足条件,返回 True,否则返回 False#判断前两名同学的成绩[0:2, :]是否全及格>>>np.all(score[0:2, :] > 60)Falsenp.any() – 有元素满足条件,返回 True,否则返回 False# 判断前两名同学的成绩[0:2, :]是否有大于90分的>>> np.any(score[0:2, :] > 80)True二、np.where(三元运算符
2021-05-28 16:57:50
233
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人