自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

It's You--MXL

不发光的时候,就是在为发光做准备。

  • 博客(192)
  • 收藏
  • 关注

原创 考研初试经验分享

本文主要是分享一些关于考研公共课准备的经验。适用于一些自己通过自学准备考研的同学,没有最好的方法,只有最适合自己的方法,希望各位同学结合自己的实际情况,选择出适合自己的方法。文章目录一、备考时间二、备考经验1.政治2.英语3.数学总结一、备考时间考研初试的时间一般为12月下旬,个人觉得起始时间要根据自身的情况,数学和专业课是考虑的重点。如果这两门课有着较好的基础,建议是从六月份开始,时间足够。否则,就要早点开始,时间越早越好,六月份之前可以先学一遍,数学和专业课的基础知识,打一遍基础。如果是选

2021-01-05 20:14:51 469

原创 Linux上安装包教程

【代码】Linux上安装包教程。

2025-02-23 20:23:39 195

原创 1. Looking Closer at the Scene: Multiscale Representation Learning

阅读《Looking Closer at the Scene: Multiscale Representation Learning for Remote Sensing Image Scene Class》

2024-10-29 17:39:54 1009

原创 2. 学术英语写作风格 (Academic Writing Style)

学术英语写作风格。

2024-10-29 15:35:26 2003

原创 1. 学术英语 (English For Academic Purposes (EAP)) 写作教程

学术英语写作教程:文章结构、代词用法、文章语态、时态以及模糊词(Hedging)的使用。

2024-10-16 11:04:45 4439

原创 监测深度学习模型训练时CPU和GPU的使用情况

监测代码:import pynvmlimport torchimport psutilimport os# 获取当前进程信息process = psutil.Process(os.getpid()) # 获取当前 Python 进程的 PIDdef print_resource_usage(phase, device=None): """ 打印当前阶段的资源使用情况,包括 CPU 使用率、内存占用和 GPU 占用情况。 :param phase: 当前的阶段标识

2024-09-25 11:24:37 382

原创 深度学习与在遥感领域的应用 (综述+研究方向+相关期刊)

深度学习与在遥感领域的应用综述、未来的研究方向、以及遥感方向的相关期刊、会议。

2024-09-11 22:32:11 5018 1

原创 Linux上PyTorch离线安装教程

以python 3.6 为例,找到相应版本的。下载完成后,上传至Linux服务器上。选项表示仅安装torchvision。

2024-08-08 19:56:43 1371 1

原创 使用scp命令在不同服务器上传输文件

使用scp命令在不同服务器上传输文件,并保存在后台运行。

2024-08-08 16:22:47 1936

原创 非 base 环境下,无法安装 hic-straw 包

在非base环境下,无法安装hic-straw包。

2024-07-23 17:39:54 468

原创 Linux 安装 miniconda

Linux 安装 miniconda

2024-07-23 17:21:11 309

原创 4.R包相关介绍

点击 Tools -> Global Option -> Packages。安装R包之前,先确定来源,每个包的 包名 需要加引号。不同来源的R包,有不同的安装方式。加载包的 包名 无需加引号。

2024-04-07 15:58:57 269

原创 3.函数相关基础

iris 鸢尾花数据集包含150个样本,每行数据表示一个样本,每个样本包含四个特征和一个类别信息,所以iris数据集是一个150行5列的数据框,前四列是特征信息,第五列是类别信息。定义一个函数Uzi(),可以求两个值a,b的平方和。其中from,to,by均为形式参数,可以省略;1,10,2均为实际参数,使用者可以改动。

2024-04-07 10:51:11 228

原创 2.数据框、矩阵和列表

按照坐标来取子集,与数据框的操作相同。from 生信技能树课程。

2024-04-06 18:13:51 402

原创 1.数据类型和向量

判断数据类型的函数为: class()from 生信技能树课程。

2024-04-05 16:42:00 469

原创 KEGG富集分析可视化

【代码】KEGG富集分析可视化。

2023-07-04 21:56:56 580

原创 任意7个数字,选出5个进行组合排列,并使用Excel打印组合的所有情况。

任意7个数字,选出5个进行组合排列,并使用Excel打印组合的所有情况。

2022-06-07 18:32:09 8474 6

原创 从案例中学习决策树。

决策分类树一、决策树的介绍分类型决策树在叶子节点上的决策规则是少数服从多数,在一个叶子节点上,如果某一类标签所占的比例较大,那所有进入这个叶子节点的样本都回被认为是这一类别。如果叶子节点的样本有90%都是类别0(叶子比较纯),那新进入叶子节点的测试样本的类别也很有可能是0。但是,如果51%的样本是0,49%的样本是1(极端情况),叶子节点还是会被认为是0类叶子节点,但此时此刻进入这个叶子的测试样本点几乎有一半的可能性应该是类别1。从数学上来说,类分布为(0,100%)的结点具有零不纯性,而均衡分布(

2021-10-17 20:45:24 1474 1

原创 scikit-learn实现SVM(3) SVM 思想解决回归问题

目录1. 导入数据2. SVM 思想解决回归问题1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsboston = datasets.load_boston()X = boston.datay = boston.targetfrom sklearn.model_selection import train_test_splitX_train, X_test, y_tr

2021-08-06 19:44:35 405

原创 scikit-learn实现SVM(2)SVM中的使用多项式特征

目录1. 导入数据2. 使用多项式特征的SVM2.1 法一:先升维,再计算2.2 法二:使用核函数2.2.1 使用多项式核函数的SVM2.2.3 使用高斯核函数2.2.4 高斯核函数,过拟合2.2.5 高斯核函数,欠拟合1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsX, y = datasets.make_moons(noise=0.15, random_state=666)

2021-08-06 19:14:02 362

原创 scikit-learn实现LinearSVC(1)Hard Margin SVC与Soft Margin SVC

1. 导入数据from sklearn import datasetsiris = datasets.load_iris()X = iris.datay = iris.targetX = X[y<2,:2]y = y[y<2]plt.scatter(X[y==0,0], X[y==0,1], color='red')plt.scatter(X[y==1,0], X[y==1,1], color='blue')plt.show()import numpy as npi

2021-08-06 18:16:42 679

原创 scikit-learn实现集成学习(2):Boosting

目录1. 导入数据2. 数据分割3. 使用AdaBoosting4. 使用Gradient Boosting5. 拓展:Boosting 解决回归问题1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsX, y = datasets.make_moons(n_samples=500, noise=0.3, random_state=666) plt.scatter(X[y==0

2021-08-06 11:22:52 187

原创 scikit-learn实现集成学习(2):随机森林、Extra-Trees

目录1. 导入数据2. 随机森林3. Extra-Trees4. 拓展1. 导入数据随机森林拥有决策树和BaggingClassifier的所有参数import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsX,y = datasets.make_moons(n_samples=500,noise=0.3,random_state=666)plt.scatter(X[y==0,0],X[y==0,

2021-08-06 11:13:04 835

原创 scikit-learn实现集成学习(1)

目录1. 导入数据2. 使用Voting Classifier2.1 hard Voting2.2 soft Voting3. 使用 Bagging4. 使用oob4.1 obb查看准确率的方式5. 使用bootstrap_features1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasets# 样本数:n_samples、标准差:0.3X, y = datasets.make_m

2021-08-05 17:28:51 317

原创 scikit-learn决策树(2)决策树的学习曲线与模型复杂度曲线

目录1.决策树的学习曲线1.1 导入数据并分割数据1.2 基于RMSE绘制学习曲线1.3 基于R^2值绘制学习曲线1.4 以max_depth参数为例,看不同参数学习曲线的不同.2.模型复杂度曲线2.1 导入数据并分割数据2.2 结论1.决策树的学习曲线1.1 导入数据并分割数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsboston = datasets.load_boston()

2021-08-05 15:31:21 1166

原创 scikit-learn实现决策树(1)

1.导入数据import numpy as np import matplotlib.pyplot as pltfrom sklearn import datasetsiris = datasets.load_iris()X = iris.data[:,2:]y = iris.target2.表示数据plt.scatter(X[y==0,0], X[y==0,1])plt.scatter(X[y==1,0], X[y==1,1])plt.scatter(X[y==2,0], X[y

2021-08-05 15:19:48 351

原创 评价分类结果(3)--多分类问题中的混淆矩阵

1. 导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsdigits = datasets.load_digits()X = digits.datay = digits.target2. 数据分割from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = tr

2021-08-04 17:37:36 314

原创 评价分类结果(2)--精准度-召回率曲线、ROC曲线

目录1.精准度和召回率受决策边界的影响导入数据数据分割逻辑回归各种衡量指标2.改变决策边界3.精准度-召回率曲线4.ROC曲线1.精准度和召回率受决策边界的影响导入数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsdigits = datasets.load_digits()X = digits.datay = digits.target.copy()y[digits.targ

2021-08-04 17:27:29 808

原创 评价分类结果(1)--混淆矩阵、精准率、召回率、F1 Score

1. 导入数据from sklearn import datasetsdigits = datasets.load_digits()X = digits.datay = digits.target.copy()y[digits.target==9] = 1y[digits.target!=9] = 02 .数据分割from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test

2021-08-04 16:35:57 194

原创 scikit-learn实现逻辑回归

目录1.导入数据2.分割数据3.使用scikit-learn中的逻辑回归4.OvO and OvR1.导入数据import numpy as npimport matplotlib.pyplot as pltnp.random.seed(666)X = np.random.normal(0,1,(200,2))y = np.array((X[:,0]**2+X[:,1])<1.5,dtype='int')for _ in range(20): y[np.random.rand

2021-08-04 11:13:52 491

原创 scikit-learn实现岭回归 和 LASSO回归

1. 导入数据import numpy as npimport matplotlib.pyplot as pltnp.random.seed(42)x = np.random.uniform(-3.0, 3.0, size=100)X = x.reshape(-1, 1)y = 0.5 * x + 3 + np.random.normal(0, 1, size=100)2. 分割数据集from sklearn.model_selection import train_test_split

2021-08-03 11:43:26 310

原创 scikit-learn实现多项式回归

1. 导入数据import numpy as npimport matplotlib.pyplot as plt x = np.random.uniform(-3,3,100)X = x.reshape(-1,1)y = y = 0.5 * x**2 + x + 2 + np.random.normal(0, 1, 100)2. 多项式回归from sklearn.preprocessing import PolynomialFeatures# 将多项式的最高次幂 升至 2pol

2021-08-03 11:27:04 339

原创 scikit-learn中的PCA

目录1. 获取数据2. 数据分割3. 使用PCA进行降维4. PCA的作用1. 获取数据import numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsdigits = datasets.load_digits()X = digits.datay = digits.target2. 数据分割from sklearn.model_selection import train_test_split

2021-08-01 17:04:37 172

原创 关于梯度的计算调试

1. 思想用该点临近两点的斜率 代替 该点的斜率。2. 导入数据import numpy as npimport matplotlib.pyplot as pltnp.random.seed(666)X = np.random.random(size=(1000, 10))true_theta = np.arange(1, 12, dtype=float)X_b = np.hstack([np.ones((len(X), 1)), X])y = X_b.dot(true_theta)

2021-07-30 17:57:13 166

原创 使用梯度下降法的线性回归

目录1. 线性回归类2. 梯度下降法3. 使用过程3.1 导入数据3.2 分割为训练集和测试集3.3 数据归一化3.4 使用梯度下降法4. 补充1. 线性回归类class LinearRegression: def __init__(self): """初始化Linear Regression模型""" self.cofe_ = None #参数 self._theta[1:] self.intercept_ = None #截距 self._t

2021-07-30 17:18:28 144

原创 scikit-learn中多元线性回归问题

目录1. 导入数据2. 数据分割为 训练集 和 测试集3. 使用线性回归4. 算法的评测补充1. 导入数据import numpy as npfrom sklearn import datasetsboston = datasets.load_boston()X = boston.datay = boston.target#去除边界值X = X[y < 50.0]y = y[y < 50.0]2. 数据分割为 训练集 和 测试集from sklearn.model_s

2021-07-30 15:18:35 141

原创 scikit-learn中简单线性回归问题

1. 导入数据import numpy as npx = np.array([1., 2., 3., 4., 5.])y = np.array([1., 3., 2., 3., 5.])x_new = x.reshape([-1,1])2. 图形表示数据import matplotlib.pyplot as pltplt.scatter(x,y)plt.show()3. 简单线性回归from sklearn.linear_model import LinearRegress

2021-07-30 15:09:55 87

原创 用sklearn 实现 kNN算法的流程

kNN实现1.1 获取数据1.2 将数据分割成为 训练集 和 测试集1.3 数据归一化1.3.1 最值归一化1.3.2 均值方差归一化1.4 使用kNN算法分类(采用均值方差归一化为例)1.4.1 网格搜索 确定最优超参数1.4.2 开始分类1.4.3 accuracy_score 准确度1.1 获取数据from sklearn import datasetsiris = datasets.load_iris()X = iris.datay = iris.target1.2

2021-07-30 11:30:48 1719

原创 Numpy:矩阵运算np.matmul与np.dot。

目录一、准备数据二、np.matmul三、np.dot一、准备数据>>> a = np.array([[80, 86], [82, 80], [85, 78], [90, 90], [86, 82], [82, 90], [78, 80], [92, 94]])>>> b = np.array([[0.7], [0.3]])二、np.matmul>>> np.

2021-05-28 17:19:00 595

原创 Numpy:ndarray运算。

一、通用判断函数np.all() – 全部元素都满足条件,返回 True,否则返回 False#判断前两名同学的成绩[0:2, :]是否全及格>>>np.all(score[0:2, :] > 60)Falsenp.any() – 有元素满足条件,返回 True,否则返回 False# 判断前两名同学的成绩[0:2, :]是否有大于90分的>>> np.any(score[0:2, :] > 80)True二、np.where(三元运算符

2021-05-28 16:57:50 233

基于深度学习的遥感场景分类

基于深度学习的遥感场景分类

2024-09-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除