
python机器学习
文章平均质量分 78
clancy_wu
北京中医药大学博士生,方向:针刺对脑卒中、偏头痛的机制研究。
展开
-
cuML installation guidence
cuML installation guidence原创 2022-10-15 22:45:14 · 1443 阅读 · 0 评论 -
机器学习读书笔记(二)
介绍机器学习所有算法前,首先介绍两个最基本的算法,即 Perceptron 感知机 和adaptive linear neurons 自适应线性神经元。了解这两个基本算法有助于帮助理解后续的高级算法。机器学习发源于对神经元的模仿,即神经元的反射过程:信号输入–>信号处理–>信号输出。而一个巨大的飞跃,就是Frank Rosenblatt在1957年提出的在上述过程中加入自动学习过程,即 [ 信号输入–>信号处理–>信号输入权重更新 ] —> 信号输出。自动权重更新过程的原创 2022-05-06 18:55:00 · 797 阅读 · 0 评论 -
机器学习读书笔记(一)
机器学习分类机器学习算法主要分为三种,监督学习(supervised learning)、无监督学习(unsupervised learning)和强化学习(reinforcement learning)。监督学习有标签,用于预测结果或未来。无监督学习无标签,用于寻找数据潜在结构。强化学习有决策过程和奖励系统,用于学习一系列动作。监督学习监督学习是在训练数据和数据标签中进行机器学习,生成模型,然后将该模型用于新的数据去预测其标签。监督学习包括分类预测 classification 和回归预测原创 2022-05-06 13:16:19 · 697 阅读 · 0 评论 -
机器学习介绍——个人经验
以下为我的个人经验,主要用于分享和讨论,未关注内容的严谨性,仅供讨论和互相学习。什么是机器学习我的理解:机器学习是用于预测和分类的模型。这个模型是一个总称,其中包括监督学习的K近邻、线性回归、逻辑回归、SVN等,无监督学习的K平均、分层聚类、最大期望等。相较于传统的多因素分析而言,机器学习的这些算法对变量分布和特性(线性、独立不相关等)基本无要求,不需要前提假设,而传统多因素分析中则建立在强假设下,要求变量符合正态分布、线性独立等。因此,机器学习的算法要比传统多因素分析算法适应性更广,应用性更广,所原创 2022-04-20 20:23:05 · 1806 阅读 · 1 评论 -
SpaceNet与常规方法的对比
前面对SpaceNet进行调参,发现最高才89%,我的直觉告诉我还是低了点,为了证明,我决定调用常规的方法,如svm,logistics等,来验证这个分数。上一个章节对SpaceNet进行cv=10的操作,准确率是-89%和86%,再验证集是62.5%。SpaceNet模型接受的数据是3D的数据,而scikitlearn是2D数据,所以需要降维,即使用nilearn的NiftiMasker函数,Nifti Masker,这个函数是用来把三维数据变成二维数据的,如下图:当然了,这个70831是用gro原创 2021-11-20 00:14:50 · 1542 阅读 · 0 评论 -
Nilearn:多个被试连接组的组稀疏逆协方差
总代码import numpy as npfrom nilearn import plottingn_subjects = 4 # subjects to consider for group-sparse covariance (max: 40)def plot_matrices(cov, prec, title, labels): """Plot covariance and precision matrices, for a given processing. """ pre原创 2021-11-15 01:55:34 · 806 阅读 · 0 评论 -
理解和实现置换检验
置换检验原创 2021-11-10 15:56:15 · 5435 阅读 · 0 评论 -
对功能连接的体会
神经影像学分为功能像和核磁像,功能像通过一系列预处理,有reho值,dc值,alff值等等,但是最重要的还是FC值。因为这个值比较容易解释,像reho啊,其对应的生理学意义不太好解释。结构像经过一系列预处理,其实也有功能连接的指标,之前都是计算FA值,网络值这些,现在也有计算功能连接值的。这方面暂且不提。这里只专注于功能像。功能像的所有计算和分析,都建立在最原始的数据上。最原始的数据只有2个方面,一个是体素的体素值,一个是时间序列值。计算功能连接,实际上是计算相关性,而且功能连接也只能 one v原创 2021-11-10 11:36:24 · 4761 阅读 · 14 评论 -
相关性、偏相关性和切线空间嵌入
相关性、偏相关性和切线空间嵌入,其中切线空间嵌入 优于标准相关性和偏相关。Dadi 2019# 导入数据from nilearn import datasetsdevelopment_dataset = datasets.fetch_development_fmri(n_subjects=30)msdl_data = datasets.fetch_atlas_msdl()msdl_coords = msdl_data.region_coordsn_regions = len(msdl_coor原创 2021-11-09 00:33:42 · 523 阅读 · 8 评论 -
直接连接的逆协方差
直接连接的逆协方差 inverse covariance for direct connections对于直接连接的逆协方差矩阵的解释:给定一组时间序列(如前一节中提取的),功能性连接组是一组表示区域之间大脑相互作用的连接。这里我们展示了使用稀疏逆协方差来提取只关注区域间直接相互作用的功能性连接体。这个非常有用。比如你在前面计算出了感兴趣ROI,然后你想作ROI的功能连接,如果是直接提取时间序列作相关性矩阵,虽然你去掉了混淆信号,但是这些连接还是不太精确,因为他们也指向了其他labels。所以最正确原创 2021-11-08 23:58:27 · 826 阅读 · 0 评论 -
Nilearn从大脑图谱中提取时间序列及制作功能连接
from nilearn import datasetsdataset = datasets.fetch_atlas_harvard_oxford('cort-maxprob-thr25-2mm')atlas_filename = dataset.mapslabels = dataset.labelsprint('Atlas ROIs are located in nifti image (4D) at: %s' % atlas_filename) # 4D data# One su原创 2021-11-08 23:09:10 · 5758 阅读 · 8 评论 -
关于对Nileran数据结构的认识
今天重新看了下Nilearn关于数据导入的细节,我发现我之前的文章有1个错误,哈哈,现在相通了,不过我也不打算修改了,估计没人看我的文章,等有人发现了评论了我再修改。就当留给后人的一个彩蛋。要想理解Nilearn的数据结构,就要回归到Nilearn的最开始的导入部分。我们知道,Nilearn最方便的就是定义了decoder以后,直接decoder.fit( X, Y )就可以了。但是这个X怎么来的呢?它的形式是怎么样的呢?那么问题还是回到了一开始的数据导入部分。Nilearn的导入是分两种,3D和4D的原创 2021-11-08 19:26:38 · 1137 阅读 · 0 评论 -
Nilearn汇总之我的理解(一文通览Nilearn绝大部分功能)
前面学习完带ROI的mask的预测(入门教程),以及group mask的预测(anova-SVM),把这些前置内容融汇贯通后,就可以开始看我下面的个人理解了。首先回顾下前面的内容:对于机器学习的基础:机器学习,说白了,就是用模型去拟合X和Y。作为医学生,我们没必要去弄明白这些模型内部的实现原理,只需要记住分类和回归中,最经典的几个模型,反正有skitlearn,API全部统一太方便了。因此,机器学习就是沟通X和Y的桥梁,这么去理解。Y好说,要么是离散数据,比如脸、猫,用来分类;要么是连续数据,比如1,原创 2021-11-03 00:29:08 · 3142 阅读 · 8 评论 -
核磁的机器学习——Nilearn包的教程
最近在学习Nilearn包的使用,现将学习笔记和思考发布在这里,供大家参考。以下训练的数据均来自于官网的练习数据 haxby2001的数据一、导入核磁数据这个没啥特别的,指定图像地址就好了,唯一要注意的是,需要是4D的nii.gz文件格式,这个可以通过其他软件转换。#导入数据就是命名nii.gz的数据地址file_name = r'D:\jupyter\nilearn\haxby2001\subj2\bold.nii.gz'可选教程:如何查看图像#查看数据的方法,用 plotting.vie原创 2021-10-30 11:59:35 · 2628 阅读 · 4 评论 -
从一元线性回归拟合过程看机器学习与深度学习优劣
摘要背景深度学习是一种模仿大脑神经元构造的算法,近年来具有较高的热度,尤其是在自然语言领域、视觉领域等等。我们一般的学习过程是从机器学习算法,进阶到深度学习算法,但在后者中,常常会因为方法结果讨论...原创 2021-09-15 16:07:00 · 729 阅读 · 0 评论 -
python回归
回归问题常用的就是线性回归。在R中用的是lm(),而python中都封装在scikit-learn里。一、数据准备用的是书上的housing数据,如下图:这个数据包含10个变量,一共有20640行,当然里面也有一些NA值。假如我们现在要研究median house value与哪些因素有关,并预测其值。对于这个问题,由于median house value是一个数值型变量,所以最适合用线性回归。分割数据,创建训练集+测试集。一般是按照80%和20%的比例划分数据,划分的方法包括随原创 2021-05-04 17:24:15 · 859 阅读 · 4 评论 -
基于python的机器学习笔记
python机器学习书中的分类:监督式学习:K-近邻算法、线性回归、逻辑回归、支持向量、决策树和随机森林、神经网络。无监督式学习:聚类算法(K均值聚类、分层聚类、最大期望聚类)、降维(主成分分析、核主成分分析、局部线性嵌入、t-分布随机近邻嵌入)、关联规则。——scikit-learn包深度学习和神经网络:pytorch包。R机器学习书中的分类方法:监督式学习:回归、分类、混合。回归就是线性回归,分类就是逻辑回归,监督聚类学习,混合就包括了决策树和随机森林,神经网络,支持向量。——caret包原创 2021-05-01 15:35:39 · 217 阅读 · 0 评论