归一化方法(Normalization Method)

数据归一化问题是数据挖掘中特征向量表达时的重要问题,当不同的特征成列在一起的时候,由于特征本身表达方式的原因而导致在绝对数值上的小数据被大数据“吃掉”的情况,这个时候我们需要做的就是对抽取出来的features vector进行归一化处理,以保证每个特征被分类器平等对待。下面我描述几种常见的Normalization Method,并提供相应的Python实现(其实很简单):

1、(0,1)标准化:

这是最简单也是最容易想到的方法,通过遍历feature vector里的每一个数据,将Max和Min的记录下来,并通过Max-Min作为基数(即Min=0,Max=1)进行数据的归一化处理:


LaTex:{x}_{normalization}=\frac{x-Min}{Max-Min}

python实现:

[python]  view plain  copy
  1. def MaxMinNormalization(x,Max,Min):  
  2.     x = (x - Min) / (Max - Min);  
  3.     return x;  
找大小的方法直接用np.max()和np.min()就行了,尽量不要用python内建的max()和min(),除非你喜欢用List管理数字 偷笑

2、Z-score标准化:

这种方法给予原始数据的均值(mean)和标准差(standard deviation)进行数据的标准化。经过处理的数据符合标准正态分布,即均值为0,标准差为1,这里的关键在于复合标准正态分布,个人认为在一定程度上改变了特征的分布,关于使用经验上欢迎讨论,我对这种标准化不是非常地熟悉,转化函数为:


LaTex:{x}_{normalization}=\frac{x-\mu }{\sigma }

Python实现:

[python]  view plain  copy
  1. def Z_ScoreNormalization(x,mu,sigma):  
  2.     x = (x - mu) / sigma;  
  3.     return x;  
这里一样,mu(即均值)用np.average(),sigma(即标准差)用np.std()即可。

3、Sigmoid函数

Sigmoid函数是一个具有S形曲线的函数,是良好的阈值函数,在(0, 0.5)处中心对称,在(0, 0.5)附近有比较大的斜率,而当数据趋向于正无穷和负无穷的时候,映射出来的值就会无限趋向于1和0,是个人非常喜欢的“归一化方法”,之所以打引号是因为我觉得Sigmoid函数在阈值分割上也有很不错的表现,根据公式的改变,就可以改变分割阈值,这里作为归一化方法,我们只考虑(0, 0.5)作为分割阈值的点的情况:




LaTex:{x}_{normalization}=\frac{1}{1+{e}^{-x}}

Python实现:

[python]  view plain  copy
  1. def sigmoid(X,useStatus):  
  2.     if useStatus:  
  3.         return 1.0 / (1 + np.exp(-float(X)));  
  4.     else:  
  5.         return float(X);  
这里useStatus管理是否使用sigmoid的状态,方便调试使用。
在使用 `limma` 包进行差异表达分析时,数据归一化是一个关键步骤,旨在消除技术变异并使样本之间具有可比性。对于微阵列(microarray)数据,`limma` 提供了多种标准化方法以适应不同平台和实验设计的需求。 ### 常见的归一化方法 1. **Quantile Normalization** 分位数归一化是一种广泛使用的全局归一化方法,适用于单通道(如Affymetrix)或双通道(如两色阵列)数据。该方法假设所有样本的整体信号分布应相似,并通过调整每个样本的强度值使其分布一致来实现标准化。 在 `limma` 中,可以通过以下方式应用分位数归一化: ```r library(limma) normalized_data <- normalizeBetweenArrays(raw_data, method = "quantile") ``` 2. **Loess Normalization** Loess 归一化主要用于两色微阵列数据,用于校正染料效应(dye effect)。它基于 M-A 图中的局部回归(lowess smoothing),对每个点的 M 值进行平滑修正,以消除系统性偏差[^2]。 使用示例: ```r MA_normalized <- normalizeWithinArrays(RG, method = "loess") ``` 3. **Aquantile Normalization for Two-Color Arrays** 对于两色芯片,也可以使用 `normalizeAQua` 函数结合 R package `Aqua` 实现更高级的归一化策略,例如基于探针序列信息的归一化。 4. **VSN (Variance Stabilizing Normalization)** 虽然 VSN 更常用于 Illumina BeadArray 数据,但也可通过 `vsn` 包与 `limma` 结合使用,以稳定方差并减少高表达基因的异方差性问题。 5. **Robust Spline Normalization (RSN)** RSN 方法可用于 Affymetrix 数据,利用稳健样条拟合来校正背景噪声和非线性变化趋势。 ### 归一化流程建议 通常,归一化流程包括以下几个步骤: - **读取原始数据**:使用 `read.maimages` 或类似函数导入数据。 - **执行低级预处理**:例如背景校正(background correction)。 - **应用归一化方法**:根据数据类型选择合适的归一化策略。 - **可视化评估效果**:使用箱型图、MA 图或密度图检查归一化前后数据的一致性。 例如一个完整的流程可能如下: ```r library(limma) # 读取数据 RG <- read.maimages(files, source="agilent") # 背景校正 RG.bkg <- backgroundCorrect(RG, method="normexp", offset=16) # Loess 归一化 MA <- normalizeWithinArrays(RG.bkg, method="loess") # 绘制 MA 图查看归一化效果 plotMA(MA, array=1) ``` 在实际应用中,应根据数据来源、平台特性以及生物学目标选择最合适的归一化策略。此外,建议通过统计图形验证归一化是否成功,确保后续的差异表达分析结果可靠[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值