吴恩达机器学习笔记(二)

1 线性代数回顾

1.1 矩阵和向量

1、矩阵:由m×n{m\times n}m×n个数组成的m行n列的数矩形阵表。

矩阵A=[1402191137182194914371471448]A = \left[ \begin{array} { c c } { 1402 } & { 191 } \\ { 1371 } & { 821 } \\ { 949 } & { 1437 } \\ { 147 } & { 1448 } \end{array} \right]A=1402137194914719182114371448是一个4行2列的矩阵,可以表示为R4×2\mathbb{R} ^ { 4 \times 2 }R4×2,矩阵的维数为m×n{m\times n}m×nAijA _ { i j }Aij代表矩阵的第iii行第jjj列的元素。

在这里插入图片描述

在这里插入图片描述

2、向量:向量是一种特殊的矩阵 ,在这里的向量默认为列向量。y=[460232315178]y = \left[ \begin{array} { c } { 460 } \\ { 232 } \\ { 315 } \\ { 178 } \end{array} \right]y=460232315178为4维列向量(4×1)(4\times 1)(4×1)

1.2 矩阵加法和矩阵与标量的乘法

1、矩阵的加法:矩阵相加,要求行数跟列数都相同,矩阵之间对应位置元素相加。

[abcd]+[wxyz]=[a+wb+xc+yd+z]\left[ \begin{array} { l l } { a } & { b } \\ { c } & { d } \end{array} \right] + \left[ \begin{array} { l l } { w } & { x } \\ { y } & { z } \end{array} \right] = \left[ \begin{array} { l l } { a + w } & { b + x } \\ { c + y } & { d + z } \end{array} \right][acbd]+[wyxz]=[a+wc+yb+xd+z]

例:[102531]+[4052501]=[50541032]\left[ \begin{array} { l l } { 1 } & { 0 } \\ { 2 } & { 5 } \\ { 3 } & { 1 } \end{array} \right] + \left[ \begin{array} { l l } { 4 } & { 05 } \\ { 2 } & { 5 } \\ { 0 } & { 1 } \end{array} \right] = \left[ \begin{array} { c c } { 5 } & { 05 } \\ { 4 } & { 10 } \\ { 3 } & { 2 } \end{array} \right]123051+4200551=54305102

在这里插入图片描述

2、矩阵与标量的乘法:矩阵中每个元素都与标量相乘。

[abcd]∗x=[a∗xb∗xc∗xd∗x]\left[ \begin{array} { l l } { a } & { b } \\ { c } & { d } \end{array} \right] * x = \left[ \begin{array} { l l } { a * x } & { b * x } \\ { c * x } & { d * x } \end{array} \right][acbd]x=[axcxbxdx]

例:3×[102531]=[3061593]=[102531]×33 \times \left[ \begin{array} { l l } { 1 } & { 0 } \\ { 2 } & { 5 } \\ { 3 } & { 1 } \end{array} \right] = \left[ \begin{array} { l l } { 3 } & { 0 } \\ { 6 } & { 15 } \\ { 9 } & { 3 } \end{array} \right] = \left[ \begin{array} { c c } { 1 } & { 0 } \\ { 2 } & { 5 } \\ { 3 } & { 1 } \end{array} \right] \times 33×123051=3690153=123051×3

在这里插入图片描述

解析:题中所有元素都乘2便得到正确结果。

3、组合算法:按照顺序从左到右计算。

在这里插入图片描述

解析:先计算[467]/2\left[ \begin{array} { l } { 4 } \\ { 6 } \\ { 7 } \end{array} \right] / 2467/2,得到[233.5]\left[ \begin{array} { l } { 2 } \\ { 3 } \\ { 3.5 } \end{array} \right]233.5,然后计算3[210]3\left[ \begin{array} { l } { 2 } \\ { 1 } \\ { 0 } \end{array} \right]3210,得到[630]\left[ \begin{array} { l } { 6 } \\ { 3 } \\ { 0 } \end{array} \right]630,两者相减得到第三个选项。

1.3 矩阵和向量相乘

矩阵和向量相乘:后者的行数要等于前者的列数,也就是一个m×nm\times nm×n的矩阵乘n×1n\times 1n×1的向量,得到的结果是一个m×1m\times 1m×1的向量。

[abcdef]∗[xy]=[a∗x+b∗yc∗x+d∗ye∗x+f∗y]\left[ \begin{array} { l l } { a } & { b } \\ { c } & { d } \\ { e } & { f } \end{array} \right] * \left[ \begin{array} { l } { x } \\ { y } \end{array} \right] = \left[ \begin{array} { c } { a * x + b * y } \\ { c * x + d * y } \\ { e * x + f * y } \end{array} \right]acebdf[xy]=ax+bycx+dyex+fy

在这里插入图片描述

解析:矩阵是3×43\times 43×4的矩阵,向量是4×14\times 14×1的维度,两者相乘得到3×13\times 13×1的新矩阵。

在这里插入图片描述

解析:[103215312]×[162]=[1×1+0×6+3×22×1+1×6+5×23×1+1×6+2×2]=[71813]\left[ \begin{array} { l l l } { 1 } & { 0 } & { 3 } \\ { 2 } & { 1 } & { 5 } \\ { 3 } & { 1 } & { 2 } \end{array} \right] \times \left[ \begin{array} { l } { 1 } \\ { 6 } \\ { 2 } \end{array} \right]=\left[ \begin{array} { l l l } { 1\times 1+0\times 6+3\times 2 } \\ { 2\times 1+1\times 6+5 \times 2} \\ { 3\times 1+1\times 6+2 \times 2 } \end{array} \right] =\left[ \begin{array} { l } { 7 } \\ { 18 } \\ { 13 } \end{array} \right]123011352×162=1×1+0×6+3×22×1+1×6+5×23×1+1×6+2×2=71813

1.4 矩阵相乘

两个矩阵相乘:前一个矩阵的列数必须跟后一个矩阵的行数相同才能进行矩阵之间的乘法。也就是一个m×nm\times nm×n的矩阵乘n×kn\times kn×k的向量,得到的结果是一个m×km\times km×k的向量。

[abcdef]∗[wxyz]=[a∗w+b∗ya∗x+b∗zc∗w+d∗yc∗x+d∗ze∗w+f∗ye∗x+f∗z]\left[ \begin{array} { l l } { a } & { b } \\ { c } & { d } \\ { e } & { f } \end{array} \right] * \left[ \begin{array} { c c } { w } & { x } \\ { y } & { z } \end{array} \right] = \left[ \begin{array} { c c } { a * w + b * y } & { a * x + b * z } \\ { c * w + d * y } & { c * x + d * z } \\ { e * w + f * y } & { e * x + f * z } \end{array} \right]acebdf[wyxz]=aw+bycw+dyew+fyax+bzcx+dzex+fz

在这里插入图片描述

解析:[132405][1023]=[1×1+3×21×0+3×32×1+4×22×0+4×30×1+5×20×0+5×3]=[7910121015]\left[ \begin{array} { l l } { 1 } & { 3 } \\ { 2 } & { 4 } \\ { 0 } & { 5 } \end{array} \right] \left[ \begin{array} { l l } { 1 } & { 0 } \\ { 2 } & { 3 } \end{array} \right] =\left[ \begin{array} { l l l } { 1\times 1+3\times 2 } &{1\times 0+3\times 3} \\ { 2\times 1+4\times 2 } &{2\times 0+4\times 3} \\ { 0\times 1+5\times 2 } &{0\times 0+5\times 3}\end{array} \right] = \left[ \begin{array} { l l } { 7 } & { 9 } \\ { 10 } & { 12 } \\ { 10 } & { 15 } \end{array} \right]120345[1203]=1×1+3×22×1+4×20×1+5×21×0+3×32×0+4×30×0+5×3=7101091215

1.5 矩阵乘法的性质

1、矩阵乘法的性质:

  1. 矩阵的乘法不满足交换律:A×B≠B×AA \times B \neq B \times AA×B̸=B×A
  2. 矩阵的乘法满足结合律:A×(B×C)=(A×B)×CA \times ( B \times C ) = ( A \times B ) \times CA×(B×C)=(A×B)×C

2、单位矩阵:除对角线外其余元素都为0,且从左上角到右下角的对角线元素均为1的方阵。通常用IIIEEE表示,In×nI _ { n \times n }In×n表示矩阵为n×nn\times nn×n的单位矩阵。例如[100010001]\left[ \begin{array} { l l l } { 1 } & { 0 } & { 0 } \\ { 0 } & { 1 } & { 0 } \\ { 0 } & { 0 } & { 1 } \end{array} \right]1000100013×33\times 33×3的单位矩阵。

单位矩阵在矩阵乘法中同平常数的乘法的1,对于单位矩阵,有AI=IA=AA I = I A = AAI=IA=A

在这里插入图片描述

解析:单位矩阵乘矩阵的结果为该矩阵本身。

1.6 矩阵的逆和转置

1、矩阵的逆:如果一个矩阵AAAm×mm\times mm×m的方阵且有逆矩阵,则有AA−1=A−1A=IA A ^ { - 1 } = A ^ { - 1 } A = IAA1=A1A=IA−1A ^ { - 1 }A1被记为矩阵的逆。

2、矩阵的转置:已知AAAm×nm\times nm×n阶矩阵,将矩阵AAAA(i,j)A(i,j)A(i,j)元素的值跟A(j,i)A(j,i)A(j,i)元素的值对调,形成的新的矩阵BBB称为矩阵AAA的转置,记作ATA ^ { T }AT

A=[abcdef],AT=[acebdf]A = \left[ \begin{array} { l l } { a } & { b } \\ { c } & { d } \\ { e } & { f } \end{array} \right],A ^ { T } = \left[ \begin{array} { l l l } { a } & { c } & { e } \\ { b } & { d } & { f } \end{array} \right]A=acebdf,AT=[abcdef]

在这里插入图片描述

3、矩阵转置的性质:

(A±B)T=AT±BT( A \pm B ) ^ { T } = A ^ { T } \pm B ^ { T }(A±B)T=AT±BT

(A×B)T=BT×AT( A \times B ) ^ { T } = B ^ { T } \times A ^ { T }(A×B)T=BT×AT

(AT)T=A\left( A ^ { T } \right) ^ { T } = A(AT)T=A

(KA)T=KAT( K A ) ^ { T } = K A ^ { T }(KA)T=KAT

2 多变量线性回归

2.1 多维特征

前面学习了单个特征的模型,在实际中,更多的是有多个特征的一些数据,我们要构建多个变量的模型,模型中的特征为(x1,x1,…,xn)\left( x _ { 1 } , x _ { 1 } , \ldots , x _ { n } \right)(x1,x1,,xn)

在这里插入图片描述

上面图片中圈出来的一行为一个样本的一组特征值,添加了多个特征后,引进一些新的标注:

xj(i)= value of feature j in the ith training example x(i)= the input (features) of the ith training example m= the number of training examples n= the number of features \begin{aligned} x _ { j } ^ { ( i ) } & = \text { value of feature } j \text { in the } i ^ { t h } \text { training example } \\ x ^ { ( i ) } & = \text { the input (features) of the } i ^ { t h } \text { training example } \\ m & = \text { the number of training examples } \\ n & = \text { the number of features } \end{aligned}xj(i)x(i)mn= value of feature j in the ith training example = the input (features) of the ith training example = the number of training examples = the number of features 

xj(i)x _ { j } ^ { ( i ) }xj(i)表示第iii个样本的第jjj个特征的值,比如上图中x2(2)=3,x3(2)=2x _ { 2 } ^ { ( 2 ) } = 3 , x _ { 3 } ^ { ( 2 ) } = 2x2(2)=3,x3(2)=2

在这里插入图片描述

解析:x1(4)x _ { 1 } ^ { ( 4 ) }x1(4)代表第4个样本的第1个特征。

支持多个变量的假设hhh我们定义为:hθ(x)=θ0+θ1x1+θ2x2+θ3x3+⋯+θnxnh _ { \theta } ( x ) = \theta _ { 0 } + \theta _ { 1 } x _ { 1 } + \theta _ { 2 } x _ { 2 } + \theta _ { 3 } x _ { 3 } + \cdots + \theta _ { n } x _ { n }hθ(x)=θ0+θ1x1+θ2x2+θ3x3++θnxn

原来定义的假设函数hhhn+1n+1n+1个参数和nnn个变量,为了计算方便,引进x0=1x _ { 0 } = 1x0=1,则公式转换为hθ(x)=θ0x0+θ1x1+θ2x2+…+θnxnh _ { \theta } ( x ) = \theta _ { 0 } x _ { 0 } + \theta _ { 1 } x _ { 1 } + \theta _ { 2 } x _ { 2 } + \ldots + \theta _ { n } x _ { n }hθ(x)=θ0x0+θ1x1+θ2x2++θnxn,根据矩阵乘法,假设函数hhh可以表示为:

hθ(x)=[θ0θ1…θn][x0x1⋮xn]=θTxh _ { \theta } ( x ) = \left[ \begin{array} { c c c c } { \theta _ { 0 } } & { \theta _ { 1 } } & { \dots } & { \theta _ { n } } \end{array} \right] \left[ \begin{array} { c } { x _ { 0 } } \\ { x _ { 1 } } \\ { \vdots } \\ { x _ { n } } \end{array} \right] = \theta ^ { T } xhθ(x)=[θ0θ1θn]x0x1xn=θTx

上面也称为假设函数的矢量化。

2.2 多变量梯度下降

跟单变量梯度下降相似,多变量梯度下降同样构建一个代价函数J(θ0,θ1,…,θn)=12m∑i=1m(hθ(x(i))−y(i))2J \left( \theta _ { 0 } , \theta _ { 1 } , \ldots , \theta _ { n } \right) = \frac { 1 } { 2 m } \sum _ { i = 1 } ^ { m } \left( h _ { \theta } \left( x ^ { ( i ) } \right) - y ^ { ( i ) } \right) ^ { 2 }J(θ0,θ1,,θn)=2m1i=1m(hθ(x(i))y(i))2,其中hθ(x)=θ0x0+θ1x1+θ2x2+…+θnxnh _ { \theta } ( x ) = \theta _ { 0 } x _ { 0 } + \theta _ { 1 } x _ { 1 } + \theta _ { 2 } x _ { 2 } + \ldots + \theta _ { n } x _ { n }hθ(x)=θ0x0+θ1x1+θ2x2++θnxn,目标同样是找到使得代价函数的值最小的参数组合:

Repeat {\{{
θj:=θj−α∂∂θjJ(θ0,…,θn)\theta _ { j } : = \theta _ { j } - \alpha \frac { \partial } { \partial \theta _ { j } } J \left( \theta _ { 0 } , \ldots , \theta _ { n } \right)θj:=θjαθjJ(θ0,,θn)
(simultaneously update for every j=0,…,n)j = 0 , \ldots , n )j=0,,n)

}\}}

在这里插入图片描述

根据之前的单变量梯度下降,通过多次迭代计算代价函数直至收敛,可得:

 Repeat {θj:=θj−α1m∑i=1m((hθ(x(i))−y(i))⋅xj(i))( simultaneously update θj for j=0,1,…,n)}\begin{array} { l } { \text { Repeat } \{ } \\ { \theta _ { j } : = \theta _ { j } - \alpha \frac { 1 } { m } \sum _ { i = 1 } ^ { m } \left( \left( h _ { \theta } \left( x ^ { ( i ) } \right) - y ^ { ( i ) } \right) \cdot x _ { j } ^ { ( i ) } \right) } \\ { \left( \text { simultaneously update } \theta _ { j } \right. } \\ { \text { for } j = 0,1 , \ldots , n ) } \\ { \} } \end{array} Repeat {θj:=θjαm1i=1m((hθ(x(i))y(i))xj(i))( simultaneously update θj for j=0,1,,n)}

在这里插入图片描述

在上图,x0(i)=1x _ { 0 } ^ { ( i ) }=1x0(i)=1。通过选取一系列的参数值,计算预测结果后,再给出新的一组参数,不断循环直至收敛,得到最终结果。

2.3 梯度下降之特征缩放

面对多维特征的问题时,特征之间尺度范围太大会导致θ\thetaθ下降速度缓慢,而且如果变量非常不均匀,可能会一直振荡却达不到有效的最小值。为了防止这个问题,我们可以通过使每个输入值在大致相同的范围内来加速梯度下降,理想的情况是:−1≤x(i)≤1- 1 \leq x ( i ) \leq 11x(i)1或者−0.5≤x(i)≤0.5- 0.5 \leq x _ { ( i ) } \leq 0.50.5x(i)0.5

我们可以通过两种方法来达到让每个输入值都在大致相同的范围:特征缩放和均值归一化。

特征缩放:输入值除以输入变量的范围(即最大值减去最小值),经过特征缩放后的变量的范围为−1≤x(i)≤1- 1 \leq x ( i ) \leq 11x(i)1,特征缩放的公式为xi:=xisix _ { i } : = \frac { x _ { i }} { s _ { i } }xi:=sixi,其中Si=xmax−xmin\mathcal { S } _ { i }=x_{max}-x_{min}Si=xmaxxmin或者标准差。

均值归一化:输入值减去输入变量的平均值后除以输入变量的标准差,经过均值归一化后变量的范围为−0.5≤x(i)≤0.5- 0.5 \leq x _ { ( i ) } \leq 0.50.5x(i)0.5,均值归一化的公式为xi:=xi−μisix _ { i } : = \frac { x _ { i } - \mu _ { i } } { s _ { i } }xi:=sixiμi,其中μi\mu _ { i }μi是输入变量的平均值,Si\mathcal { S } _ { i }Si是输入变量的方差或者输入的范围。

要注意的是,特征缩放不需要在x0x_0x0使用,因为x0=1x_0=1x0=1

在这里插入图片描述

解析:题中给出了平均值为38,年龄范围为30-50,因此年龄的范围为20,根据公式xi:=xi−μisix _ { i } : = \frac { x _ { i } - \mu _ { i } } { s _ { i } }xi:=sixiμi可以得到选项4是正确的。

2.4 梯度下降之学习率

梯度下降算法收敛所需要的迭代次数根据模型的不同而不同,我们不能提前预知,我们可以绘制迭代次数和代价函数的图表来观测算法在何时趋于收敛。

在这里插入图片描述

也有一些自动测试是否收敛的方法,例如将代价函数的变化值与某个阀值(例如 0.001)进行比较,但通常看上面的图表更好。

在这里插入图片描述

梯度下降算法的每次迭代受到学习率的影响,如果学习率 α\alphaα过小,则达到收敛所需的迭代次数会非常高;如果学习率 α\alphaα过大,每次迭代可能不会减小代价函数,可能会越过局部最小值导致无法收敛 。

在这里插入图片描述

2.5 特征和多项式回归

我们在确定数学模型的时候可以通过几种不同的方式改进我们的特征和假设函数的形式,比如取x1⋅x2x _ { 1 } \cdot x _ { 2 }x1x2x1x _ { 1 }x1x2x _ { 2 }x2组合成新的特征x3x _ { 3 }x3

比如下面的例子,在房屋预测问题中,我们将临街宽度和深度相乘得到房屋的占地面积,这是一个新的变量。

在这里插入图片描述

但是线性回归并不适用于所有数据,有时我们需要曲线来适应我们的数据 ,比如用变量的平方或者变量的三次方来创建模型,也就是多项式回归模型。

在这里插入图片描述

可以看到,有些曲线的拟合效果比线性模型的要好,在决定用什么模型时,需要观察数据。另外,也可以令x2=x22,x3=x33x _ { 2 } = x _ { 2 } ^ { 2 } , x _ { 3 } = x _ { 3 } ^ { 3 }x2=x22,x3=x33,这样模型就转化为线性模型了。

有一点要注意的是,如果采用多项式回归模型,可以根据上图看到数据范围更加庞大,所以用多项式回归模型的时候,特征缩放是很有必要的。

在这里插入图片描述

2.6 正规方程

前面的梯度下降给出了一种最小化代价函数的方法,而正规方程是第二种最小化代价函数的方法,不同于梯度下降算法的迭代算法,正规方程是通过将代价函数J(θ)J ( \theta )J(θ)对我们要求的参数θ\thetaθ求导,并将它们设置为零后求得参数值。在这里XXX为训练样本特征矩阵,yyy为训练集结果向量。

根据J(θ)=12m∑i=1m(hθ(x(i))−y(i))2J ( \theta ) = \frac { 1 } { 2 m } \sum _ { i = 1 } ^ { m } \left( h _ { \theta } \left( x ^ { ( i ) } \right) - y ^ { ( i ) } \right) ^ { 2 }J(θ)=2m1i=1m(hθ(x(i))y(i))2hθ(x)=θTX=Xθh _ { \theta } ( x ) = \theta ^ { T } X= X\thetahθ(x)=θTX=Xθ,我们对θ\thetaθ进行求导:

∂∂θjJ(θj)=1mXT(Xθ−y)=0\frac { \partial } { \partial \theta _ { j } } J \left( \theta _ { j } \right) =\frac { 1 } { m }X^T\left(X\theta -y\right)=0θjJ(θj)=m1XT(Xθy)=0

Xθ−y=0X\theta -y=0Xθy=0

Xθ=yX\theta=yXθ=y

XTXθ=XTyX^TX\theta=X^TyXTXθ=XTy

(XTX)−1XTXθ=(XTX)−1XTy(X^TX)^{-1}X^TX\theta=(X^TX)^{-1}X^Ty(XTX)1XTXθ=(XTX)1XTy

θ=(XTX)−1XTy\theta = \left( X ^ { T } X \right) ^ { - 1 } X ^ { T } yθ=(XTX)1XTy

在这里插入图片描述

θ=([11112104141615348525332122145403036]×[12104514511416324011534323018522136])−1×[11112104141615348525332122145403036]×[460232315178]\theta=\left( \left[ \begin{array} { c c c c } { 1 } & { 1 } & { 1 } & { 1 } \\ { 2104 } & { 1416 } & { 1534 } & { 852 } \\ { 5 } & { 3 } & { 3 } & { 2 } \\ { 1 } & { 2 } & { 2 } & { 1 } \\ { 45 } & { 40 } & { 30 } & { 36 } \end{array} \right] \times \left[ \begin{array} { c c c c c } { 1 } & { 2104 } & { 5 } & { 1 } & { 45 } \\ { 1 } & { 1416 } & { 3 } & { 2 } & { 40 } \\ { 1 } & { 1534 } & { 3 } & { 2 } & { 30 } \\ { 1 } & { 852 } & { 2 } & { 1 } & { 36 } \end{array} \right] \right) ^ { - 1 }\times \left[ \begin{array} { c c c c } { 1 } & { 1 } & { 1 } & { 1 } \\ { 2104 } & { 1416 } & { 1534 } & { 852 } \\ { 5 } & { 3 } & { 3 } & { 2 } \\ { 1 } & { 2 } & { 2 } & { 1 } \\ { 45 } & { 40 } & { 30 } & { 36 } \end{array} \right] \times \left[ \begin{array} { c } { 460 } \\ { 232 } \\ { 315 } \\ { 178 } \end{array} \right]θ=12104514511416324011534323018522136×111121041416153485253321221454030361×12104514511416324011534323018522136×460232315178

在这里插入图片描述

需要注意的是,对于那些不可逆的矩阵(通常是因为特征之间不独立,如同时包含英尺为单位的尺寸和米为单位的尺寸两个特征,也有可能是特征数量大于训练集的数量),正规方程方法是不能用的。

正规方程相比较梯度下降算法,一个很大的优点是它不需要进行特征缩放。

正规方程方法和梯度下降算法的对比如下:

梯度下降正规方程
需要选择学习率α\alphaα不需要选择学习率α\alphaα
需要多次迭代一次运算得到
当特征数量nnn比较大的时候也较好的适用需要计算(XTX)−1\left( X ^ { T } X \right) ^ { - 1 }(XTX)1,如果特征数量nnn较大时,运算代价比较大,因为矩阵逆的计算时间复杂度为O(n3)O \left( n ^ { 3 } \right)O(n3)
适用于各种类型的模型只适用于线性模型,不适合逻辑回归模型等其他模型

只要特征变量的数目并不大,标准方程是一个很好的计算参数θ\thetaθ的替代方法。具体地说,只要特征变量数量小于一万,通常使用标准方程法,而不使用梯度下降法 。

2.7 正规方程和不可逆性

在上面,讲了正规方程以及参数θ\thetaθ的求解,解得θ=(XTX)−1XTy\theta = \left( X ^ { T } X \right) ^ { - 1 } X ^ { T } yθ=(XTX)1XTy,在这里需要计算(XTX)−1\left( X ^ { T } X \right) ^ { - 1 }(XTX)1,前面我们讲过了矩阵的逆,也知道了矩阵的逆不一定存在,在这里,矩阵不可逆的常见原因有两个:

  1. 存在冗余特征,特征之间有密切的练习,比如线性相关。
  2. 特征太多,比如m≤nm \leq nmn

上述问题的解决方案包括删除与另一个线性相关的特征或在特征太多时删除一个或多个特征。

内容概要:该研究通过在黑龙江省某示范村进行24小时实地测试,比较了燃煤炉具与自动/手动进料生物质炉具的污染物排放特征。结果显示,生物质炉具相比燃煤炉具显著降低了PM2.5、CO和SO2的排放(自动进料分别降低41.2%、54.3%、40.0%;手动进料降低35.3%、22.1%、20.0%),但NOx排放未降低甚至有所增加。研究还发现,经济性和便利性是影响生物质炉具推广的重要因素。该研究不仅提供了实际排放数据支持,还通过Python代码详细复现了排放特征比较、减排效果计算和结果可视化,进一步探讨了燃料性质、动态排放特征、碳平衡计算以及政策建议。 适合人群:从事环境科学研究的学者、政府环保部门工作人员、能源政策制定者、关注农村能源转型的社会人士。 使用场景及目标:①评估生物质炉具在农村地区的推广潜力;②为政策制定者提供科学依据,优化补贴政策;③帮助研究人员深入了解生物质炉具的排放特征和技术改进方向;④为企业研发更高效的生物质炉具提供参考。 其他说明:该研究通过大量数据分析和模拟,揭示了生物质炉具在实际应用中的优点和挑战,特别是NOx排放增加的问题。研究还提出了多项具体的技术改进方向和政策建议,如优化进料方式、提高热效率、建设本地颗粒厂等,为生物质炉具的广泛推广提供了可行路径。此外,研究还开发了一个智能政策建议生成系统,可以根据不同地区的特征定制化生成政策建议,为农村能源转型提供了有力支持。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值