逻辑回归Logistic Regression(9.2)(解决非线性问题)

逻辑回归如何解决下面非线性类型的分类问题

x1/x2平方项前面加上系数就是椭圆,加上x1/x2项圆心的位置就可以在坐标任意位置。加上x的立方或更高次项后,就会得到更复杂的任意边界

在实际使用多项式逻辑回归中 degree C 正则化(penalty='L1','L2') 都是超参数需要用网格搜索来确定,最适合我们数据的参数

在实际使用逻辑回归中  C  正则化(penalty='L1','L2') 都是超参数需要用网格搜索来确定,最适合我们数据的参数

1在逻辑回归中使用多项式特征(不使用sklearn)

原数据分布:

不添加多项式项时,分类结果

添加多项式类(使用pipleine,多项回归里也是在线性回归中加Pipeline)degree=2

degree=20  (过拟合)

代码(自己编写)

from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from playML.LogisticRegression import LogisticRegression
#定义多项式逻辑回归
def PolynomialLogisticRegression(degree):
    return Pipeline([
        ('poly', PolynomialFeatures(degree=degree)),
        ('std_scaler', StandardScaler()),
        ('log_reg', LogisticRegression()) 
        #此处的LogisticRegression()是自己写的,不是sklearn中的
    ])

poly_log_reg = PolynomialLogisticRegression(degree=2)
poly_log_reg.fit(X, y)

#绘制决策边界
plot_decision_boundary(poly_log_reg, axis=[-4, 4, -4, 4])
plt.scatter(X[y==0,0], X[y==0,1])
plt.scatter(X[y==1,0], X[y==1,1])
plt.show()

2逻辑回归中使用正则化(sklearn)

2.1上节正则化表示方式

2.2新的表示正则化的方式,相当于旧方式的α变为1/α(sklearn对逻辑回归正则化,SVM中,一般采用这种)

这就意味着当使用新的方式时,不得不使用正则化,因为正则化前面的系数不可能为0,要想让正则化不重要的化只能让C非常大

如果C越大在优化(最小化)损失函数时越会集中火力将J(θ)相应的减小到最小,但是当C非常小时,此时L1 L2正则化项就会比较重要,优化时损失函数时就会让L1L2正则化相应的小,也即限制正则化中的θ尽可能的小。

3sklearn中的逻辑回归

  1.生成边界为抛物线形状的分类数据

import numpy as np
import matplotlib.pyplot as plt

np.random.seed(666)
X = np.random.normal(0, 1, size=(200, 2))
y = np.array((X[:,0]**2+X[:,1])<1.5, dtype='int')
for _ in range(20):
    y[np.random.randint(200)] = 1   #随机选20个强制将类型变为1,表示添加噪音

#绘制数据
plt.scatter(X[y==0,0], X[y==0,1])
plt.scatter(X[y==1,0], X[y==1,1])
plt.show()

 

橙色在抛物线下方

2.调用sklearn中的逻辑回归

from sklearn.linear_model import LogisticRegression

log_reg = LogisticRegression()
log_reg.fit(X_train, y_train)  
'''
返回结果LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,
          intercept_scaling=1, max_iter=100, multi_class='ovr', n_jobs=1,
          penalty='l2', random_state=None, solver='liblinear', tol=0.0001,
          verbose=0, warm_start=False)里面的系数各代表什么?
由penalty='l2':sklearn中的逻辑回归自动封装了正则化,且默认为L2正则
'''
log_reg.score(X_train, y_train) #结果:0.79
log_reg.score(X_test, y_test)   #结果:0.86

3.绘制决策边界

def plot_decision_boundary(model, axis):
    
    x0, x1 = np.meshgrid(
        np.linspace(axis[0], axis[1], int((axis[1]-axis[0])*100)).reshape(-1, 1),
        np.linspace(axis[2], axis[3], int((axis[3]-axis[2])*100)).reshape(-1, 1),
    )
    X_new = np.c_[x0.ravel(), x1.ravel()]

    y_predict = model.predict(X_new)
    zz = y_predict.reshape(x0.shape)

    from matplotlib.colors import ListedColormap
    custom_cmap = ListedColormap(['#EF9A9A','#FFF59D','#90CAF9'])
    
    plt.contourf(x0, x1, zz, linewidth=5, cmap=custom_cmap)

plot_decision_boundary(log_reg, axis=[-4, 4, -4, 4])
plt.scatter(X[y==0,0], X[y==0,1])
plt.scatter(X[y==1,0], X[y==1,1])
plt.show()

4sklearn中多项式逻辑回归

1.degree=2时

from sklearn.linear_model import LogisticRegression
from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler

def PolynomialLogisticRegression(degree):
    return Pipeline([
        ('poly', PolynomialFeatures(degree=degree)),
        ('std_scaler', StandardScaler()),
        ('log_reg', LogisticRegression())
    ])

poly_log_reg = PolynomialLogisticRegression(degree=2)
poly_log_reg.fit(X_train, y_train)

poly_log_reg.score(X_train, y_train) #结果:0.9133
poly_log_reg.score(X_test, y_test)   #结果:0.940

绘制决策边界

plot_decision_boundary(poly_log_reg, axis=[-4, 4, -4, 4])
plt.scatter(X[y==0,0], X[y==0,1])
plt.scatter(X[y==1,0], X[y==1,1])
plt.show()

2.degree=20时  (训练集得分: 0.940测试集得分:0.920)

3.同时传入degree=20 和C=0.1(表示让模型正则化部分起更重要的作用,前面部分分类准确度损失函数起的作用小些)

def PolynomialLogisticRegression(degree, C):
    return Pipeline([
        ('poly', PolynomialFeatures(degree=degree)),
        ('std_scaler', StandardScaler()),
        ('log_reg', LogisticRegression(C=C))
    ])

poly_log_reg3 = PolynomialLogisticRegression(degree=20, C=0.1)
poly_log_reg3.fit(X_train, y_train)

poly_log_reg3.score(X_train, y_train) #结果0.853
poly_log_reg3.score(X_test, y_test)   #结果0.920

绘图

plot_decision_boundary(poly_log_reg3, axis=[-4, 4, -4, 4])
plt.scatter(X[y==0,0], X[y==0,1])
plt.scatter(X[y==1,0], X[y==1,1])
plt.show()

4..同时传入degree=20 和C=0.1和L1正则项

def PolynomialLogisticRegression(degree, C, penalty='l2'):
    return Pipeline([
        ('poly', PolynomialFeatures(degree=degree)),
        ('std_scaler', StandardScaler()),
        ('log_reg', LogisticRegression(C=C, penalty=penalty))
    ])

poly_log_reg4 = PolynomialLogisticRegression(degree=20, C=0.1, penalty='l1')
poly_log_reg4.fit(X_train, y_train)

poly_log_reg4.score(X_train, y_train)  #0.827
poly_log_reg4.score(X_test, y_test)    #0.900
# 由于数据比较简单加入正则得分情况不增反降在次主要看决策边界的绘制情况。

#绘制决策边界 同上

这个形状已经非常接近原始生成数据相应的形状了。再一次展示了对于使用L1这种正则项,它能够使非常多的多项式(此处为20阶)前面的系数为0。使得整个决策边界不会弯弯曲曲。不会像L2那样产生奇怪的两部分边界

在实际使用多项式逻辑回归中 degree C 正则化(penalty='L1','L2') 都是超参数需要用网格搜索来确定,最适合我们数据的参数

在实际使用逻辑回归中  C 正则化(penalty='L1','L2') 都是超参数需要用网格搜索来确定,最适合我们数据的参数

资源下载链接为: https://pan.quark.cn/s/d37d4dbee12c A:计算机视觉,作为人工智能领域的关键分支,致力于赋予计算机系统 “看懂” 世界的能力,从图像、视频等视觉数据中提取有用信息并据此决策。 其发展历程颇为漫长。早期图像处理技术为其奠基,后续逐步探索三维信息提取,与人工智能结合,又经历数学理论深化、机器学习兴起,直至当下深度学习引领浪潮。如今,图像生成和合成技术不断发展,让计算机视觉更深入人们的日常生活。 计算机视觉综合了图像处理、机器学习、模式识别和深度学习等技术。深度学习兴起后,卷积神经网络成为核心工具,能自动提炼复杂图像特征。它的工作流程,首先是图像获取,用相机等设备捕获视觉信息并数字化;接着进行预处理,通过滤波、去噪等操作提升图像质量;然后进入关键的特征提取和描述环节,提炼图像关键信息;之后利用这些信息训练模型,学习视觉模式和规律;最终用于模式识别、分类、对象检测等实际应用。 在实际应用中,计算机视觉用途极为广泛。在安防领域,能进行人脸识别、目标跟踪,保障公共安全;在自动驾驶领域,帮助车辆识别道路、行人、交通标志,实现安全行驶;在医疗领域,辅助医生分析医学影像,进行疾病诊断;在工业领域,用于产品质量检测、机器人操作引导等。 不过,计算机视觉发展也面临挑战。比如图像生成技术带来深度伪造风险,虚假图像和视频可能误导大众、扰乱秩序。为此,各界积极研究检测技术,以应对这一问题。随着技术持续进步,计算机视觉有望在更多领域发挥更大作用,进一步改变人们的生活和工作方式
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值