特征工程
“上面的多项式特征是根据它们与目标数据的匹配程度来选择的。考虑这个问题的另一种方法是,一旦我们创建了新特性,我们仍然在使用线性回归。鉴于此,最好的特征将是相对于目标的线性。这可以通过一个例子来更好地理解。”——吴恩达
简单理解,就是对X进行处理,使X与Y呈现的函数是线性的。
例子
x = np.arange(20)
y = x**2
X = np.c_[x, x**2, x**3]
X_feature = ['x', 'x^2', 'x^3']
fig, ax = plt.subplots(1, 3, figsize=(12, 3), sharey=True)
for i in range(len(ax)):
ax[i].scatter(X[:, i], y)
ax[i].set_xlabel(X_feature[i])
ax[0].set_ylabel("y")
plt.show()
如上图所示,对X所做的特征中, X 2 X^2 X2与Y呈线性关系,最符合对X进行特征工程的目的,可以称为一个好的特征工程。
参考资料
- 吴恩达机器学习
本文通过实例探讨如何通过特征工程提升线性模型的效果,以X的多项式特征为例,重点讲解如何选择与目标变量Y呈线性关系的特征。吴恩达的机器学习课程中强调,好的特征工程能确保模型的线性适用性。通过图形展示,X^2与y的关系明确体现了这一原则。

被折叠的 条评论
为什么被折叠?



