- 博客(19)
- 收藏
- 关注
原创 编程小白冲Kaggle每日打卡(17)--kaggle学堂:<机器学习简介>随机森林
决策树给你留下了一个艰难的决定。一棵有很多叶子的深树会被过度拟合,因为每一个预测都来自它叶子上少数房子的历史数据。但是,叶子很少的浅树表现不佳,因为它无法在原始数据中捕捉到尽可能多的区别。即使是当今最复杂的建模技术也面临着欠拟合和过拟合之间的紧张关系。但是,许多模型都有聪明的想法,可以带来更好的性能。我们将以随机森林为例。随机森林使用许多树,并通过对每个组成树的预测进行平均来进行预测。它通常比单个决策树具有更好的预测准确性,并且在默认参数下运行良好。
2025-02-28 08:34:41
923
原创 编程小白冲Kaggle每日打卡(16)--kaggle学堂:<机器学习简介>欠拟合与过拟合
本专栏旨在Kaggle官方课程的,让大家更方便地看懂。
2025-02-26 10:35:54
1149
原创 编程小白冲Kaggle每日打卡(15)--kaggle学堂:<机器学习简介>模型验证
你几乎要评估你构建的每一个模型。在大多数(但不是全部)应用中,模型质量的相关度量是预测准确性。换句话说,模型的预测是否会接近实际发生的情况。许多人在测量预测准确性时犯了一个巨大的错误。他们使用训练数据进行预测,并将这些预测与训练数据中的目标值进行比较。稍后,您将看到这种方法的问题以及如何解决它,但让我们先考虑一下如何做到这一点。您首先需要以一种易于理解的方式总结模型质量。如果你比较10000套房屋的预测和实际房屋价值,你可能会发现好的和坏的预测。浏览10000个预测值和实际值的列表是毫无意义的。
2025-02-26 10:23:52
1254
原创 编程小白冲Kaggle每日打卡(14)--kaggle学堂:<机器学习简介>你的第一个机器学习模型
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
2025-02-23 16:55:04
1070
原创 编程小白冲Kaggle每日打卡(13)--kaggle学堂:<机器学习简介>基础数据探索
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
2025-02-23 16:45:27
730
原创 编程小白冲Kaggle每日打卡(12)--kaggle学堂:<机器学习简介>模型如何工作
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
2025-02-21 19:28:39
738
原创 编程小白冲Kaggle每日打卡(11)--kaggle学堂:<Python>使用外部库
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
2025-02-20 16:49:41
1219
原创 编程小白冲Kaggle每日打卡(10)--kaggle学堂:<Python>字符串和字典
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
2025-02-20 08:49:27
1058
原创 编程小白冲Kaggle每日打卡(9)--kaggle学堂:<Python>循环和列表
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
2025-02-19 19:48:32
1034
原创 编程小白冲Kaggle每日打卡(7)--kaggle学堂:<Python>布尔型和条件形
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
2025-02-18 09:54:04
1162
原创 编程小白冲Kaggle每日打卡(6)--kaggle学堂:<Python>功能和获取帮助
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
2025-02-18 08:50:53
1242
原创 编程小白冲Kaggle每日打卡(5)--kaggle学堂:<Python>Hello,Python!
本专栏旨在Kaggle官方课程的汉化,让大家更方便地看懂。
2025-02-17 11:41:48
1205
原创 编程小白冲Kaggle每日打卡(1)--kaggle学堂:<编程简介>算数和变量+功能
根据我们计划如何使用这个新函数get_py_with_more_inputs(),它可能比原始函数get_py()更有用,因为它解决了更多的情况。然而,正如您所看到的,在所有函数之外定义的变量(如pay_parttime)都有一个全局范围,可以在任何地方访问。到目前为止,我们编写的代码很短,但当你编写了大量代码时,注释变得更加重要。下面的代码单元给出了与我们运行get_py(40)时相同的结果,因为hourly_wage设置为15,tax_braft设置为12%,这与我们设计get_py的方式一致。
2025-02-15 10:47:22
1093
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1