Day03 为实战环节啦,又学习了一下,大概知道求解系数向量θ的原理了,其实也是作出损失函数(评价函数),使其最小化,从而找到最合适的θ向量的数值。没有闭式解,还是要用梯度下降法,在库函数里面设置参数(求解方式)就好了。有时间再来详细更新一下。
代码比较多,由于时间原因,没有完全在jupyter notebook上手敲复现,在DSW页面上实现了。看懂了源码,内容很多,就不贴图了。
这里以这个鸢尾花的例子说明一下“逻辑回归”的算法流程吧。
- Step1:库函数导入
- Step2:数据读取/载入
- Step3:利用训练集数据训练出逻辑回归模型
- Step4:将新数据(测试集)代入得到的模型中进行进行预测
- Step5:评价模型指标(包括精准率、召回率、ROC曲线与AUC指标等)
当然,逻辑回归不仅可以做二分类任务,还可以做三分类甚至更高维的分类任务。