深度学习
文章平均质量分 81
编程开发者
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
9.sklearn-K-means算法
1 )一种典型的无监督学习算法, 2 )主要用于将相似的样本自动归到一个类别中 3 )计算样本和样本之间的相似性,一般使用欧式距离。原创 2024-09-22 16:16:03 · 930 阅读 · 0 评论 -
8.sklearn-模型保存
相关环境配置看此篇文章,本专栏深度学习相关的版本和配置,均按照此篇文章进行安装。可以和上边保存模型的运行结果做对比,对比的结果是一样的,说明保存模型参数成功。原创 2024-09-19 19:21:36 · 967 阅读 · 0 评论 -
7.sklearn-逻辑回归、精确率和召回率、ROC曲线和AUC指标
Anaconda-创建虚拟环境的手把手教程相关环境配置看此篇文章,本专栏深度学习相关的版本和配置,均按照此篇文章进行安装。1.逻辑回归1.1 API介绍1.3 运行结果可以看出准确率:98.24%2.6 运行结果关注的是阳性的召回率:0.993.2 ROC曲线注:ROC的面积就是AUC的指标3.4 AUC计算API注意:y_true的值要求必须是0或1,如果你的数据不符合要求可以使用3.6 运行结果可以看出auc = 0.97 接近1,说明这个模型的效果还不错原创 2024-09-13 20:00:56 · 1123 阅读 · 0 评论 -
6.sklearn-线性回归、岭回归、欠拟合和过拟合
Anaconda-创建虚拟环境的手把手教程相关环境配置看此篇文章,本专栏深度学习相关的版本和配置,均按照此篇文章进行安装。1.线性回归1.1 正规方程正规方程函数介绍:运行结果运行结果1.数据量小于10万条时,不建议使用梯度下降;2.正规方程(LinearRegression())不能解决拟合问题,使用的比较少;3.SGD – 随机梯度下降(Stochastic gradient descent)是一个优化方法。它在一次迭代时只考虑一个训练样本。优点:高效、容易实现缺点:SGD需要许原创 2024-09-08 16:31:28 · 758 阅读 · 0 评论 -
5.sklearn-朴素贝叶斯算法、决策树、随机森林
能够有效地运行在大数据集上,处理具有高维特征的输入样本,而且不需要降维。原创 2024-09-01 21:54:42 · 1297 阅读 · 0 评论 -
4.sklearn-K近邻算法、模型选择与调优
KNN核心思想:你的“邻居”来推断出你的类别 1 K - 近邻算法(KNN) 原理k = 1 容易受到异常点的影响如何确定谁是邻居?计算距离:距离公式欧氏距离 -- 算法默认的是使用欧式距离曼哈顿距离 绝对值距离明可夫斯基距离如果取的k值不一样?会是什么结果?k 值取得过小,容易受到异常点的影响k 值取得过大,样本不均衡的影响。原创 2024-08-29 20:47:02 · 969 阅读 · 0 评论 -
3.特征工程-特征抽取、特征预处理、特征降维
2.train_test_split()调用划分数据集的函数,test_size=0.2意思是将150个数据中的20%划分为测试集,剩下的80%为训练集。3.与TfidfVectorizer()计算出的结果不同,CountVectorizer()统计的是特征出现的个数,TfidfVectorizer()统计的是特征的重要程度。1.TfidfVectorizer(stop_words=[“is”, “too”]),可以通过入参stop_words=[“is”, “too”]来控制不统计某些单词。原创 2024-08-05 23:02:45 · 1073 阅读 · 0 评论 -
2.深度学习-线性回归
一共训练了7000次,可以看到 loss 的值已经出现了过拟合的一个状态,所以大家在训练时这个模型的model.fit(x, y, epochs=7000),epochs可以设置为6000看看状态。红色的点图是y = 3 * x + np.random.randn() * 2的图。相关环境配置看此篇文章,本专栏深度学习相关的版本和配置,均按照此篇文章进行安装。对比我们设置的y = 3 * x + np.random.randn() * 2。可以看出二者的趋势是吻合的,说明我们训练的模型效果还不错。原创 2024-06-15 16:30:09 · 668 阅读 · 0 评论 -
1.Anaconda-创建虚拟环境的手把手教程
博主会创建一个深度学习的专栏,后续所有的实践分享都是基于此篇文章的模块版本。如果有想一起学习的小伙伴,版本的安装尽量与文章中一直,避免出现不必要的麻烦!原创 2024-06-11 22:07:02 · 1857 阅读 · 0 评论
分享