- 博客(9)
- 收藏
- 关注
原创 优化器:SGD with Momentum
(1)指数加权平均:一种近似求平均的方法,公式如下:代表局部的平均值。代表第t个数据的值。是可调节超参。可近似为前个数据的的平均值。举例说明,设,则近似代表近10个数据的平均值:指数递减的加权的移动平均,越近期的数据加权越大。对原始数据做了平滑,降低了原始数据的震荡成都,怎么看是前多少个数据的平均值呢,n通过得到。(2)SGD with Momentum采用上述指数加权平均的思路,在SGD中增加动量的概念,使得前几轮的梯度也会加入到当前的计算中(会有一定衰减),通过对前面一部分梯
2022-03-25 17:18:38
1431
原创 pytorch中softmax和log_softmax、CrossEntropyLoss() 和NLLLoss()
1. softmax和log_softmax方法 公式 解释 pytorch softmax 又称归一化指数函数,先通过化为正数,再通过除以和,转换到0-1之间。可以理解为将输出结果转化为属于不同类别的概率。 import torch.nn.functional as F softmax=F.softmax(data,dim=0) log_softmax log(softmax(x)) 由于此公式计算较慢,因此采
2022-03-24 17:06:42
3851
原创 kaggle下载数据集,解决无法人机校验问题
1 安装python的kaggle库命令行输入pip install kaggle命令行输入kaggle competitions list后会自动在C盘用户下创建一个.kaggle文件夹。2 注册kaggle账号注册kaggle账号,官网,Kaggle: Your Machine Learning and Data Science Community点击右上角 Sign In,然后选择register。注册后,登陆账号。登录后右上角选择account-API(Create New A.
2022-03-07 17:56:29
1804
1
原创 nltk下载失败的解决办法
conda install nltkimport nltk原因是没有下载nltk的数据包,通过nltk.download()下载数据包下载失败,可以使用离线下载的方式解决:https://github.com/nltk/nltk_data/tree/gh-pages下载成功后得到nltk_data-gh-pages.zip,解压,并且将解压后的文件夹packages重命名为nltk_data,将此文件夹拷贝到nltk的搜索路径。搜索路径是图一报错下显示的路径,也可通过以下方.
2021-08-03 17:02:34
1624
1
原创 K近邻---kNN
原理简介首先knn是有监督学习方法,其次knn没有训练模型的过程,是懒惰学习的代表。k=1时,称为最近邻算法。西瓜书----工作机制:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个邻居的信息来进行预测。在分类任务中可使用投票法预测,即选择这k个邻居中出现最多的类别标记作为预测结果;回归任务中可采用平均法,即将k个邻居的真实值的平均值作为预测结果。通俗解释:人以群分物以类聚。通过了解你周围邻居是什么样的人,就可以知道你是什么样的人。重点通过上面的描述
2021-07-29 11:01:19
218
原创 win10部署milvus以图搜图2.0
首先放出官方指导文档和代码地址以及图片下载地址:1.https://github.com/milvusio/bootcamp/tree/master/solutions/reverse_image_search/quick_deploy2. https://milvus.io/cn/docs/v2.0.0/install_standalone-docker.md3.源码下载:https://github.com/milvus-io/bootcamp4.图片下载地址:http://host.r
2021-07-20 17:06:57
3467
8
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人