
每日学习笔记
step step
某高校硕士研究生在读,研究方向为深度学习,图像处理。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
2021/02/27--*args, **kwargs
Python中的*args、**kwargs一、调用时候传不定参数。1. 正常调用def func(a, b, c): print(a, b, c)func(1, 2, 3)output: 1, 2, 32. **调用d = {"b": 5, "c": 7}func(1, **d)output: 1, 5, 73. *调用e = (1, 5, 7)func(*e)二、定义时传入不定参数1. **kwargsdef func(a, **k原创 2021-02-27 22:03:12 · 143 阅读 · 0 评论 -
读取图片错误
OSError: image file is truncated (0 bytes not processed)解决方式from PIL import ImageFileImageFile.LOAD_TRUNCATED_IMAGES = True原创 2022-02-13 12:37:19 · 540 阅读 · 0 评论 -
Faiss快速入门
目的:收集一批一级分类中的badcase,添加到训练集中,提高精度方法:利用筛选出的难例的分类特征,构建一个特征索引库,先将训练数据过一遍索引Faiss is a library for efficient similarity search and clustering of dense vectors.https://github.com/facebookresearch/faiss/wikifaiss快速入门数据准备faiss可以处理固定维度d的向量集合,这样的集合这里用二维数组表示。 一原创 2021-03-16 16:34:08 · 736 阅读 · 0 评论 -
2021/02/27 -- [分布式训练]单机多卡
pytorch 单机多卡训练DistributedDataParallel(DDP): All-Reduce模式, 本意是用来分布式训练的,但是也可以用于单机多卡现在官方建议DDP, DP的较少。本来是设计为多几多卡,但是单机多卡也能用。用法如下。1.初始化使用nccl后端。torch.distributed.init_process_group(backend="nccl")2. 模型并行化mode = torch.nn.parallel.DistributedDataPar原创 2021-02-27 22:23:45 · 625 阅读 · 0 评论 -
今日学习总结(8)
关于激活函数:Relu优点:Relu函数速度块:无需计算sigmoid中的指数倒数,relu函数就是max(0, x),计算代价小减轻梯度消失:在神经网络反向传播时,sigmoid函数求梯度之后会逐渐变小,而Relu函数的梯度是一,会减小梯度消失。稀疏性:可以看到,Relu在输入小于零时,输出也为零,这意味着函数不激活,从而更加稀疏。全连接层(Fully conected con...原创 2020-03-07 15:00:55 · 330 阅读 · 0 评论 -
今日学习总结(五)
顶顶顶原创 2020-03-01 18:57:06 · 247 阅读 · 0 评论 -
日常学习记录
今日笔记:1. 利用 Scikit-learn 实现简单的逻辑回归(logisticRegression)/线性回归(lenarRegression)。读取数据分析数据处理数据训练数据得到结果再写程序的时候,想尽量使得代码模块化,就复习了一下如何调用另一个python文件中的代码。分两种: 1.在同一个文件夹在 b.py 文件中用下面两句话就可完成 a.py 文件中 fu...原创 2020-02-17 22:14:36 · 199 阅读 · 0 评论