自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 问答 (1)
  • 收藏
  • 关注

原创 <coggle 9 月竞赛学习打卡> 能源消耗预测挑战赛

能源消耗的预测对于能源供应商来说至关重要,以尽量减少与日前市场获得的能源和客户实际消耗的偏差。智能电表的日益普及意味着供应商可以实时访问所有签约客户的每小时消费值,这位能源消耗的未来预测提供了条件。精准的未来能源消耗预测能够帮助供应商更加合理配置资源,降低运营成本。

2023-09-04 20:11:00 573 26

原创 论文《Context Contrasted Feature and Gated Multi-scale Aggregation for Scene Segmentation》笔记

本文提出了 Context contrasted local features 以更好地利用上下文信息同时从背景信息中关注局部信息;进一步地,使用了一个 context contrasted based local(CCL) 模型获得多尺度和多等级的 context contrasted local features

2022-10-28 16:53:29 1193

转载 交叉熵理解

概率是已知模型的参数,求某个事情发生的可能性。概率可以表示为p(x∣Θ)似然是根据统计信息,推测产生这种统计结果的可能参数,似然可表示为 $ L(x|\Theta)$在结果和参数相互对应时,概率与似然在值上是相等的,但是意义并不相同。极大似然估计中采样需满足一个重要的假设,就是所有的采样都是独立同分布的(即采样得到的样本的分布,要与所有样本总体的分布相同)。

2022-10-23 10:03:12 347

原创 语义分割 patches 训练数据制作

在制作,或使用训练好的模型对大尺寸图像进行时,需要将图像进行切割成在和时的切割有稍微的区别。

2022-08-29 16:44:29 2515

原创 深度学习语义分割标签图像独热编码 (one hot encoding)

one-hot encoding (独热编码)在 loss 的计算时,Pytorch 有些 loss 函数需要 网络的 ouput 与 label 的 shape 相同,因此需要对 label 进行 one-hot encoding分割中的独热编码示例python 代码实现Python 实现的思路参考 https://discuss.pytorch.org/t/efficient-way-to-one-hot-encode-whole-image-for-semantic-segmentat

2022-05-28 23:23:23 4589 4

原创 Hexo博客框架搭建个人博客并部署在github

为什么要搭建自己的个人博客呢?我想大多数人都是为了记录笔记,督促自己学习。我在尝试了 OneNote, 以及印象笔记之后,感觉虽然这两个笔记软件功能都很齐全,也支持桌面和移动端同步,但总感觉缺少点什么,并没有促进自己学习记录,百度/google过一次的问题到下次任然需要继续百度一次。因此决定搭建属于自己的个人博客。好吧,我承认一部分原因是:拜托,搭建自己的个人博客超酷的好吧!虽然自己的编程基础拉到不行,但始终觉得像程序员那样搭建一个属于自己的个人博客简直超酷!

2022-05-12 22:24:29 1531

原创 语义分割数据增强(Data augmentation for semantic segmentation)

数据增强深度学习模型的*鲁棒性(robustness)和泛化性(generality)*受到训练数据的多样性和数据量所影响。数据增强(data augmentation)是机器学习和深度学习中经常采用的一个方法,其目的是扩大训练样本的数量。语义分割是计算机一个重要的下流任务,语义分割的数据增强通常需要对图像及其对应的标签做相同的增强处理本文总结了3种常用的增强方式:(1)旋转,(2)翻转,(3)裁剪。所有操作均采用opencv库进行首先使用opencv定义数据读取和保存函数。# 定义数据读取函

2022-03-22 18:36:16 10883

原创 深度残差收缩网络论文笔记

文章目录HighligtsBackground引出深度残差网络deep residual network提出深度残差收缩网路(depp residual shrinkage networks,DRSN)DRSN的基本结构理论背景RSBU-CS 与 RSBU-CW结构实验结果M. Zhao, S. Zhong, X. Fu, B. Tang and M. Pecht, “Deep Residual Shrinkage Networks for Fault Diagnosis,” in IEEE Trans

2021-12-20 10:15:16 1806

原创 Pandas分组与排序

Grouping and Sorting分组agg()排序经常需要将数据根据某个字段划分为不同的组(group)进行分析,然后对组里的数据进行特定的操作。pandas的**groupby()**操作便是实现这一功能。groupby的过程就是将原有的DataFrame按照groupby的字段,划分为若干个分组DataFrame,被分为多少个组就有多少个分组DataFrame。所以说,在groupby之后的一系列操作(如agg、apply等),均是基于子DataFrame的操作。分组import pan

2021-12-02 19:34:46 5878

原创 Pandas“总结函数”与”映射“

pandas的"总结函数"和"映射"Summary FunctionsMapsmap()方法apply方法Summary Functionspandas 提供了一些简单的“总结函数",如describle()方法,mean()等**df.describle()**可以对一列数据进行简单的数据统计df.mean() 获得一列数据的平均值df.unique() 统计一列数据的唯一值df.val_counts() 统计某一个值出现的次数import pandas as pdimport math

2021-12-02 15:32:57 1962

原创 pandas数据生成与读写

Pandas 基本操作生成与读写操作数据生成(DataFrame 与 Series)DataFrameSeries读写数据文件索引、选择与赋值基于索引的选择基于标签(label)的选择条件选择赋值生成与读写操作数据生成(DataFrame 与 Series)Pandas有两个对象(object): DataFrame 与 SeriesDataFrame 是一个表,它包括了一系列的条目(其实就是表头),以及对应的值(value)。每一个条目对应一行与一列DataFrame## 创建一个DataFr

2021-12-02 13:25:27 1988

原创 语义分割模型LinkNet介绍

语义分割模型LinkNet模型提出的背景网络结构实验结果结论GitHub代码链接LinkNet是2017年CVPR上的一篇论文(论文地址:https://arxiv.org/abs/1707.03718)。由于网上的论文笔记以及讲解不是很清晰,因此决定下载论文自己阅读一下,若有理解错误的地方还请大家指正。模型提出的背景作者认为当时的模型主要都是集中在提高模型的精度上,而忽略了模型的效率。在实时语义分割上的研究工作不多。作者提出的LinkNet在提高速度的同时又保证了精度。网络结构网络的结构

2021-11-30 10:39:05 11836 2

原创 python当前执行文件的模块导入

概念.py 文件叫做 moduel。包含 .py 的文件夹,且含有一个__init__.py文件的文件夹叫做package。在执行模块时,当前模块所在的文件夹路径会被添加到sys.path文件结构---A --- module_0.py --- module_1.py---B --- module_3.py --- C --- module_4.py若当前执行文件 module_3.py#module_3.py #调用与当前 from C import module_4 i

2021-08-04 16:50:54 126

翻译 游程编码(RLE)

游程编码理解(RLE,run-length encoding)游程编码又称行程长度编码,是一种简单的非破坏性资料压缩方法。RLE适用于颜色较单一的图片,如果图片颜色复杂则很难起到压缩的作用。改编码方式在深度学习语义分割的标签制作中有应用。将图片转化为RLE格式(compression)上面的二值图可以表示为一个像素矩阵: 0001100000110000 0011110001111000 0111111011111100 1111111111111110

2021-06-01 09:51:59 7001

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除