- 博客(9)
- 收藏
- 关注
原创 Epoll的两种工作模式
Epoll的两种工作模式LT模式(水平触发)假设委托内核检测读事件-检测fd的读缓冲区都缓冲区有数据-epoll检测到了会给用户通知用户不读数据,数据一直在缓冲区,epoll会一直通知用户只读了一部分数据,epoll会通知缓冲区的数据读完了,不通知LT模式是默认的工作模式,同时支持阻塞和非阻塞套接字两种模式。内核告诉你一个文件描述符是否就绪,然后你可以对这个就虚的fd进行IO操作,如果你不做任何操作的话,内核还是会继续通知你。(只要是缓冲区内有数据,内核就通知)。ET模式(边沿触发)
2022-02-11 21:29:42
1042
原创 服务器编程基本框架和两种高效的事件处理方式
服务器编程基本框架和两种高效的事件处理方式服务器基本模块I/O处理单元:处理客户连接,读写网络数据。服务器管理客户连接的模块。接受客户端连接,接受客户端数据,返回服务器端数据。逻辑单元:业务进程或者线程。分析处理数据并传递结果。网络存储单元:数据库、文件或缓存。请求队列:各个单元之间的通信方式。通常被实现为池的一部分(进程池,线程池)。两种高效的事件处理模式处理三类事件:IO事件、信号以及定时事件。Reactor模式一般是同步IO模型要求主线程只负责监听文件描述符上是否有事件发生,有的
2022-02-10 23:53:59
1073
原创 EPOLL相关函数笔记
EPOLL相关函数笔记简而言之:对SELECT的改进两者比较1.调用SELECT每次都需要吧fd集合从用户态拷贝到用户态,当fd很多时开销会很大。而EPOLL结构体本身就在内核态,一定程度上减少了开销。2.SELECT每次都需要遍历,而EPOLL返回的是一个包含所有相应的文件描述符的数据3.SELECT上限为1024,且每次fd都需要重置。函数1.创建int epfd = epoll_create(int size);创建一个存在于内核区的EPOLL实例,返回EPOLL所在的文件描述符。
2022-02-09 21:34:47
369
原创 np.array使用小心得
关于二维array嵌套二维array,在括号内的array内元素是true/false和是1/0所得到的结果是不同的!例如:此时mask内元素是true false,我们得到的结果是:而如果是0/1…所得到的结果是:
2021-03-10 11:44:36
9041
原创 CCNet: Criss-Cross Attention for Semantic Segmentation阅读笔记
0摘要:Criss_Cross用于捕捉上下文信息,上下文信息可以用于远程依赖。使用新颖的criss_cross attention module,每个像素都可以取得它周围像素的信息。CCNet有如下几个好处:1)GPU内存友好。与非本地块相比,循环纵横交叉注意模块所需的GPU内存使用量减少了11倍。2)高计算效率。在计算远程依存关系时,反复出现的纵横交错注意力将FLOP减少了非本地块的大约85%。3)最先进的性能。我们对流行的语义分段基准(包括Cityscapes,ADE20K和实例分段基准COCO
2021-01-29 01:12:22
1435
原创 SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation阅读笔记
0摘要:Encoder - Decoder结构。Encoder是VGG16的前13层,Decoder的作用是把Encoder的低分辨率特征图变成和输入相当分辨率的特征图。Specifically, the decoder uses pooling indices computed in the max-pooling step of the corresponding encoder toperform non-linear upsampling.具体地,解码器使用在相应Encoder中的最大池化(
2021-01-28 15:14:26
815
原创 Filter Grafting for Deep Neural Networks阅读笔记
0.摘要:1.本文提出一种新颖的学习范例,称为过滤器嫁接(filter grafting),旨在提高深度神经网络(DNN)的表示能力。对于一些看起来没什么用的filters,过滤器裁剪(filter pruning)会因为效率考虑而去掉他们。过滤器嫁接会重新激活他们。通过将外部信息(权重)嫁接到无效的过滤器中来处理激活。2.为了更好的执行嫁接过程,我们开发了一种基于熵的标准来测量过滤器的信息,并提出了一种自适应加权策略来平衡网络之间的嫁接信息。嫁接操作后,与原始状态相比,网络具有很少的无效过滤器,从而为
2021-01-24 20:24:22
363
原创 Deeplizard part1
torch:包含其它torch.nn:包含类的模块、权重、和损失函数torch.autograd:优化我们的神经网络权重所需的导数计算torch.nn.functional:各种函数,损失、激活、卷积torch.optim:各种优化SGD.ADAMtorch.utils:数据预处理torchvision:访问最新的数据集、计算机视觉的模型架构以及图像转换CUDA:为开发者提供API的软件层。GPU:适合并行计算,运算速度超过CPU,但是从CPU向GPU中导入数据需要一定的代价。...
2021-01-18 17:02:13
231
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅