- 博客(30)
- 资源 (1)
- 收藏
- 关注
原创 【好用的PyCharm设置】
修改方法:进入settings界面,逐步寻找,Appearance&Behavior->Appearance->Theme,选择自己喜欢的即可。修改方法:在相同界面下找到Editor下的Font,根据自己的喜好选择合适的字体,调整字体的大小,以及字距。PyCharm背景默认有3种模式,可以更换。
2024-09-26 16:14:02
330
原创 论文抽检判定抄袭的标准?
毕业论文查重时被判定为抄袭的4种情况:直接全文复制别人的研究成果,没有任何的改动;在提交论文检测和查重时也没有按照要求打上引用标签,看不出任何引用的痕迹,完全当做自己正文中的一部分。除此之外还没有尾注借鉴的来源,这种情况在论文查重时会被直接识别出来。东拼西凑,将别人的研究结论拿过来后,根据自己的论点和论证要求稍作修改,简单润色后直接作为正文使用,没有引用标签、没有借鉴来源、没有标明参考尾注。简单说明一个迄今为止还没有出现的论点,并且没有进行论证和说明,缺乏理论依据。尽管这种情況在机器检测时论文查重
2023-04-17 14:51:55
840
转载 YoloV5网络结构梳理
模块解析结构目录01.Focus模块02.Conv模块03.Bottleneck模块04.C3模块05.SPP模块01.Focus模块作用:下采样输入:data( 3×640×640 彩色图片)Focus模块的作用是对图片进行切片,类似于下采样,先将图片变为320×320×12的特征图,再经过3×3的卷积操作,输出通道32,最终变为320×320×32的特征图,是一般卷积计算量的4倍,如此做下采样将无信息丢失。输出:32×320×320特征图class Focus(nn.Module
2021-10-14 18:02:51
13101
1
原创 CV中的Attention机制
*** 什么是注意力机制?***注意力机制(Attention Mechanism)是机器学习中的一种数据处理方法,广泛应用在自然语言处理、图像识别及语音识别等各种不同类型的机器学习任务中。通俗来讲:注意力机制就是希望网络能够自动学出来图片或者文字序列中的需要注意的地方。比如人眼在看一幅画的时候,不会将注意力平等地分配给画中的所有像素,而是将更多注意力分配给人们关注的地方。注意力机制可以分为:通道注意力机制:对通道生成掩码mask,进行打分,代表是senet, Channel Attention M
2021-10-14 08:29:06
519
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人