- 博客(8)
- 收藏
- 关注
原创 国考准备信息
1、行测:言语(40题,用时30min)、判断推理(40题,用时35min)、资料分析(20题,用时25min)、数量(15题,用时10min)、常识(20题,用时10min),用老师教的方法技巧和解题步骤,逐道分析讲义例题;把听到的知识点梳理一遍,做成思维导图的形式,方便复盘;,跟思路,记住题型特征、重点技巧、每题的思路突破,对自己有启发的点。1、多听几个老师的,选择出最适合自己的。5、多听几遍课,加深理解,强化记忆。推荐老师:郭熙、阿里木江、葛欣言语、花生十三。先做讲义的题,明确自己不会的点。
2024-07-09 15:47:06
284
原创 如何查找、阅读论文和判断一篇论文的质量
纵览全文,归纳总结,总结文中的创新点、关键点、启发点(对自己以后写论文很重要)等重要信息论文简介、阐述工作内容、创新点、效果。
2023-08-09 20:37:30
1577
2
原创 C语言基础学习1
其中C语言代码中.c文件是源文件 .h文件是头文件,所以要写代码就在源文件中右击添加,然后点击新建项其中.cpp是c++代码,如果想要写c代码,在创建的项目名称上写明.c即可。
2023-08-01 17:59:38
130
1
原创 VS旧版本官网下载流程——例vs2013
一、打开官网链接Visual Studio: 面向软件开发人员和 Teams 的 IDE 和代码编辑器
2023-06-14 10:48:57
1307
原创 AlexNet(使用丢弃法)
一、结构:使用了8层卷积神经网络,5层卷积层和2层全连接隐藏层和1个全连接输出层二、特点:更深的网络结构使用层叠的卷积层,即卷积层+卷积层+池化层来提取图像的特征使用dropout抑制过拟合,Dropout可以看成是一种将模型进行随机的组合,可以增加其他神经元被训练到的可能性。使用数据增强Data Augmenttation抑制过拟合使用非线性激活函数Relu替换之前的线性函数sigmoid作为激活函数,因为Relu:计算量大大减少,收敛速度快,重叠池化可以避免过度拟合使用CPU进行训练。
2023-04-09 20:54:30
396
1
原创 caffe经典网络模型(LeNet、AlexNet、VGG、GoogLeNet)
3>、采样方式:4个输入相加,乘以一个可训练参数,再加上一个可训练偏置,结果通过sigmoid。5>.可训练参数/连接:120*(16*5*5+1)=48120。4>.输出特征图大小:1*1 因为(5-5+1)4、输出特征图大小:10*10(14-5+1)=10。7>.连接数:16*(2*2+1)*5*5=2000。7>、连接数:(2*2+1) *6*14*14。5>、输出特征图大小:14*14(28/2)5>.输出特征图大小:5*5(10/2)6>、神经元数量:5*5*16=400。
2023-04-08 10:25:19
289
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人