深度学习笔试、面试题 三


1、声明1:可以通过将所有权重初始化为0 来训练网络。

声明2:可以通过将偏差初始化为0来很好地训练网络

以上哪些陈述是真实的?

A 1对2错

B 1错2对

C 1和2都对

D 1和2都错

正确答案是: B

解析:即使所有的偏差都为零,神经网络也有可能学习。 另一方面,如果所有的权重都是零; 神经网络可能永远不会学习执行任务。

具体可查看这里博客

2、对于MLP,输入层中的节点数为10,隐藏层为5.从输入层到隐藏层的最大连接数是

 

A 50

B 小于50

C 超过50

D 这是一个任意值

正确答案是:A

解析:由于MLP是完全连通的有向图,因此连接数是输入层和隐藏层中节点数的乘积。

3、输入图像已被转换为大小为28×28的矩阵和大小为7×7的步幅为1的核心/滤波器。卷积矩阵的大小是多少?
A 22 X 22 
B 21 X 21 
C 28 X 28 
D 7 X 7

正确答案是:A

解析:解决方案:A 卷积矩阵的大小由C =((I-F + 2P)/ S)+1给出,其中C是卷积矩阵的大小,I是输入矩阵的大小,F是滤波器的大小矩阵和P填充应用于输入矩阵。这里P = 0,I = 28,F = 7和S = 1。答案是22。

4、在一个简单的MLP模型中,输入层有8个神经元,隐藏层有5个神经元,输出层有1个神经元。隐藏输出层和输入隐藏层之间的权重矩阵的大小是多少?
A [1 X 5],[5 X 8]
B [8×5],[1×5]
C [5×8],[5×1]
D [5×1],[8×5]

正确答案是:D

解析:任何层1和层2之间的权重的大小由[层1中的节点X 2层中的节点

5、如果我们希望预测n个类(p1,p2 ... pk)的概率使得所有n的p的和等于1,那么下列哪个函数可以用作输出层中的激活函数?
A Softmax 
B ReLu 
C Sigmoid
D Tanh

 正确答案是:A

解析:Softmax函数的形式是所有k的概率之和总和为1。

6、假设一个具有 3 个神经元和输入为 [1, 2, 3] 的简单 MLP 模型。输入神经元的权重分别为 4, 5 和 6。假设激活函数是一个线性常数值 3 (激活函数为:y = 3x)。输出是什么?
A 32 
B 643 
C 96 
D 48

正确答案是:C

解析:输出将被计算为3(1 * 4 + 2 * 5 + 6 * 3)= 96

7、在输出层不能使用以下哪种激活函数来分类图像?
A sigmoid 
B Tanh 
C ReLU
D If(x> 5,1,0)

正确答案是:C

解析: ReLU在0到无限的范围内提供连续输出。但是在输出层中,我们需要一个有限范围的值。

8、在神经网络中,每个参数可以有不同的学习率。这句话是对还是错
A 对
B 错

正确答案是:A

解析:是的,我们可以定义每个参数的学习率,并且它可以与其他参数不同。

9、使用批量归一化可以解决以下哪种神经网络的训练?
A 过拟合Overfitting
B Restrict activations to become too high or low
C 训练过慢
D B和C都有

正确答案是:D

10、对于二元分类问题,您会选择以下哪种架构?

A 1
B 2
C 任何一个
D 都不用

正确答案是:C

解析:我们可以使用一个神经元作为二值分类问题的输出或两个单独的神经元。

 上面的红色曲线表示关于深度学习算法中每个时期的训练精度。绿色和蓝色曲线都表示验证的准确性。
哪条曲线表示过拟合overfitting?
A 绿色曲线
B 蓝色曲线

正确答案是: B

解析:蓝色曲线表示过拟合overfitting,绿色曲线表示泛化generalized.

2、使用深度学习的情感分析是多对一的预测任务
A 对
B 错

正确答案是:A

解析:选项A是正确的。这是因为从一系列单词中,你必须预测情绪是积极的还是消极的。

3、我们可以采取哪些措施来防止神经网络中的过拟合?

A 数据增强
B 权重共享
C 提前停止
D Dropout
E 以上全部

正确答案是:E

解析: 上述所有方法都可以帮助防止过度配合问题

4、Gated Recurrent units的出现可以帮助防止在RNN中的梯度消失问题。
A 对
B 错

正确答案是:A

9、将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题?

A 对
B 错

正确答案是:A

10、多义现象可以被定义为在文本对象中一个单词或短语的多种含义共存。
下列哪一种方法可能是解决此问题的最好选择?
A 随机森林分类器
B 卷积神经网络
C 梯度爆炸
D 上述所有方法

正确答案是: B

解析: CNN 是文本分类问题中比较受欢迎的选择,因为它们把上下文的文本当作特征来考虑,这样可以解决多义问题。

 

BP多层感知器 源代码 神经网络 tic; %计时开始 clc; %清屏 clear all; %清除所有变量 disp('输入层神经元个数: 16'); %显示输入层神经元个数 input=16; disp('中间层神经元个数: 8'); %显示中间层神经元个数 middle=8; disp('输出层神经元个数: 3'); %显示输出层神经元个数 output=3; disp('输入模式1 2 3及其对应的输出:'); x1=[1;1;1;1;1;0;0;1;1;1;1;1;1;0;0;1]; %x1(16,1) y1=[1;0;0]; %y1(3,1) x2=[0;1;0;0;0;1;0;0;0;1;0;0;0;1;0;0]; %x2(16,1) y2=[0;1;0]; %y2(3,1) x3=[1;1;1;1;1;0;0;1;1;0;0;1;1;1;1;1]; %x3(16,1) y3=[0;0;1]; %y3(3,1) disp('形成一张供调用的样本向量表:'); disp('X_sample向量表:x1,x2,x3'); X_sample=[x1,x2,x3] %x1,x2,x3向量表>>>X(16,3) disp('X_sample向量表:y1,y2,y3'); Y_sample=[y1,y2,y3] %y1,y2,y3向量表>>>Yo(3,3) disp('初始化连接权矩阵:'); disp('显示初始化连接权矩阵v(16,8):v(i,j):v(input,middle):'); v=rands(input,middle); %初始化连接权矩阵v(i,j) :输入层与中间层的连接权>>>v(16,8) disp(v); %显示初始化连接权矩阵v(i,j) disp('显示初始化连接权矩阵w(8,3):w(j,k):w(middle,output):'); w=rands(middle,output); %初始化连接权矩阵w(j,t) :中间层与输出层的连接权>>>w(8,3) disp(w); %显示初始化连接权矩阵w(j,t) disp('初始化阈值矩阵:'); disp('中间层阈值矩阵th1(8,1):th1(j,1):th1(middle,1):'); th1=rands(middle,1); %初始化中间层阈值矩阵th1 :中间层的阈值>>>th1(8,1) disp(th1); %显示中间层阈值矩阵th1 disp('输出层阈值矩阵th2(3,1):th2(k,1):th2
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值