1、声明1:可以通过将所有权重初始化为0 来训练网络。
声明2:可以通过将偏差初始化为0来很好地训练网络
以上哪些陈述是真实的?
A 1对2错
B 1错2对
C 1和2都对
D 1和2都错
正确答案是: B
解析:即使所有的偏差都为零,神经网络也有可能学习。 另一方面,如果所有的权重都是零; 神经网络可能永远不会学习执行任务。
具体可查看这里博客
2、对于MLP,输入层中的节点数为10,隐藏层为5.从输入层到隐藏层的最大连接数是
A 50
B 小于50
C 超过50
D 这是一个任意值
正确答案是:A
解析:由于MLP是完全连通的有向图,因此连接数是输入层和隐藏层中节点数的乘积。
3、输入图像已被转换为大小为28×28的矩阵和大小为7×7的步幅为1的核心/滤波器。卷积矩阵的大小是多少?
A 22 X 22
B 21 X 21
C 28 X 28
D 7 X 7
正确答案是:A
解析:解决方案:A 卷积矩阵的大小由C =((I-F + 2P)/ S)+1给出,其中C是卷积矩阵的大小,I是输入矩阵的大小,F是滤波器的大小矩阵和P填充应用于输入矩阵。这里P = 0,I = 28,F = 7和S = 1。答案是22。
4、在一个简单的MLP模型中,输入层有8个神经元,隐藏层有5个神经元,输出层有1个神经元。隐藏输出层和输入隐藏层之间的权重矩阵的大小是多少?
A [1 X 5],[5 X 8]
B [8×5],[1×5]
C [5×8],[5×1]
D [5×1],[8×5]
正确答案是:D
解析:任何层1和层2之间的权重的大小由[层1中的节点X 2层中的节点
5、如果我们希望预测n个类(p1,p2 ... pk)的概率使得所有n的p的和等于1,那么下列哪个函数可以用作输出层中的激活函数?
A Softmax
B ReLu
C Sigmoid
D Tanh
正确答案是:A
解析:Softmax函数的形式是所有k的概率之和总和为1。
6、假设一个具有 3 个神经元和输入为 [1, 2, 3] 的简单 MLP 模型。输入神经元的权重分别为 4, 5 和 6。假设激活函数是一个线性常数值 3 (激活函数为:y = 3x)。输出是什么?
A 32
B 643
C 96
D 48
正确答案是:C
解析:输出将被计算为3(1 * 4 + 2 * 5 + 6 * 3)= 96
7、在输出层不能使用以下哪种激活函数来分类图像?
A sigmoid
B Tanh
C ReLU
D If(x> 5,1,0)
正确答案是:C
解析: ReLU在0到无限的范围内提供连续输出。但是在输出层中,我们需要一个有限范围的值。
8、在神经网络中,每个参数可以有不同的学习率。这句话是对还是错
A 对
B 错
正确答案是:A
解析:是的,我们可以定义每个参数的学习率,并且它可以与其他参数不同。
9、使用批量归一化可以解决以下哪种神经网络的训练?
A 过拟合Overfitting
B Restrict activations to become too high or low
C 训练过慢
D B和C都有
正确答案是:D
10、对于二元分类问题,您会选择以下哪种架构?
A 1
B 2
C 任何一个
D 都不用
正确答案是:C
解析:我们可以使用一个神经元作为二值分类问题的输出或两个单独的神经元。
1
上面的红色曲线表示关于深度学习算法中每个时期的训练精度。绿色和蓝色曲线都表示验证的准确性。
哪条曲线表示过拟合overfitting?
A 绿色曲线
B 蓝色曲线
正确答案是: B
解析:蓝色曲线表示过拟合overfitting,绿色曲线表示泛化generalized.
2、使用深度学习的情感分析是多对一的预测任务
A 对
B 错
正确答案是:A
解析:选项A是正确的。这是因为从一系列单词中,你必须预测情绪是积极的还是消极的。
3、我们可以采取哪些措施来防止神经网络中的过拟合?
A 数据增强
B 权重共享
C 提前停止
D Dropout
E 以上全部
正确答案是:E
解析: 上述所有方法都可以帮助防止过度配合问题
4、Gated Recurrent units的出现可以帮助防止在RNN中的梯度消失问题。
A 对
B 错
正确答案是:A
9、将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题?
A 对
B 错
正确答案是:A
10、多义现象可以被定义为在文本对象中一个单词或短语的多种含义共存。
下列哪一种方法可能是解决此问题的最好选择?
A 随机森林分类器
B 卷积神经网络
C 梯度爆炸
D 上述所有方法
正确答案是: B
解析: CNN 是文本分类问题中比较受欢迎的选择,因为它们把上下文的文本当作特征来考虑,这样可以解决多义问题。