深度学习经典试题29道

所有试题来自公众号【读芯术】课后测试

  1. 深度学习中的“深度”是指
    A. 计算机理解深度
    B. 中间神经元网络的层次很多
    C. 计算机的求解更加精确
    D. 计算机对问题的处理更加灵活
    B

  2. 下列哪一项在神经网络中引入了非线性
    A. 随机梯度下降
    B. 修正线性单元(ReLU)
    C. 卷积函数
    D. 以上都不对
    B

  3. 下列哪个神经网络结构会发生权重共享
    A. 卷积神经网络
    B. 循环神经网络
    C. 全连接神经网络
    D. 选项A和B
    D

  4. 关于句子向量表示,下列说法正确的是
    A. 只能通过有监督学习获得
    B. 只能通过无监督学习获得
    C. 有监督和无监督学习都可以获得
    D. 以上都不对
    C

  5. 在神经网络中,下列哪种技术用于解决过拟合
    A. Dropout
    B. 正则化
    C. early stop
    D. Batch Normalizaiton
    ABCD

  6. 以下哪种不是自适应学习率方法
    A. Mini-batch SGD
    B. Adagrad
    C. RMSprop
    A

  7. 哪种策略可以加速词向量训练
    A. para2vect
    B. 层级softmax
    C. 最大似然估计
    D. 以上都不对
    B

  8. 关于梯度下降算法,以下说法正确的是
    A. 随机梯度下降算法是每次考虑单个样本进行权重更新
    B. Mini-Batch梯度下降算法是批量梯度下降和随机梯度下降的折中
    C. 批量梯度下降算法是每次考虑整个训练集进行权重更新
    D. 以上都对
    D

  9. 与传统机器学习方法相比,深度学习的优势在于
    A. 深度学习可以自动学习特征
    B. 深度学习完全不需要做数据预处理
    C. 深度学习完全不提取底层特征,如图像边缘、纹理等
    D. 深度学习不需要调参
    A

  10. 下列哪一项在神经网络中引入了非线性
    A. 随机梯度下降
    B. Sigmoid激活函数
    C. 增大权重和偏置的初始化值
    D. 以上都不对
    B

  11. 在其他条件不变的前提下,以下哪些做法容易引起机器学习中的过拟合问题
    A. 增加训练集量
    B. 减少神经网络隐藏节点数
    C. 在损失函数中增加正则项
    D. SVM算法中使用高斯核/RBF核代替核性核
    D

  12. 下列模型,属于判别式模型的有
    A. 隐马尔可夫模型
    B. 支持向量机
    C. 朴素贝叶斯
    D. 神经网络
    BD

  13. 关于集成学习,下列说法错误的是
    A. 集成学习一定能提升个体学习器的性能
    B. Bagging方法中,个体学习器之间彼此独立
    C. Boosting是一种重视错误样本的学习方法
    D. Boosting方法中,个体学习器存在强依赖
    A

  14. 如果使用的学习率太大,会导致
    A. 网络收敛的快
    B. 网络收敛的快
    C. 网络无法收敛
    D. 不确定
    C

  15. 在一个神经网络里,知道每一个神经元的权值和偏差值是最重要的一步。如果以某种方法知道了神经元准确的权重和偏差,就可以近似任何函数。实现这个最佳的办法是
    A. 随机赋值,祈祷他们是正确的
    B. 搜索所有权重和偏差的组合,直到得到最佳值
    C. 赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重
    D. 以上说法都不正确
    C

  16. 下列目标检测网络中,哪个是一阶段的网络
    A. Faster-rcnn
    B. RFCN
    C. YOLOV3
    D. SPP-net
    C

  17. SSD主要通过哪种方法来解决检测不同大小目标的问题
    A. 设置更多的anchor尺寸
    B. 设置更多的anchor纵横化
    C. 在不同的特征图上进行预测
    D. 使用图像金字塔作为输入
    C

  18. 当图像分类的准确率不高时,可以考虑以下哪种方法提高准确率
    A. 数据增强
    B. 调整超参数
    C. 使用预训练网络参数
    D. 减少数据集
    ABC

  19. 文字监测网络TextBoxes基于下列哪个网络
    A. Fast-rcnn
    B. Faster r-cnn
    C. SSD
    D. Y0L0
    C

  20. 下面哪些情况可能导致神经网络训练失败
    A. 梯度消失
    B. 梯度爆炸
    C. 激活单元死亡
    D. 鞍点
    ABCD

  21. 假定你现在在解决一个有着非常不平衡的分类问题,即主要类别占据了训练数据的99%。现在你的模型在测试集上表现为99%的准确率。下面表述正确的是
    A. 准确度并不适合于衡量不平衡类别问题
    B. 准确度适合于衡量不平衡类别问题
    C. 精确率和召回率适合于衡量不平衡类别问题
    D. 精确率和召回率不适合于衡量不平衡类别问题
    AC

  22. 假定在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,会得到输出[-0.0001]。X可能是以下哪一个激活函数
    A. ReLU
    B. tanh
    C. Sigmoid
    D. 以上都不是
    B
    解析:该激活函数可能是 tanh,因为该函数的取值范围是 (-1,1)。

  23. 如果增加神经网络的宽度,精确度会增加到一个阈值,然后开始降低。造成这一现象的原因可能是
    A. 只有一部分核被用于预测
    B. 当核数量增加,神经网络的预测能力降低
    C. 当核数量增加,其相关性增加,导致过拟合
    D. 以上都不对
    C

  24. 假设只有少量数据来解决某个具体问题,但有有个预先训练好的神经网络来解决类似问题。可以用下面哪些方法来利用这个预先训练好的网络
    A. 把除了最后一层外所有的层都冻结,重新训练最一层
    B. 重新训练整个模型
    C. 只对最后几层进行微调
    D. 对每一层模型进行评估,只使用少数层
    C
    解析:如果有个预先训练好的神经网络, 就相当于网络各参数有个很靠谱的先验代替随机初始化. 若新的少量数据来自于先前训练数据(或者先前训练数据量很好地描述了数据分布, 而新数据采样自完全相同的分布), 则冻结前面所有层而重新训练最后一层即可;但一般情况下, 新数据分布跟先前训练集分布有所偏差, 所以先验网络不足以完全拟合新数据时, 可以冻结大部分前层网络, 只对最后几层进行训练调参(这也称之为fine tune)。

  25. 下列哪个不属于CRF模型对于HMM模型的优势
    A. 特征灵活
    B. 速度快
    C. 可以容纳较多的上下文信息
    D. 能够做到全局最优
    B

  26. 下列方法中,可以用于特征降维的方法包括
    A. 主成分分析
    B. 线性判别分析
    C. 自编码器
    D. 矩阵奇异值分解
    ABCD

  27. 以下说法中正确的是
    A. SVM对噪声鲁棒
    B. 在AdaBoost算法中,所有被分错的样本的权重更新比列相同
    C. Boosting和Bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重
    D. 分类器集成一定能提升单分类器的性能
    B

  28. 关于集成学习,以下说法错误的是
    A. 集成学习一定能提升个体学习器的性能
    B. Bagging方法中,个体学习器之间彼此独立
    C. Boosting是一种重视错误样本的学习方法
    D. Boosting方法中,个体学习器存在强依赖
    A

  29. 比较基于深度学习的在线更新跟踪算法与在线不更新的跟踪算法,下列说法错误的是
    A. 一般来说,在线不更新的跟踪算法速度更快
    B. 一般来说,在线更新的跟踪算法,可以适应目标的变化,和背景信息的变化,对特征的要求较低
    C. 一般来说,在线更新的跟踪算法,在发生丢失和遮挡时,很容易找回
    D. 一般来说,在线不更新的跟踪算法,对特征的要求比较高,要求特征的表示能力鲁棒性更强
    C

### 如何将程序烧录到STM32F103C8T6最小系统板 #### 准备工作 为了成功地将程序烧录到STM32F103C8T6最小系统板上,需准备以下工具和材料: - STM32F103C8T6最小系统板 - ST-Link V2 或者其他兼容的ST-Link调试器/编程器 - USB数据线用于连接计算机与ST-Link设备 - 开发环境(如Keil MDK, IAR Embedded Workbench, STM32CubeIDE) #### 烧录过程 对于STM32系列微控制器而言,通常会把Bootloader放置于`0x8000000`地址处[^1]。然而,在实际应用中,大多数情况下并不直接操作Bootloader而是利用现成的开发工具链来完成整个编译链接以及最终的目标文件生成。 当准备好上述提到的所有必要组件之后,可以按照下面的方法来进行固件上传: 1. 将ST-Link通过Micro USB接口连接至个人电脑,并确保驱动已正确安装; 2. 使用跳帽或者杜邦线将ST-Link上的SWDIO、SWCLK、GND、NRST四个信号端子分别对应接到目标板相同名称的位置上去;如果采用的是四针排母形式,则可以直接插上即可[^2]; 3. 打开所使用的集成开发环境(IDE),加载项目工程并构建得到`.hex`或`.bin`格式的目标二进制映像文件; 4. 启动配套提供的Flash Loader Demonstration软件或者其他第三方flasher应用程序,设置好通信参数后点击“Program”按钮执行刷机动作直至提示顺利完成为止。 值得注意的是,除了官方推荐的方式外还可以借助串口实现在线更新功能,不过这往往涉及到额外的设计考量比如电路布局调整以适应UART协议的要求等复杂情况因此这里不做赘述。 ```cpp // 示例:简单的LED闪烁代码片段适用于STM32F103C8Tx芯片 #include "stm32f1xx_hal.h" int main(void){ HAL_Init(); __HAL_RCC_GPIOA_CLK_ENABLE(); // 使能GPIOA时钟 GPIO_InitTypeDef GPIO_InitStruct = {0}; GPIO_InitStruct.Pin = GPIO_PIN_5; GPIO_InitStruct.Mode = GPIO_MODE_OUTPUT_PP; GPIO_InitStruct.Pull = GPIO_NOPULL; GPIO_InitStruct.Speed = GPIO_SPEED_FREQ_LOW; HAL_GPIO_Init(GPIOA,&GPIO_InitStruct); while (true){ HAL_GPIO_TogglePin(GPIOA,GPIO_PIN_5); // 切换PA5引脚电平状态 HAL_Delay(500); // 延迟半秒时间 } } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值