
DL-Interview-Question
文章平均质量分 78
cc13186851239
这个作者很懒,什么都没留下…
展开
-
2022 计算机视觉岗位算法 复习流程及面试题汇总
【计算机视觉 复习流程剖析及面试题详解】详细面试题资料(6个文件),请添加vx: cc52757760 备注: CV,友情价领取,期待赢得您的认可!原创 2022-01-15 23:12:12 · 6098 阅读 · 0 评论 -
深度学习-第七章 超参数调整-面试题
文章目录1.NN2.CNN3.RNN4.LSTM5.BP6.GAN7.超参数调整7.1 神经网络中包含哪些超参数?7.2 为什么要进行超参数调优?7.3 超参数的重要性顺序7.4 极端批样本数量下,如何训练网络?7.5 合理使用预训练网络7.5.1 什么是微调(fine-tune)7.5.2 微调有哪些不同方法?7.5.3 微调先冻结底层,训练顶层的原因?7.5.4 不同的数据集特性下如何微调?7.5.5 目标检测中使用预训练模型的优劣?7.5.6 目标检测中如何从零开始训练(train from scra原创 2021-02-28 16:38:50 · 1754 阅读 · 0 评论 -
深度学习-第六章 GAN面试题(大厂必问,历经半年整理)
文章目录1.NN2.CNN3.RNN4.LSTM5.BP6.GAN6.1 生成器6.2 判别器6.3 训练技巧1.NN神经网络最全面面试题2.CNN卷积神经网络最全面面试题3.RNN循环神经网络最全面面试题4.LSTM长短期记忆网络最全面面试题5.BP反向传播面试题6.GAN生成式对抗网络,由一个生成器网络和一个判别器网络组成。判别器的训练目的是能够区分生成器的输出与来自训练集的真实图像,生成器的训练目的是欺骗判别器。值得注意的是,生成器从未直接见过训练集中的图像,它所知道的关于数据原创 2021-02-28 16:18:37 · 4291 阅读 · 1 评论 -
深度学习-第五章 BP面试题(大厂必问,历经半年整理)
文章目录1.NN2.CNN3.RNN4.LSTM5.反向传播5.1 什么是反向传播?5.2 反向传播是如何工作的?5.3 为什么需要反向传播?5.4 手推BP1.NN神经网络最全面面试题2.CNN卷积神经网络最全面面试题3.RNN循环神经网络最全面面试题4.LSTM长短期记忆网络最全面面试题5.反向传播5.1 什么是反向传播?通俗解释:类比几个人站成一排,第一个人看一幅画(输入数据),描述给第二个人(隐层)……依此类推,到最后一个人(输出)的时候,画出来的画肯定不能看了(误差较大原创 2021-02-28 16:14:50 · 3018 阅读 · 0 评论 -
深度学习-第四章 LSTM面试题(大厂必问,历经半年整理)
文章目录1.NN2.CNN3.RNN4.LSTM遗忘门输入层门输出层门4.1 LSTM结构推导,为什么比RNN好?4.2 为什么LSTM模型中既存在sigmoid又存在tanh两种激活函数,而不是选择统一一种sigmoid或者tanh?4.3 LSTM中为什么经常是两层双向LSTM?4.4 RNN扩展改进4.4.1 Bidirectional RNNs4.4.2 CNN-LSTMs4.4.3 Bidirectional LSTMs4.4.4 GRU4.5 LSTM、RNN、GRU区别?4.6 LSTM是如何原创 2021-02-28 16:02:57 · 6285 阅读 · 0 评论 -
深度学习-第三章 RNN 面试题(大厂必问,历经半年整理)
文章目录1.NN2.CNN3.RNN3.1 RNNs训练和传统ANN训练异同点?3.2 为什么RNN 训练的时候Loss波动很大?3.3 RNN中为什么会出现梯度消失?3.4 如何解决RNN中的梯度消失问题?3.5 CNN VS RNN3.6 Keras搭建RNN1.NN神经网络最全面面试题2.CNN卷积神经网络最全面面试题3.RNN核心思想:像人一样拥有记忆能力。用以往的记忆和当前的输入,生成输出。RNN 和 传统神经网络 最大的区别:在于每次都会将前一次的输出结果,带到下一次的隐藏层中,原创 2021-02-28 13:04:15 · 3652 阅读 · 0 评论 -
深度学习-第二章 卷积神经网络面试题(大厂必问,历经半年整理)
文章目录1.[神经网络](%28https://blog.youkuaiyun.com/cc13186851239/article/details/113983560%29)2.CNN2.1卷积神经网络的结构2.2 Keras搭建CNN2.2经典网络分类2.2.1 LeNet2.2.2 AlexNet2.2.2.1 AlexNet 对比LeNet 的优势?2.2.3 VGG2.2.3.1 VGG使用2个3*3卷积的优势在哪里?2.2.3.2 每层卷积是否只能用一种尺寸的卷积核?2.2.4 Inception(GoogL原创 2021-02-24 19:21:19 · 7958 阅读 · 1 评论 -
深度学习-第一章 神经网络面试题(大厂必问,历经半年整理)
文章目录1.神经网络1.1各个激活函数的优缺点?1.2 为什么ReLU常用于神经网络的激活函数?1.3 梯度消失和梯度爆炸的解决方案?梯度爆炸引发的问题?1.4如何确定是否出现梯度爆炸?1.5神经网络中有哪些正则化技术?1.6 批量归一化(BN) 如何实现?作用?1.6.1 BN为什么防止过拟合?1.7谈谈对权值共享的理解?1.8 对fine-tuning(微调模型)的理解?为什么要修改最后几层神经网络权值?1.9 什么是Dropout?原理?为什么有用?它是如何工作的?1.10如何选择dropout 的概原创 2021-02-23 13:28:58 · 7652 阅读 · 0 评论