人工智能面试题 基础理论

本文深入探讨了深度学习面试中常见的问题,包括开发平台选择、超参数调优、批量大小的重要性、归一化目的、局部最优与全局最优的差异、监督学习与非监督学习的区别等。此外,还详细讲解了深度学习模型的训练难点,如梯度消失与爆炸的解决方案,以及为何深度学习模型倾向于更深。内容覆盖了模型微调、误差与噪声的分析,以及深度学习中二阶优化的挑战。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

说说你项目中怎么选择开发平台的?

说说你怎么进行超参数调优的?

说说为什么需要Batch Size?

说说归一化的目的?

说说局部最优与全局最优?

说说监督学习与非监督学习的区别?

说说监督学习有哪些步骤?

说说为什么神经网络越来越深?

说说神经网络变深的意义?

说说为什么深度神经网络较浅层网络难以训练?

说说超参数搜索过程?

说说什么是模型微调Fine tuning?

说说Fine tuning时是否会更新网络参数,为什么?

说说Fine tuning模型有哪些方法?

说说误差、噪声、偏差、方差的区别与联系?

说说熵是什么?

说说梯度消失、爆炸的解决方案?

说说深度学习为什么不用二阶优化?

说说什么是TOP5错误率?


说说你项目中怎么选择开发平台的?

 1.与现有编程平台、技能整合的难易程度。

 2.与相关机器学习、数据处理生态整合的紧密程度。是否具有方便的数据预处理工具,是否支持可视化、统计推断、数据分析。

 3.对数据量及硬件的要求和支持。

 4.平台的成熟度,定期维护以及社区活跃。

 5.平台利用是否多样,移植性好。

 注:现有的AI开源平台主要有 Caffe, PyTorch, MXNet, CNTK, Theano, TensorFlow, Keras, fastai等。

说说你怎么进行超参数调优的?

 1.猜测和检查:根据经验或直觉,选择参数,一直迭代。

 2.网格搜索:让计算机尝试在一定范围内均匀分布的一组值。

 3.随机搜索:让计算机随机挑选一组值。

 4.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人工智能_SYBH

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值