【总结整理】 神经网络与深度学习 邱锡鹏 课后习题答案 扩展阅读链接

部署运行你感兴趣的模型镜像

本文主要针对神经网络神经网络邱锡鹏 2~8 章的课后习题进行理解的过程中,搜索到的讲的会比较透彻的链接整理。适合有一定基础但是想了解更细的人阅读。

主要参考书籍

首先是本书pdf可在神经网络与深度学习获取;
主要参考的课后习题答案为nndl/solutions: 《神经网络与深度学习》课后习题答案-分享讨论
知乎也有一篇关于课后习题的解读:《神经网络与深度学习-邱锡鹏》习题解答 
其中李航老师的统计学习方法(李航).pdf 多次出现,有空可阅读以便理解。

第二章

2-2 经验风险函数机器学习:损失函数、风险函数、经验风险、期望风险、结构风险_经验风险函数-优快云博客

2-6 (2) 最大后验估计MAE
极大似然估计与最大后验概率估计 - 知乎MLE 与 MAP 简介 | 吴良超的学习笔记

2-7 数据无穷多时,MAE趋近于MLE
MLE和MAP_02_哔哩哔哩_bilibili

2-11 一元二元三元 N-Gram词袋模型
NLP浅层次模型之N-Gram词袋法_n-grams袋模型-优快云博客

2-12 精准率、召回率、F1
一文看懂机器学习指标:准确率、精准率、召回率、F1、ROC曲线、AUC曲线 | by easyAI-人工智能知识库 | Medium
宏平均、微平均
关于宏平均(Macro-averaging)和微平均(Micro-averaging)_宏平均和微平均-优快云博客

第三章

3-1 超平面和权重向量
为什么权重向量与神经网络中的决策平面正交?(以及对超平面的理解) - 知乎

3-4 线性可分和线性不可分
理解线性可分和线性不可分与机器学习什么叫线性模型-优快云博客

3-5 平方损失函数和分类问题
为什么平方损失函数不适用分类问题? - 知乎

3-7 平均感知机训练算法计算方式和书中公式等价
blog.youkuaiyun.com/weixin_42660711/article/details/123702260
感知机和支持向量机异同
感知机与SVM对比

3-11 KKT条件和软间隔支持向量机
支持向量机 (二): 软间隔 svm 与 核函数 - massquantity - 博客园
Karush-Kuhn-Tucker (KKT)条件 - 知乎

第四章

4-1 零均值化为什么更好
什么是零均值?什么是零均值化?-优快云博客

4-2 前馈神经网络和神经元等
深度学习——前馈神经网络 - 图神经网络 - 博客园
如何确定神经网络的层数和隐藏层神经元数量 - 龙之天族 - 博客园

4-3 死亡ReLU问题
dead ReLU的发生原因和复活问题-优快云博客

4-4 Swish激活函数
Google提出的新型激活函数:Swish​​​​​​

4-7 为什么b不正则
为什么一般不对偏置b进行正则化?_为什么正则化不处理偏置-优快云博客

4-7 梯度消失等问题
详解深度学习中的梯度消失、爆炸原因及其解决方法 - 知乎

第五章

5-1 微分/差分
深度学习传统CV算法——二阶微分边缘算子_qq5b42bed9cc7e9的技术博客_51CTO博客

5-3 1×1卷积核的作用
一文读懂卷积神经网络中的1x1卷积核 - 知乎

5-4 卷积神经网络的时空间复杂度
卷积神经网络的时间、空间复杂度以及数据流的变化_卷积时间复杂度?-优快云博客

5-5 卷积操作到仿射变换
卷积操作的线性性质 - 宁静是一种习惯 - 博客园

5-7 空洞卷积
两种特殊卷积:转置卷积和空洞卷积_空洞卷积实例-优快云博客

第六章

6-1 延时神经网络、卷积神经网络、循环神经网络
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)概念区分理解_深度神经,卷积神经,循环神经-优快云博客

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.9

TensorFlow-v2.9

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

### 邱锡鹏神经网络深度学习》书籍及资料概述 邱锡鹏教授编写的《神经网络深度学习》是一本系统介绍神经网络深度学习理论实践的教材,适合对深度学习感兴趣的初学者以及希望深入了解该领域的研究者[^1]。该书从基础概念入手,逐步深入到复杂的模型架构和技术细节,涵盖的内容包括但不限于前馈神经网络、卷积神经网络、循环神经网络、注意力机制等[^3]。 #### 书籍的主要特点 - **理论实践结合**:书中不仅详细讲解了神经网络的基本原理,还提供了基于PaddlePaddle框架的代码示例,帮助读者更好地理解并应用所学知识[^3]。 - **端到端学习理念**:相比传统的机器学习方法,本书强调端到端的学习方式,避免了将任务分解为多个独立优化的子模块,从而提高了整体性能[^4]。 - **丰富的扩展资源**:除了书籍本身,作者还提供了课后习题解答、代码实现以及相关讨论链接,方便读者深入学习[^2]。 #### 获取书籍及配套资源 - **电子书PDF**:可以通过项目地址 [https://gitcode.com/Open-source-documentation-tutorial/5d110](https://gitcode.com/Open-source-documentation-tutorial/5d110) 下载邱锡鹏教授的《神经网络深度学习》PDF版本。 - **课后习题答案**:在nndl/solutions仓库中可以找到《神经网络深度学习》的课后习题答案,并且知乎上也有相关的解读文章[^2]。 - **笔记作业**:一些学习者分享了详细的笔记和作业解析,涵盖了PaddlePaddle的基础使用、线性分类、前馈神经网络等多个章节内容。 #### 示例代码 以下是一个简单的基于PaddlePaddle的张量操作示例,展示了如何进行基本的数学运算: ```python import paddle # 创建两个张量 a = paddle.to_tensor([1, 2, 3]) b = paddle.to_tensor([4, 5, 6]) # 张量加法 c = a + b print(c) # 输出: [5, 7, 9] ``` #### 注意事项 在学习过程中,如果遇到不熟悉的概念或技术,可以参考李航老师的《统计学习方法》以获得更深入的理解[^2]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值