神经网络小记

本文探讨了神经网络的基本原理,包括隐藏层的作用、通用近似定理的意义以及激活函数的选择。介绍了sigmod、Tanh、RELU及其变种LeakyRELU的特点,讨论了它们在解决梯度消失问题中的作用。

神经网络在最近几年特别火,不管是做传统机器学习的,还是图片分类、nlp的都需要去学习了解它。
只有一层隐藏层的神经网络:这时候相当于集成学习,隐藏层相当于bagging学习多个模型,输出层使用上一层的结果作为输入相当于boosting。也即模型拥有降低偏差和方差的能力。
没有隐藏层的相当于感知机。
没有隐藏层的网络只能处理线性的问题,不能处理非线性的问题。

**通用近似原理:**如果一个神经网络拥有线性输出层和至少一个隐藏层,则在神经元足够多的,(激活函数)满足一些弱条件的情况下,构造成的符合函数可以近似代替任何在Rn上的连续函数。

通用近似定理告诉我们,一层不行就增加多层。但是如果在隐藏层的输出仍然是线性的,函数符合后也将会是一个线性的,可以通过调整系数后变为一层的模型。故隐藏层的输出函数不能是线性的。我们称每层的输出函数为激活函数。
如果有n个特征,要想逼近任意的函数,则最少需要的节点数O(3(n-1)),此时对应的层数最少为2log2N2log_2N2log2N(向上取整).解释:两个特征组合后输出,再将结果和其他特征组合,则至少有3(n-1)个节点,根据二分法,每次特征两两运算,则最少需要2log2N2log_2N2log2N层。
如果只需要一层隐藏层时,由于凸集上的VC dimension为2N2^N2N,故最多需要2N2^N2N个感知机即可完全分类。也即需要这么多神经元才能逼近任意函数。
也即增加层数能在一定程度上降低运算量。

常用激活函数:

  • sigmod:取值区间为[0,1],故当输入很大或者很小时,其导数f′(z)=f(z)(1−f(z))f'(z)=f(z)(1-f(z))f(z)=f(z)(1f(z))趋近于0,出现梯度消失
  • Tanh:取值区间为[-1,1],导数为1−f2(z)1-f^2(z)1f2(z),当输入很大很小时,导数也趋近于0,出现梯度消失。其实Tanh可通过sigmod经过平移变换得到。Tanh(x)=sigmoid(2x)−1Tanh(x)=sigmoid(2x)-1Tanh(x)=sigmoid(2x)1
  • RELU=max{z,0}=max\{z,0\}=max{z,0}:如果仔细观察,可以发现sigmod、Tanh不出现梯度消失的地方值集合近似于一条线。故我们可以考虑使用线性来作为激活函数,但是完全线性的激活函数又没有用,故把0的左边定义为0,此时不再是线性。
    • 优点:只需要做一个布尔运算,降低了运算复杂度;梯度很为1,有效解决梯度消失;0的左侧取0,认为造成了稀疏性。
    • 缺点:0的左侧取0,导致神经元的梯度为0,且之后该神经元的梯度永远为0.也即不更新数据,神经元死亡了。如果刚开始时,预设的学习步长较大,则很可能相当多的激活值小于0,这时大面积神经元死亡,很可能导致学习失败。
  • leaky RELU:为了解决RELU的缺陷,我们可以使用 leaky RELU,使0左侧的导数不为0.f(z)={zz≥01az&lt;0f(z)=\begin{cases} z &amp; z \geq 0 \\ 1 &amp; az&lt;0 \end{cases}f(z)={z1z0az<0一般a取一个较小的值(a的值如果过大,可能会导致梯度爆炸),可以实现一定的单侧抑制、保留部分梯度,能避解决梯度消失。但是增加了参数,增加了人工调参的难度。可以把a当作一个参数来学习。

模型的学习方法:上面说过,神经网络类似于bagging和boosting的集成,故可以像梯度提升一样来学习。但是层数多了后,这样做运算复杂度大。通常使用反向传播的方式来优化目标函数。
反向传播就当作一个复合函数的链式求导算了,哈哈哈(实际上和普通的链式求导还是有一定的区别,这里是矩阵的求导,矩阵求导没有链式法则,可以通过微分的定义来一步一步的推导)
平方损失函数:适合输出为连续且最后一层不为sigmod、softmax的神经网络。
交叉熵损失函数:适合分类场景。
如果是从传统机器学习的经验来看,这是肯定的,平方适合回归、交叉熵适合分类。但是为什么在平方损失的适合场景下加了一条最后一层不为sigmod、softmax呢?输出层的导数为(a−y)f′(z)(a-y)f&#x27;(z)(ay)f(z)。当z较大时,容易使梯度过小,学习慢。但是交叉熵的导数为ak−1a_k-1ak1,是线性的,z大小与梯度大小无关,不影响学习速度。

内容概要:本文详细介绍了“秒杀商城”微服务架构的设计与实战全过程,涵盖系统从需求分析、服务拆分、技术选型到核心功能开发、分布式事务处理、容器化部署及监控链路追踪的完整流程。重点解决了高并发场景下的超卖问题,采用Redis预减库存、消息队列削峰、数据库乐观锁等手段保障数据一致性,并通过Nacos实现服务注册发现与配置管理,利用Seata处理跨服务分布式事务,结合RabbitMQ实现异步下单,提升系统吞吐能力。同时,项目支持Docker Compose快速部署和Kubernetes生产级编排,集成Sleuth+Zipkin链路追踪与Prometheus+Grafana监控体系,构建可观测性强的微服务系统。; 适合人群:具备Java基础和Spring Boot开发经验,熟悉微服务基本概念的中高级研发人员,尤其是希望深入理解高并发系统设计、分布式事务、服务治理等核心技术的开发者;适合工作2-5年、有志于转型微服务或提升架构能力的工程师; 使用场景及目标:①学习如何基于Spring Cloud Alibaba构建完整的微服务项目;②掌握秒杀场景下高并发、超卖控制、异步化、削峰填谷等关键技术方案;③实践分布式事务(Seata)、服务熔断降级、链路追踪、统一配置中心等企业级中间件的应用;④完成从本地开发到容器化部署的全流程落地; 阅读建议:建议按照文档提供的七个阶段循序渐进地动手实践,重点关注秒杀流程设计、服务间通信机制、分布式事务实现和系统性能优化部分,结合代码调试与监控工具深入理解各组件协作原理,真正掌握高并发微服务系统的构建能力。
### 使用 UniApp 开发小记账本应用程序 #### 项目概述 生活记账小程序通过前端 Vue 和 UniApp 设计开发,后端采用 SpringBoot 提供数据接口支持。主要功能模块包括首页展示、分类记账以及微信登录状态管理[^1]。 #### 创建新项目 首先安装 HBuilderX 或者其他 IDE 工具来创建一个新的 UniApp 项目: ```bash npm install -g @dcloudio/uni-cli uni create myAccountBookProject ``` 进入项目目录并初始化必要的配置文件。 #### 配置 App.vue 生命周期函数 为了更好地控制应用生命周期,在 `App.vue` 中定义如下几个重要钩子函数用于处理不同场景下的逻辑操作: - **onLaunch**: 当整个程序启动时调用此方法, 可以在这里做一些全局性的初始化工作. - **onShow**: 页面每次从前台切到后台再返回前台都会触发这个事件, 合适用来刷新某些实时变化的内容. - **onHide**: 对应于当用户点击 Home 键使 APP 进入后台运行模式时执行的动作. 这些设置有助于提升用户体验流畅度和响应速度[^2]. #### 数据绑定与交互实现 确保所有的业务逻辑都放置在 methods 下面,并且避免 data 属性名称同 method 名冲突以免造成不必要的错误;另外注意检查 HTML 标签内部是否存在重复属性声明尤其是集成第三方 UI 组件库 uView-ui 的时候要格外小心[^3]: ```html <template> <!-- 记录条目输入框 --> </template> <script> export default { name: 'RecordEntry', data() { return { recordType: '', amount: null, date: '' } }, methods:{ addNewRecord(){ // 添加新的财务记录... } } } </script> ``` #### 接口对接与缓存机制 对于前后端分离架构的应用来说,合理的 API 路由规划至关重要。这里推荐使用 RESTful 风格的服务端点配合 axios 发起 HTTP 请求完成增删改查等基本 CRUD 功能。与此同时引入 Redis 做为临时存储介质加速频繁访问的数据读取效率降低 MySQL 查询压力。 #### 微信开放能力接入 如果计划让这款理财工具具备社交分享特性,则需按照官方文档指引注册成为微信公众平台开发者账号获得 appid 权限认证之后才能正常使用诸如支付等功能服务。此外还可以考虑加入直播营销插件吸引更多潜在客户群体关注产品动态[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值