板块3:AI/神经网络/深度学习
文章平均质量分 81
AI/神经网络/深度学习相关的算法仿真
fpga和matlab
专业即算法,算法即数学,数学即万物。2007年开始从事MATLAB算法仿真工作,2010年开始从事FPGA系统/算法开发工作。擅长解决各种算法仿真、建模、通信、图像处理、AI、智能控制等各专业问题。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
基于CNN卷积神经网络的相机型号与品牌识别技术
摘要:本文提出了一种基于改进ResNet-18架构的CNN模型,用于相机型号与品牌识别这一细粒度图像分类任务。通过分析相机固有特征(如传感器噪声、镜头畸变等),设计包含残差连接的网络结构,并采用MATLAB实现。实验表明,该模型能有效提取设备特有特征,在测试集上达到较高准确率,同时通过特征可视化展示了不同卷积层的特征提取能力。文中详细阐述了网络架构设计、数据预处理流程及模型训练策略,为细粒度图像分类提供了实用解决方案。原创 2025-11-12 20:52:57 · 796 阅读 · 0 评论 -
图神经网络理论介绍与matlab仿真分析
图神经网络(GNN)是一种专门处理非欧几里得图结构数据的深度学习模型。其核心原理是通过消息传递机制聚合邻居节点特征来更新节点表示,典型代表如图卷积网络(GCN)。GNN可处理各类图结构,已拓展出动态图GNN、异构图GNN等变体。针对大规模图数据,GraphSAGE和Cluster-GCN等方法通过采样和分区提升效率。实验采用MATLAB工具箱实现,通过前向传播和反向传播训练网络参数,验证了模型在节点分类等任务中的有效性。该技术为社交网络、分子结构等图数据建模提供了有效解决方案。原创 2025-10-23 12:47:53 · 702 阅读 · 0 评论 -
基于MSER和SVM的交通标志检测识别算法matlab仿真
本文提出一种基于MSER和SVM的交通标志检测识别算法。首先利用MSER算法提取图像中的稳定极值区域,通过形态学处理和区域合并准确定位交通标志;然后提取HOG特征,采用"一对一"策略的多分类SVM对43类交通标志进行识别;最后在GTSDB数据集上进行测试验证。实验结果表明,该方法能有效检测不同光照条件下的交通标志,并通过多分类SVM实现准确识别。原创 2025-09-02 23:19:43 · 1161 阅读 · 0 评论 -
基于图像形态学处理和GRNN广义回归神经网络的人员密度检测matlab仿真
本文提出了一种基于形态学处理和GRNN神经网络的人员密度检测方法。系统将人群密度分为三个等级:绿色(稀疏)、黄色(较拥挤)和红色(非常拥挤)。方法首先通过形态学开闭运算进行图像预处理,去除噪声并填充空洞;然后提取面积、周长等形态学特征及纹理特征;最后利用GRNN网络进行训练和预测。实验部分展示了动态背景提取、检测区域定位等关键步骤的代码实现,并通过纹理分析和区域像素统计实现密度分级。测试结果表明,该方法能有效区分不同密度等级,并实时显示预警信息。原创 2025-08-31 02:00:57 · 1094 阅读 · 0 评论 -
基于图像特征提取和SVM分类器的相机型号识别算法matlab仿真
摘要:相机型号识别是基于图像隐含的“相机指纹”实现的,不同型号相机在传感器特性、图像处理算法、光学系统等方面存在差异。算法流程包括数据集构建、特征提取(如颜色直方图)和SVM分类器训练。Matlab仿真验证了该方法的有效性,通过提取测试图像特征并输入训练好的SVM模型,可准确识别相机型号。实验结果表明该方法能有效区分不同相机拍摄的照片。原创 2025-08-26 21:58:36 · 988 阅读 · 0 评论 -
人工智能芯片设计中数据复用技术解析
摘要:人工智能芯片设计中,数据复用是提升能效的关键技术,可减少60%以上的数据移动能耗。主要分为四类:输入数据复用(如卷积操作的滑动窗口复用)、输出数据复用(共享中间计算结果)、权重数据复用(卷积核参数重复使用)以及混合数据复用(动态适配不同层特性)。典型架构如Eyeriss通过Tile划分使输入复用率提升3倍,CIM架构则实现99.7%的计算利用率。数据复用技术能有效突破内存带宽限制,将芯片能效提升数十倍。原创 2025-08-13 23:40:30 · 365 阅读 · 0 评论 -
人工智能芯片的整体构架设计
本文系统介绍了人工智能芯片的架构设计原理与实现方法。首先从计算原理出发,详细阐述了深度学习中的张量运算、并行化计算架构以及三级存储结构的设计理念。接着,文章具体分析了人工智能芯片的实现步骤,包括计算架构中的脉动阵列设计、存储架构的优化策略、互联网络的设计方法以及量化压缩技术。最后探讨了时域和空域两种不同的计算架构设计思路,展示了脉冲编码和并行处理等创新技术。全文通过数学公式和工程实例,全面展现了人工智能芯片在提升计算效率、降低能耗方面的关键技术。原创 2025-08-12 20:29:08 · 5707 阅读 · 1 评论 -
基于深度学习的脑电信号内容识别算法研究
摘要:本研究探讨了基于深度学习的脑电信号(EEG)内容识别方法。EEG信号具有低信噪比、非平稳性、高维度和个体差异等特性。研究采用CNN、RNN和Transformer等深度学习模型,针对运动想象识别(准确率85%-90%)、情绪识别(准确率80%-85%)和P300电位识别(准确率95%以上)三种典型任务进行了分析。论文详细介绍了各任务的脑电特征、认知机制及模型选择,并提供了包含信号预处理、特征提取和CNN模型构建的MATLAB实现方案。深度学习通过端到端学习显著提升了EEG识别的性能,为脑机接口和神经疾原创 2025-07-24 23:23:19 · 1294 阅读 · 0 评论 -
基于人工智能技术的动态频谱分配算法
本文摘要: 动态频谱分配(DSA)是解决无线通信频谱资源稀缺的关键技术。传统DSA算法难以适应复杂环境,而基于人工智能的DSA算法通过机器学习自主优化频谱分配策略。文章重点介绍了基于Q-learning强化学习的DSA算法,将频谱分配建模为马尔可夫决策过程,详细阐述了状态表示、动作空间和奖励函数的设计,并提供了MATLAB实现方案。该算法通过Q值迭代学习最优分配策略,能够根据实时环境动态调整频谱分配,提升系统吞吐量和频谱利用率。原创 2025-07-15 17:55:43 · 1259 阅读 · 0 评论 -
基于人工智能的无人机网络系统
《人工智能驱动的无人机网络系统关键技术研究》 摘要: 本研究聚焦人工智能赋能的无人机网络系统,涵盖环境感知、自主导航、通信优化和集群协同等核心技术。在环境感知方面,采用CNN目标检测算法实现障碍物识别(YOLO系列算法平均精度达89.2%);导航系统结合视觉SLAM(EKF定位误差<0.5m)和强化学习路径规划(DQN算法收敛步数减少37%);通信资源优化通过非合作博弈模型实现频谱效率提升42%;集群控制采用一致性算法(收敛时间缩短28%)和遗传算法任务分配(覆盖率提升至96%)。MATLAB仿真验证原创 2025-07-10 17:10:39 · 7243 阅读 · 3 评论 -
深度脑电波与情感编码
摘要:脑电波(EEG)作为大脑神经活动的客观记录,包含丰富的情感状态信息。本文探讨了深度脑电波与情感编码技术,分析了脑电波的产生机制及其与情感状态的关联,介绍了基于深度学习的EEG信号预处理、特征提取和解码方法。重点论述了CNN、RNN等深度学习模型在情感解码中的应用,以及迁移学习等技术解决个体差异问题的策略。该技术在人机交互、心理健康等领域具有重要应用价值,为情感状态识别提供了神经科学基础与技术支持。(148字)原创 2025-07-10 04:21:45 · 906 阅读 · 0 评论 -
基于人工智能技术的认知车联网技术研究
认知车联网仿真系统摘要 本文介绍了基于MATLAB实现的认知车联网(CIOV)仿真系统,该系统整合了人工智能算法与认知无线电技术。系统核心功能包括:多源异构数据感知与融合、频谱资源动态分配和智能路径规划。仿真采用Q学习算法优化信道选择,实现车辆与路侧单元(RSU)间的自适应通信。测试结果显示,系统在1000m×1000m区域内有效管理了50辆移动车辆与10个RSU的通信连接,平均信道利用率达30%,车辆连接率保持稳定。仿真验证了认知车联网在频谱感知、资源分配和交通优化方面的可行性,为智能交通系统研究提供了有原创 2025-06-28 18:08:02 · 664 阅读 · 0 评论 -
基于人工智能技术的低功耗广域网
人工智能技术为低功耗广域网(LPWAN)带来突破性创新。本文探讨了AI如何通过数据分析建模、资源优化分配等途径提升LPWAN性能,具体包括:1)利用时间序列预测模型优化网络流量;2)采用遗传算法等AI优化算法解决频谱分配问题;3)MATLAB实现流程涵盖数据预处理、MLP模型训练及轻量化部署等步骤。研究表明,AI赋能使LPWAN具备智能决策能力,能动态调整网络参数,有效降低功耗并优化资源利用,为物联网发展提供新思路。原创 2025-06-22 16:59:15 · 808 阅读 · 0 评论 -
一个简易版的脑可穿戴设备的原理、应用与系统实现方案
脑可穿戴设备技术综述 摘要:脑可穿戴设备通过电极采集头皮脑电信号(EEG),结合硬件系统和算法处理实现脑机交互。EEG信号具有微伏级幅值特征,分为δ、θ、α、β、γ等频段。设备采用干/湿电极采集信号,经放大滤波和模数转换后,通过时频分析、独立成分分析等方法提取特征。硬件包含信号处理电路、微处理器和无线模块,软件涉及底层驱动、特征提取算法及移动端应用。该技术融合脑科学、电子和计算机技术,在医疗、科研和智能交互领域具有重要应用价值。(149字)原创 2025-06-20 01:07:19 · 1306 阅读 · 0 评论 -
基于人工智能的情感通信系统研究
《情感通信技术综述》摘要(149字) 情感通信系统基于五元组模型(E,C,M,R,T),通过多模态特征提取与状态推理实现人机情感交互。核心技术包括:语音模态的梅尔频谱与CVAE韵律建模,文本模态的BERT-LSTM混合分析,视觉模态的3D-CNN微表情识别。系统采用异构图Transformer建模上下文关系,并运用强化学习优化资源分配。情感生成端结合FastSpeech2架构与HMM动作映射,实现多模态情感渲染。该技术框架实现了从情感识别到生成的全链路闭环,为情感化人机交互提供系统化解决方案。原创 2025-06-17 18:40:41 · 1122 阅读 · 0 评论 -
基于深度学习的视听情感融合算法研究
本文提出了一种基于深度学习的视听情感融合算法,通过结合音频和视觉信息实现更准确的情感识别。研究首先介绍了双通道理论、互补性和冗余性原理作为理论基础,然后详细阐述了音频特征(MFCC、韵律特征)和视觉特征(面部动作单元、深度特征)的提取方法,以及时序特征的LSTM处理。在模型架构方面,采用了2D-CNN、3D-CNN和注意力融合策略,并提供了MATLAB实现代码。实验结果表明,该多模态融合方法能够有效提高情感识别的准确率,克服单一模态的局限性。论文还包含完整的模型训练流程、测试验证方法和性能评估指标(准确率、原创 2025-06-16 15:18:44 · 1099 阅读 · 0 评论 -
基于深度学习的网络流量预测详解与Matlab仿真
本文探讨了基于LSTM深度学习的网络流量预测方法。网络流量具有周期性、趋势性、突发性等特征,传统统计模型难以捕捉其非线性特性。LSTM通过遗忘门和记忆单元有效解决长期依赖问题,适合预测复杂流量模式。研究构建了包含输入层、LSTM层和回归层的预测模型,使用MATLAB进行仿真,通过归一化处理和序列数据预处理,实现了多链路流量预测。结果表明,LSTM模型能够准确预测流量变化,误差指标(MSE、RMSE、MAE)显示良好性能。该方法为网络流量管理提供了有效工具。原创 2025-06-12 19:19:21 · 8880 阅读 · 4 评论 -
基于强化学习的网络边缘资源调度
网络边缘资源调度是边缘计算领域的核心问题,其目标是在动态异构的边缘环境中高效分配计算、存储和通信资源,以优化系统性能(如降低延迟、提高吞吐量)。传统的基于规则或启发式的方法难以应对环境的动态性和复杂性,而强化学习(Reinforcement Learning, RL)通过智能体与环境的交互学习最优策略,为边缘资源调度提供了一种自适应的解决方案。原创 2025-06-09 20:58:33 · 1046 阅读 · 0 评论 -
基于人工智能的无线传感器网络流量控制算法解析
无线传感器网络(Wireless Sensor Networks, WSN)由大量低成本、低功耗的传感器节点组成,广泛应用于环境监测、智能医疗、工业物联网等领域。然而,WSN面临着节点能量有限、拓扑动态变化、信道资源稀缺等挑战,流量控制作为保障网络性能的核心技术,其有效性直接影响网络的吞吐量、延迟、能量效率和可靠性。原创 2025-06-08 16:06:23 · 1101 阅读 · 0 评论 -
人工智能认知无线通信中基于学习驱动的无线边缘通信
本文探讨了人工智能在认知无线通信中的应用。认知无线通信通过智能感知频谱环境并动态调整参数来提高频谱利用率。文章重点分析了深度学习(如CNN、RNN)在频谱感知、强化学习在资源分配以及LSTM在信道预测中的具体应用。同时介绍了学习驱动的无线边缘通信如何结合AI与边缘计算优势,实现更高效的频谱管理和通信优化。通过MATLAB仿真验证了基于深度Q网络的资源分配方案,结果表明系统能够自适应地优化通信策略,提高吞吐量和信道利用率。这项研究为未来智能无线通信系统的发展提供了理论和技术参考。原创 2025-05-27 14:57:24 · 783 阅读 · 0 评论 -
基于Q-learning强化学习的网格地图路径规划matlab仿真以及matlab强化学习工具箱存在的缺陷
基于Q-learning强化学习的网格地图路径规划matlab仿真以及matlab强化学习工具箱存在的缺陷原创 2024-11-02 04:58:50 · 1144 阅读 · 0 评论 -
基于Q-learning强化学习的网格地图路径规划matlab仿真以及matlab强化学习工具箱存在的缺陷
在基于Q-learning的网格地图路径规划中,算法通过学习在网格地图中从起点到终点的最佳路径,每个网格单元代表一个状态,行动则是在相邻格子间移动。但是MATLAB的Q-learning强化学习存在部分缺陷,在本文中,我们将详细介绍基于Q-learning强化学习的网格地图路径规划matlab仿真以及matlab强化学习工具箱存在的缺陷。Q-learning是一种无模型的强化学习方法,它试图学习一个动作-价值函数,通常称为Q函数,形式上可以写作Q(s,a),这里s代表状态,a代表动作。原创 2024-09-27 06:45:33 · 1022 阅读 · 0 评论 -
基于多层极限学习机自动编码器的高光谱图像分类MATLAB仿真
高光谱图像(Hyperspectral Image, HSI)是一种具有数百个连续波段的遥感图像,每个像素点都包含丰富的光谱信息。这些数据在地物分类、目标检测、环境监测等领域有着广泛的应用。然而,高光谱图像的高维特性带来了“维度灾难”问题,使得传统的分类方法难以直接应用。近年来,深度学习技术,特别是自动编码器(Autoencoder, AE)和极限学习机(Extreme Learning Machine, ELM),在高光谱图像分类中表现出色。原创 2024-09-20 01:33:16 · 1285 阅读 · 0 评论 -
基于L2正则化项的正交人脸识别算法matlab仿真
人脸识别是一种生物识别技术,通过分析和比较人脸的视觉特征来识别人或验证人的身份。人脸识别技术通常包括以下几个步骤:1.:从图像或视频流中检测并定位人脸。2.:从检测到的人脸中提取关键特征,如眼睛、鼻子、嘴巴等区域的形状和位置。3.:将提取到的特征与数据库中的已知人脸特征进行比较,以确认身份或进行分类。4.:根据匹配结果做出最终决策,如身份确认、访问控制等。原创 2024-09-15 04:46:51 · 1124 阅读 · 0 评论 -
基于非平稳学习回报最大化的强化学习理论研究
在许多现实世界的任务中,环境的特性并不是固定不变的,而是随着时间的推移而发生变化。例如,在金融市场中,价格的波动性和市场趋势会随时间而变化;在交通管理系统中,车辆流量和交通灯的配时策略也会随时间而调整;在用户推荐系统中,用户的兴趣偏好可能会随时间而改变。因此,对于智能体来说,能够在非平稳环境中学习并适应这些变化是非常重要的能力。基于非平稳学习回报最大化的强化学习理论研究旨在解决环境特性随时间变化时智能体如何通过与环境的交互来学习最优策略,以达到长期回报最大化的问题。原创 2024-09-05 04:16:37 · 1296 阅读 · 0 评论 -
基于yolov10的目标检测模型概述
总而言之,YOLOv10在实时目标检测领域代表了一个显著的飞跃。它通过解决先前YOLO模型存在的局限性,并引入了一系列创新的设计策略,为效率和性能设立了新的标准。无论你是研究人员、开发人员还是技术爱好者,YOLOv10都是值得关注的模型。原创 2024-08-16 20:35:14 · 2099 阅读 · 0 评论 -
分别通过SVM和MLP对数据进行分类测试matlab仿真,输出ROC曲线
由于是在高维特征空间中建立线性学习机,所以与线性模型相比,不但几乎不增加计算的复杂性,而且在某种程度上避免了"维数灾难".这一切要归功于核函数的展开和计算理论.对于分类问题,SVM的目标是找到一个超平面,使得不同类别的样本尽可能地被分开,并且两类样本之间的间隔最大化。当数据不是线性可分时,可以使用核函数K(xi,xj)=ϕ(xi)⋅ϕ(xj),其中ϕ 是映射函数,将原始数据从低维空间映射到高维空间,使得数据变得线性可分。其中 TP 表示真正例,FN 表示假负例,FP 表示假正例,TN 表示真负例。原创 2024-08-13 17:57:29 · 1398 阅读 · 1 评论 -
基于CNN卷积神经网络的mnist手写数字库训练matlab仿真
例如,数字“3”的标签将会被表示为一个长度为10的向量,其中只有索引3的位置上的值为1,其余位置均为0。MNIST手写数字数据库是机器学习和计算机视觉领域中最著名和最广泛使用的数据集之一,它被用来作为基准测试各种算法的有效性和性能。每张图像都是28x28像素的灰度图像,像素值介于0到255之间,其中0代表白色背景,255代表黑色笔画。例如,对于3x3的滤波器,m和n的范围通常是[−1,1][−1,1]。其中C是类别数量,yi是真实标签的one-hot编码,y^i是预测概率。原创 2024-08-05 19:15:27 · 983 阅读 · 0 评论 -
基于强化学习的倒立摆平衡控制算法matlab仿真
基于强化学习的倒立摆平衡控制算法是一种非常实用的技术,在机器人学、自动化等领域有着广泛的应用。倒立摆问题是一个经典的控制问题,它涉及到使一个摆保持在不稳定的直立位置。强化学习方法可以自动学习控制策略,而不需要显式地了解系统的动力学模型。本文将详细介绍基于强化学习的倒立摆平衡控制算法,包括强化学习的基本概念、倒立摆的动力学模型、常用的强化学习算法(如Q-learning和Policy Gradients),以及如何将这些算法应用于倒立摆平衡控制问题。原创 2024-07-31 15:56:10 · 1422 阅读 · 0 评论 -
基于ID3的决策树数据分类matlab仿真
ID3(Iterative Dichotomiser 3)算法是由Ross Quinlan在1986年提出的一种决策树构建算法,主要用于数据分类问题。ID3算法基于信息论中的信息增益准则来选择最佳的特征进行决策树的分裂,其目的是在每次划分时,最大程度地减少数据集中的不确定性,或者说,最大化信息增益。原创 2024-07-13 19:40:38 · 675 阅读 · 0 评论 -
支持向量机(SVM)原理及应用概述
文本分类:利用词袋模型将文本转换为向量,然后使用SVM进行分类。图像识别:通过提取图像的特征向量,SVM能够识别手写数字、人脸等。生物信息学:在基因表达数据分类、蛋白质结构预测等方面发挥作用。手写识别:将手写字符的像素特征向量作为输入,实现字符的自动识别。金融风控:在信用评分、欺诈检测等场景中,SVM能有效区分正常交易与异常交易。原创 2024-07-10 16:18:27 · 1642 阅读 · 0 评论 -
基于机器视觉的人眼检测算法matlab仿真
基于机器视觉的人眼检测算法是计算机视觉领域的一个重要分支,它旨在从图像或视频中自动识别和定位人眼的位置。这项技术在人脸识别、活体检测、人机交互、辅助驾驶系统等多个领域有广泛应用。人眼检测算法通常分为两个阶段:特征提取与分类或回归,下面我们详细探讨其原理,并适当融入数学表达。原创 2024-06-18 04:35:44 · 832 阅读 · 0 评论 -
分别通过BP神经网络和GRNN广义回归神经网络对电力负荷数据进行训练和预测matlab仿真
由于GRNN不需要规定模型的类型,只需要设置神经网络的光滑因子参数,GRNN神经网络的光滑因子参数的取值对神经网络的输出影响较大,当光滑因子参数较大的时候,其对应的神经元所覆盖的输入区域就越大;当BP神经网络的输出结果和其期望结果之间的误差较大的时候,则进入反向传播阶段,并进行进行审计网络权值的修正,直到输出结果和期望结果误差满足一定条件为止。从图的结构图可知,GRNN神经网络的输入层神经元数目和输入样本的维度是相同的,即每一个神经元将输入信号直接传递给GRNN神经网络的隐含层中。原创 2024-06-13 04:42:45 · 1398 阅读 · 0 评论 -
基于BP神经网络的金融序列预测matlab仿真
神经网络领域已经有50年的历史了,但是实际的应用却是在最近15年里,如今神经网络仍快速发展着。因此,它显然不同与控制系统和最优化系统领域,它们的术语、数学理论和设计过程都已牢固的建立和应用了好多年。我们没有把神经网络工具箱仅看作一个能正常运行的建好的处理轮廓。我们宁愿希望它能成为一个有用的工业、教育和研究工具,一个能够帮助用户找到什么能够做什么不能做的工具,一个能够帮助发展和拓宽神经网络领域的工具。原创 2024-06-08 15:33:37 · 1246 阅读 · 0 评论 -
基于Q-learning强化学习的网格地图路径规划matlab仿真
MATLAB 强化学习工具箱(Reinforcement Learning Toolbox)是MathWorks公司提供的一款高级工具箱,专为设计、训练和部署强化学习算法而开发。原创 2024-06-06 16:17:05 · 1722 阅读 · 0 评论 -
基于神经元PID控制的异常脑节律抑制理论概述
单神经元PID控制器完美符合电刺激治疗的需求,它在PID控制器的基础上引入单神经元模型的神经元,主要是利用其自学习、自适应的能力来实现PID增益的自调整。缩短了抑制系统达到稳态的时间。然而,电刺激治疗的原理机制仍然是模糊的,这导致在刺激参数(如电压)以及有效刺激目标等重要因素的选择上产生了困难。1. 单神经群模型单个神经群的神经动力学模型如图所示,该模型由两个相互作用的神经元群落组成:锥体细胞(中间绿色方块),局部的兴奋性(上部红色方块)和抑制性(下部蓝色方块)中间神经元。原创 2024-05-05 00:53:20 · 1123 阅读 · 0 评论 -
基于k-means和谱聚类算法的数据分类matlab对比仿真
K-means算法是一种广泛应用的无监督机器学习聚类方法,旨在将数据集中的观测值分配到k个预定义的聚类中,使得每个聚类内的观测值彼此相似度尽可能大,而不同聚类间的相似度尽可能小。算法主要包括初始化、迭代聚类和终止条件三个主要阶段。K-means算法通过迭代求解此优化问题,每次迭代都试图减小目标函数值,直至收敛。K-means算法存在一些局限性,如:对初始质心敏感:不同的初始化可能导致不同的聚类结果。假设簇形规则:算法假设数据分布呈现凸形状,对于复杂或不规则形状的聚类效果不佳。原创 2024-04-24 01:13:24 · 840 阅读 · 0 评论 -
生成高斯分布的GAN对抗性网络matlab仿真
生成对抗网络(Generative Adversarial Networks, GANs)是一种深度学习架构,由Ian Goodfellow等人于2014年首次提出,主要用于生成逼真的随机样本数据。这里我们特别关注基于高斯分布的GAN变体——尽管GAN本身并不直接针对高斯分布设计,但在某些情况下,其生成的数据分布可能近似高斯分布。GAN包含两个主要组成部分:生成器(Generator)G和判别器(Discriminator)D。原创 2024-04-21 20:28:07 · 1610 阅读 · 0 评论 -
卷积神经网络Convolutional-Neural-Networks(CNN)理论概述
C1层中各平面(由神经元构成)提取图像中不同的局部特征,如边缘特征,上下左右方向特征等,C1层中的输入是有由上一层局部窗口的数值和连接的权值的加权和(也就是卷积,后面会具体解释为什么是卷积),然后通过一个激活函数(如sigmoid 函数,反正切函数)得到C1层的输出,接下来S2层是下采样层,简单来书,由4个点下采样为1个点,也就是4个数的加权平均。看下图2,假设红色的点和黑色的点是C1层第一个特征图的2个不同神经元,感受窗口的大小是5*5的(意味着有25个连接),这2个神经元连接的权值是共享的(相同的)。原创 2024-03-21 04:46:35 · 2644 阅读 · 0 评论 -
神经网络和卷积神经网络的理论分析
计算机学者从生物视觉的研究中得到启示,一个视觉神经细胞只与其距离较近的邻层神经元相连。鉴于此,CNN的采用了局部感受野。为了简化模型,一个特征平面的神经元共享权值。CNN最早由YannLecun 实现并运用到手写数字识别问题中,并取得该领域最高的识别率,至今未被超越。CNN是NN的一种变形,CNN与NN最大的不同在于CNN的卷积和子采样过程,而子采样可以被认为是一种特殊的卷积过程。在本章的后半部分,将以切割小图训练共享权值的NN的方式阐释卷积神经网络中的卷积过程。原创 2024-03-10 19:37:44 · 1380 阅读 · 1 评论
分享