- 博客(14)
- 收藏
- 关注
原创 论文解读:Graph convolutional networks with the self-attention mechanism foradaptive influence maximizat
在未来的工作中,我们将在大规模数据集上验证所建议方法的性能,并开发新的策略来提高所建议策略的性能和鲁棒性,例如通过应用采样方法来修剪图的大小。以上图为例,在节点尝试激活的过程中,已经被激活的边进入活边集L,激活失败的边进入死边集D,还未尝试激活的边是未知的,而L和D就是一个实现,如果L和D的并已经包含了所有的边,那么此时的实现就是一个完全实现, 否则就是一个部分实现,而传播过程结束时的实现就是最终实现,当一个实现时另一个实现的子集,那他就是另一个实现的子实现,另一个实现时这个实现的超实现。
2024-12-03 10:51:46
1016
原创 论文解读:ImageNet Classification with Deep ConvolutionalNeural Networks
当前的目标识别方法基本使用了机器学习方法。为了提高它们的性能,我们可以收集更大的数据集,学习更强大的模型,并使用更好的技术来防止过拟合。直到最近,标记图像的数据集相对较小,大约为数万张图像(例如,NORB [12], Caltech-101/256[8,9]和CIFAR-10/100[12])。使用这种大小的数据集可以很好地解决简单的识别任务,特别是如果它们使用保持标签的转换进行增强。例如,目前MNIST数字识别任务的最佳错误率(
2024-11-12 21:10:54
1082
原创 论文解读:Gradient-Based Learning Applied to Document Recognition
以文档理解为例,我们表明,通过手动集成单独设计的模块来构建识别系统的传统方式可以被一个统一的、有良好原则的设计范式(称为GTN’s)所取代,该范式允许训练所有模块以优化全局性能标准。给定适当的网络架构,基于梯度的学习算法可以用于合成复杂的决策面,该决策面可以对高维模式(如手写字符)进行分类,只需最少的预处理。通过这种方式,系统不仅提高了识别的准确性,还减少了对手动调整参数的需求。传统的模式识别系统通常依赖于手工设计的特征提取器和分割算法,这导致了对新问题的适应性差,且准确性高度依赖于设计者的经验和知识。
2024-11-06 11:27:57
1023
原创 神经网络学习笔记(六):前馈神经网络FNN
从输入层经过隐藏层(如果有的话)最终到达输出层。在前馈神经网络中,没有反馈连接,即网络的任何层都不会接收来自后续层的信号。前馈神经网络主要有输入层、隐藏层、输出层组成,输入层负责接收外部输入信号,隐藏层对输入信号进行处理和特征提取,可以有一个或多个隐藏层;反向传播:在训练过程中,网络使用反向传播算法来计算预测结果与真实值之间的误差,并根据这些误差调整网络中的权重和偏置,以减少预测误差。前向传播:输入数据通过网络的各个层,每个神经元的输出是其输入的加权和经过激活函数处理的结果。
2024-11-05 21:01:05
240
原创 神经网络学习笔记(五):一些小概念
梯度消失问题指的是在使用反向传播算法进行权重更新时,由于梯度在传递过程中的连续乘积效应,导致梯度值越来越小,直至接近于零。一个适当的学习率可以帮助模型快速收敛到最优解,而不适当的学习率可能导致模型收敛缓慢、振荡甚至发散.如果学习率过大,可能导致模型跳过最优解,造成训练过程中的震荡或发散;梯度爆炸问题是指在深度学习中,尤其是在使用反向传播算法训练深层神经网络时,梯度在反向传播过程中迅速增大,导致参数更新的幅度过大,最终可能引起权重值溢出,使得损失函数出现NaN(非数值)等异常情况,从而导致模型无法收敛.
2024-11-04 19:34:19
215
原创 神经网络学习笔记(四):多层感知机
多层感知机(Multilayer Perceptron, MLP)是一种前馈神经网络,它由输入层、多个隐藏层和一个输出层组成。输入层接收输入数据,输出层产生网络的预测结果。隐藏层中的神经元通过激活函数对输入数据进行非线性变换,这些变换允许网络学习和拟合复杂的非线性关系。在前向传播过程中,输入数据通过网络的每一层,经过权重和偏置的加权求和以及激活函数的应用,逐步转化为输出。反向传播过程中,网络利用损失函数的梯度信息来更新网络的权重和偏置,以减小预测值与实际值之间的差异。
2024-10-31 16:29:16
199
原创 神经网络学习笔记(三):反向传播
反向传播(Backpropagation)是一种用于训练神经网络的算法。它基于链式法则(chain rule)来计算损失函数(loss function)关于神经网络中每个权重(weight)的梯度(gradient)。在神经网络中,输入数据通过多个隐藏层进行前向传播(forward propagation),最终得到输出。这个输出与真实的目标值(target value)进行比较,计算出损失函数的值,损失函数衡量了模型预测结果与真实结果之间的误差。
2024-10-29 15:13:07
755
原创 神经网络学习笔记(二):感知机
刺激通过感知单元传递至联结单元,联结单元的响应取决于来自感知单元的兴奋性和抑制性信号的代数和。论文中作者主要关注于信息是以什么形式存储或记忆的、储存或记忆中的信息如何影响认知和行为两个问题,探讨了感知系统如何存储和组织信息,提出了一种称为感知器的模型,旨在揭示生物系统在感知、记忆和行为中的信息处理机制。:感知器模型中的连接可以是随机的,A单元与感知单元之间的连接可以是兴奋性或抑制性的。,负责生成最终的响应。每个响应单元接收来自多个A单元的信号,并根据其连接的性质(兴奋性或抑制性)决定输出的状态。
2024-10-28 19:42:51
471
原创 神经网络学习笔记(一):MP神经元模型
研究表明,在可能的神经生理学假设中,许多特定的选择是等效的,也就是说,对于每一个在一种假设下运行的网络,都存在另一个在另一种假设下运行的网络,并给出相同的结果,尽管可能不是在同一时间。M-P模型的核心假设包括神经元的激活是离散的,突触传递的信号是瞬时的,并且网络结构在时间上是静态的。TPE是通过递归定义的,能够捕捉神经元之间的逻辑关系来形式化神经元的输出,从而构建了神经网络模型中的逻辑演算基础。,旨在模仿生物神经元的基本行为。是对应的权重,b是偏置,sgn()是符号函数,它根据输入的正负返回相应的输出值。
2024-10-23 11:42:00
562
原创 自己动手写CPU 第八章学习笔记
如果处于译码阶段的指令是转移指令,并且满足转移条件,那么ID模块设置转移发生标志 branch _fag_o为Branch,同时通过 branch_target_address_o接口给出转移目的地址,送到 PC 模块,后者据此修改取指地址。但是,即使引入延迟槽,在转移发生时仍然会导致已经进入取指阶段的指令无效,也就是说,仍浪费一个时钟周期,要解决这个问题,可以在译码阶段进行转移判断,这样就可以避免浪费时钟周期。情况三:PC等于转移判断的结果。如果是转移指令,且满足转移条件,那么会将转移目标地址赋给PC。
2024-06-12 16:38:41
260
1
原创 一个不难的期末设计--推箱子游戏
推箱子小游戏是一款经典的益智游戏,它的目标是在二维网格中移动箱子,将其推至指定位置。游戏的目标是将所有箱子推至目标位置,一旦所有箱子都被推到位,游戏即告胜利。玩家可以通过键盘控制玩家的移动方向,推动箱子,直到所有的箱子都被推至目标位置,即可通关。如果角色前方有箱子,会尝试推动箱子,同时检查箱子后面是否有墙体或另一个箱子,以防止箱子重叠或推不动。推箱子游戏的交互设计主要是指玩家如何与游戏进行互动,包括玩家的移动方式、推动箱子的方式、输入设备的响应等。本程序开发环境为Visual Studio 2022。
2024-06-11 15:42:47
884
原创 自己动手写CPU 第七章学习笔记
一共有15条,包括加法、减法、比较、乘法等指令,这些指令在流水线的执行阶段只需要一个周期,且只需要修改译码和执行阶段就可以实现。
2024-06-10 20:01:34
1664
原创 第三届全国大学生C语言程序设计大赛练习题
第一次从待排序的数据元素中选出最小的一个元素,存放在序列的起始位置,然后再从剩余的未排序元素中寻找到最小元素,然后放到已排序的序列的末尾。1-1/2+1/3-1/4+......+1/m 例如:当n=20时,表达式的值为0.668771。例如:原来的顺序为8,6,5,4,1。编写函数fun(),它的功能是求n以内(不包括n)同时能被5与11整 除的所有自然数之和的平方根s,并作为函数值返回。2.fun函数的输入值为n,但是后面函数处理的值为m,把fun括号内的n改成m或把函数内部所有的m改为n。
2024-06-10 15:33:07
2199
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人