自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 Unity框架:公共Mono类

在没有继承MonoBehaviour类的类中。我们是不能使用MonoBehaviour类中的一些功能的。那我们如果想在没有继承MonoBehaviour类的类中使用协程怎么办呢?这就需要我们引入公共Mono类。

2023-08-28 12:33:22 269 1

原创 Unity框架:事件中心

【代码】Unity框架:事件中心。

2023-08-28 11:27:58 383 1

原创 采用状态模式的FSM有限状态机

【代码】采用状态模式的FSM有限状态机。

2023-08-28 11:01:08 168 1

原创 Unity继承Mono的单例模式基类

【代码】Unity继承Mono的单例模式基类。

2023-08-22 01:52:04 285 1

原创 C#通用单例模式的基类

一言:学了这么长时间的计算机,学了这么长时间的做游戏,都没写过几篇文章记录一下。今天就写一个简单的单例基类来当作写博客的开始吧。

2023-08-22 01:37:57 537 1

原创 【22-23 春学期】人工智能基础--AI作业12-LSTM

重置门根据当前时间步的输入和前一个时间步的隐藏状态,决定在当前时刻需要遗忘多少旧的记忆和忽略前一个时刻的隐藏状态。它通过将输入数据和前一个时刻的隐藏状态进行加权求和,并经过一个Sigmoid激活函数,输出一个0到1之间的值,表示需要遗忘多少旧的记忆。更新门根据当前时间步的输入和前一个时间步的隐藏状态,决定在当前时刻需要保留多少旧的记忆和旧的隐藏状态。重置门的作用是根据当前输入和历史上下文信息选择性地遗忘旧的记忆和忽略前一个时刻的隐藏状态,从而在后续的时间步中产生新的隐藏状态。

2023-06-14 17:56:13 263

原创 【22-23 春学期】AI作业11-RNN

需要注意的是,由于RNN中存在时间步的依赖关系,BPTT算法会根据时间展开网络,将每个时间步视为独立的层,并在计算梯度时进行展开。BPTT算法基于反向传播算法的思想,通过计算损失函数对网络参数的梯度,从最后一个时间步开始,按时间的反方向逐步向前传播梯度,并更新网络参数。在每个时间步,将当前时间步的输入和前一个时间步的隐藏状态作为输入,通过网络的前向传播计算得到当前时间步的输出。序列数据是指按照时间或顺序排列的一系列数据点或事件。在每个时间步,根据当前时间步的梯度和后一个时间步的梯度,计算当前时间步的梯度。

2023-06-14 17:55:08 128

原创 AI作业10-经典卷积网络

VGG Net在当年的ImageNet大规模视觉识别挑战(ILSVRC)中取得了优异成绩,以其简洁的结构和卓越的性能获得了广泛关注。VGG Net的核心思想是通过使用较小的卷积核(如3x3)和多个连续卷积层来增加网络深度,从而提高模型的表达能力。VGG Net有多个版本,如VGG-16和VGG-19,这些数字代表网络中包含的权重层(卷积层和全连接层)的数量。尽管AlexNet最初是针对ImageNet数据集开发的,但它的架构和训练方法也可以应用于其他图像分类任务,如CIFAR数据集。

2023-06-14 17:53:58 60

原创 【22-23 春学期】AI作业9-卷积3-XO识别

2. Pytorch版本:调用函数完成 卷积-池化-激活。

2023-05-22 00:11:36 64 1

原创 【22-23 春学期】AI作业8-卷积2

高级特征则是指基于中级特征构建的更加抽象和复杂的特征,如物体的部件、结构、语义等,这些特征能够更好地描述物体的高层次语义信息,因此对于更加复杂的任务(如目标检测、语义分割等)的效果会更好。低级特征通常指一些较为基础的、直接从原始数据中提取的特征,如颜色、纹理、边缘等,它们通常对于物体的分类或识别任务并不十分有效,但是可以作为中级特征的基础。中级特征则是指基于低级特征构建的一些更高层次的特征,如形状、轮廓、纹理组合等,这些特征能够更好地描述物体的形态和结构,因此对于分类或识别任务的效果会更好。

2023-05-22 00:07:18 60 1

原创 【22-23 春学期】AI作业7-卷积

一、简单描述卷积、卷积核、多通道、特征图、特征选择概念。卷积是一种数学运算,其实质是在两个函数之间进行积分运算。在计算机视觉领域中,卷积主要是通过滑动卷积核在输入数据上进行特征提取和图像处理。卷积核是一组固定的权重参数,用于对输入数据进行特征提取和卷积运算。卷积核通常是一个小的矩阵或者是一组矩阵,其大小和形状可以根据需要进行调整。卷积核的大小和形状决定了卷积运算提取特征的方式。多通道是指输入数据中包含了多个通道的信息,例如RGB彩色图像就包含了3个通道的信息,分别是红色通道、绿色通道和蓝色通道。

2023-05-22 00:05:50 112 1

原创 【22-23 春学期】AI作业6-误差反向传播

这么来说,梯度下降的概念有点过于抽象了。使用梯度下降的方法来求解,那么我们可以看成,在抛物线上的一点,每次都向着函数映射值降低的方向移动,而每次又以移动过后的点为基准,继续向着函数映射值降低的方向移动,直到这个点移动到了整个函数的最低点。在人工神经网络算法在实际运行过程中,一般分为输入层、隐藏层、和输入层三类,当算法输出结果和目标结果出现误差时,算法会对误差值进行计算,然后通过反向传播将数值传回至隐藏层,通过修改相关参数进行调整,并再次通过算法计算获取输出结果,通过不断重复该过程,得到与预期相符的结果。

2023-05-07 00:05:37 65

原创 【22-23 春学期】AI作业5-深度学习基础

其中,sigmoid函数和tanh函数是传统的激活函数,ReLU函数及其变种(Leaky ReLU、ELU等)是目前使用最广泛的激活函数,softmax函数主要用于多分类问题。深度学习是机器学习的一种,它基于神经网络模型,利用多层次的非线性变换对数据进行建模和分析,可以处理更复杂的任务。在神经网络中,如果没有激活函数,所有的神经元的输出都是线性的,多层神经网络的输出也是线性的,无法处理非线性问题。神经网络是深度学习的基础,是一种由神经元和它们之间的连接组成的网络模型,可以用于解决分类、回归、聚类等问题。

2023-04-17 19:41:47 86

原创 【22-23春学期】AI作业4-无监督学习

奇异值分解是唯一的。K-means算法的基本思想是将数据点分为K个簇,每个簇内的数据点的距离最近,而簇间的距离最远。它的目标是通过某种线性投影,将高维的数据映射到低维的空间中,并期望在所投影的维度上数据的信息量最大(方差最大),以此使用较少的数据维度,同时保留住较多的原数据点的特性。PCA是无监督学习算法,不需要预先标记数据,适用于数据点比较少的情况,用于降低数据的维度,去掉原始数据中的冗余信息,同时保留数据的主要特征,PCA是将原始数据投影到一个新的空间中,选择样本点投影具有最大方差的方向。

2023-04-12 12:27:30 290 1

原创 【22-23 春学期】AI作业3-监督学习

在监督学习中,模型的目标是学习输入和输出之间的关系,以便在给定新的输入时,能够预测其相应的输出。在无监督学习中,模型的目标是学习数据之间的内在结构或模式,而无需知道任何标注数据的信息。KNN(k-nearest neighbors)是一种基于实例的学习方法,它通过测量不同数据点之间的距离来预测新数据点的分类。分类是一种判别式方法,它的目标是根据已有的标记数据(即带有标签的数据)将新的数据点分到某个已知的类别中。判别式模型是一种机器学习模型,它试图直接学习输入和输出之间的映射关系,而不是学习数据的生成过程。

2023-03-22 21:35:45 85

原创 【22-23 春学期】AI作业2-监督学习

在每一轮训练中,AdaBoost 根据前一轮分类错误的样本的权重,调整样本权重,并训练一个新的弱分类器。PAC 假设样本是独立同分布的,并且对于任意给定的精度和置信度,算法都能够在有限的样本量下获得一个接近正确的分类器。PAC 学习的理论证明了机器学习问题的可解性,即在一定条件下,机器学习问题是可解的。信息熵用于衡量数据的不确定性,信息熵越大,数据的不确定性就越高。L1正则化会让一部分模型参数为零,从而实现特征选择的效果,而L2正则化则会让所有模型参数都趋向于很小的值,从而让模型更加平滑。

2023-03-19 19:35:43 65

原创 【22-23 春学期】AI作业1-ML基础

欠拟合则是指模型无法很好地拟合数据,表现出的误差较大,通常是由于模型过于简单或者数据特征不足导致的。无监督学习则是指在数据集中没有标记的情况下,通过分析数据本身的结构和特征,来寻找其中的规律和关系。是用来训练模型的数据集,测试集是用来评估模型性能的数据集,验证集则是用来调整模型超参数的数据集,通常将数据集划分为训练集、测试集和验证集。是指模型在训练集上的平均误差,期望风险则是指模型在所有可能输入上的平均误差,通常我们的目标是通过优化经验风险来使期望风险最小化。

2023-03-14 22:19:10 146 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除