自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 问答 (1)
  • 收藏
  • 关注

原创 数据结构学习笔记(3):栈

int top;}SqStack;包含一个存储元素的数组和一个栈顶指针。值得注意的是,一般top为数组的下标,所以top最大取值为MaxSize-1。

2025-02-21 03:15:48 1196

原创 数据结构学习笔记(2):链表

结构体内包括data和next,然后我们给这个结构体取名叫LNode还有别名LinkList,一般我们编程的时候,使用LNode作为一个节点名称,LinkList作为这个链表的名称。

2025-02-18 04:27:11 952

原创 杂谈篇:开发日记(1)

一个是文件的相互读录可能会造成误差的累计,最后导致脚本的崩坏,对游戏存档造成不可逆转的损失。在开发者做游戏的初期就已经设置好控件的位置,所以控件是游戏界面的一个部分,它们是一个整体。因为我之前也有录制脚本的经验,所以一开始我是想用脚本精灵进行录制,随后再导出录制得到的.json文件,然后把这个文件放入Python程序中,使用Python程序进行脚本的复现,从而完成整个脚本的实现。只需要我们在脚本运行之前,先对游戏画面进行绑定,随后就可以计算各个控件的位置,就可以模拟鼠标或者键盘的按动,从而实现整个脚本。

2025-02-16 16:54:08 1219

原创 数据结构学习笔记(1):顺序表

如果一个数据结构的逻辑结构是线性表,而物理结构是顺序存储,那么这个数据结构就是一个顺序表。换而言之,使用顺序存储的线性表就是顺序表。顺序表的存储有静态分配和动态分配两种方式。静态分配是用一个数组来表示顺序表,因为数组的大小不变,所以叫静态分配。int Length;}SqList;代码直接向计算机申请了长度为Maxsize*sizeof(Elemtype)的内存的数组作为顺序表的元素存储空间,同时申请了一个整型变量Length来记录当前顺序表长度。

2025-02-13 00:52:08 684

原创 杂谈篇:线性化与泰勒展开

接下来,如果要解算接收机的坐标,我们就可以假设伪距观测的误差是e,然后列最小二乘原理间接平差方程就行了,这里不详细讲,有兴趣的朋友可以看我上一篇文章《深度理解最小二乘》。这里的dx,dy,dz指的是初值与真实值的差值,这里假设它们是一个很微小的值,所以用微分符号。这就不得不把提起线性化的几何意义了,它的几何意义是在方程的某个点上,拟合一个小区域精度高的直线方程,类似作切线。线性化的目的是将问题中的非线性部分用一个线性的部分代替,把问题转化为线性问题,这样比较好解决。线性化,那我们的第一步是将。

2024-12-13 00:14:20 362

原创 杂谈篇:深度理解最小二乘

最大似然法是已经知道当前数据下的大分布(最小二乘法假设残差的分布是正态分布,所以我们这里就统一分布为正态分布),并且已经得到各个数据的值,随后用这些值估计这个概率分布的最优参数的方法。其实真实值我们永远也无法得到,所以这里的真实值,我们可以大致理解成最后拟合出来的,质量比较好的值。这里也可以看成是残差的平方,平方是因为残差有正有负,为了消除符号的影响引入的。最小二乘法估计在我们的生活中无处不在,特别是工程中,它可以说是最基础的方法之一。之前我有文章写过线性回归的相关内容,而它是基于最小二乘法原理进行的。

2024-12-11 13:25:44 951

原创 初学者:神经网络(2)

前人把将线性运算非线性化的函数称之为“激活函数”,在神经网络中,运算往往是一层层进行的,我们把进行非线性化运算的计算层称之为“激活函数”。那么问题又来了,上篇文章的时候我们说了神经网络的训练方法是梯度下降,那么如果引入了激活函数,那么该如何训练神经网络?这样的神经网络复杂度往往不能满足实际的要求。上一篇文章中我们说神经网络的基本结构,神经网络训练的基本原理,这篇文章我们先来说一说神经网络中一个特别重要的东西---激活函数。但是问题就来了,如果使用上述式子计算神经网络,那么神经网络的输出将会是线性的。

2024-12-11 13:24:19 938

原创 初学者:神经网络(1)

再介绍一下梯度,梯度是高等数学里面的定义,表示某一函数在该点处的方向导数沿着该方向取得最大值,乍一看很复杂,相信很多人在这一步就已经没有继续学习神经网络的勇气。损失函数是什么,举个很简单的例子:工程测量中会有误差的出现,比如一栋占地为矩形的楼房的长为10米,一个人目测长为12米,这多出的2米就是误差。如上图所示,x是我们输入的变量,h是神经元,y是输出的值。学习率r不易太大,前面也说了,学习率r是决定球滚得快不快的因素,如果球滚的太快,有可能会滚出波谷,也就是直接跳过最优解,导致神经网络性能不佳。

2024-12-10 10:33:40 1629 1

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除