- 博客(250)
- 收藏
- 关注
原创 MySQL学习记录
类似于查看数据库,查看表,修改数据库名字,修改表属性等操作都是DDL操作。但是由于非常不方便,而且现在的图形化MySQL操作界面非常发达,所以通常我们都选择使用图形化界面来操作数据库,感兴趣的可以了解一下DDL。
2024-08-31 21:07:39
1816
原创 Mysql学习记录补充
B树,又称多路平衡查找树,B树中所有结点的孩子个数的最大值称为B树的阶,通常用m表示。一棵m阶B树或为空树,或为满足如下特性的m叉树:1.树中每个结点至多有m棵子树,即至多含有m−1个关键字。2.若根结点不是终端结点,则至少有两棵子树。3.除根结点外的所有非叶结点至少有⌈m/2⌉棵子树,即至少含有⌈m / 2 ⌉−1个关键字。4.所有非叶结点的结构如下:其中,n为元素个数,K代表节点的关键字,P代表指针。满足K1
2024-04-15 11:26:31
986
原创 MYSQL学习笔记
类似于查看数据库,查看表,修改数据库名字,修改表属性等操作都是DDL操作。但是由于非常不方便,而且现在的图形化MySQL操作界面非常发达,所以通常我们都选择使用图形化界面来操作数据库,感兴趣的可以了解一下DDL。
2024-03-29 16:47:20
1507
原创 JVM学习记录
查看JAVA两个类加载器父类ClassLoader的实现代码,可以发现findclass是实现双亲委派机制的重要代码。如下是loadclass的源码。// 检查类是否已经被加载了Class<?if (c == null) { //没有try {//双亲委派机制加载if (parent!= null) {} else {//真正将字节码文件加载到内存。return c;
2024-02-12 09:24:41
812
原创 JAVA多线程并发补充
是一个抽象父类全称是 AbstractQueuedSynchronizer,是阻塞式锁和相关的同步器工具的框架。子类主要实现这样一些方法(默认抛出 UnsupportedOperationException)基于AQS实现自定义同步器。这里需要实现上述的五个方法。自定义锁使用自定义锁。
2024-01-29 21:29:10
1057
原创 JAVA多线程并发学习记录
在JDK中,会把只有一个抽象方法的接口注解为@FunctionalInterface,这种接口可以被lambda简化看了源码会直到你用第二种方法时必须传递target否则start()是无法启动新线程的。
2024-01-28 16:24:49
1218
原创 Redis学习记录
场景:网站服务器用tomcat运行起来后发现单个tomcat保存session无法满足如此庞大的用户量,或者所内存不足,我们采用多个tomcat来均衡负载,但是这就会造成session丢失,tomcat提出过多台tomcat共享session,但是这种方式基于拷贝,显然无法根本上解决问题。解决:需要一种tomcat能够共同访问且存于内存的key-value形式存储辅助工具——redis。
2024-01-25 13:28:30
893
原创 DeepSort算法简介
SORT(Simple Online and Realtime Tracking)算法是一种目标追踪算法,其简单有效,基于IOU来匹配,并且融入了卡尔曼滤波和匈牙利算法来降低ID Switch(可以说,追踪算法的目标只有两个:1.提高速度 2.降低ID Switch)Intersection over Union(IoU)分数是对象类别分割问题的标准性能度量SORT算法的组成主要包括三大部分:目标检测,卡尔曼滤波,匈牙利算法。
2023-08-09 22:14:02
1633
1
原创 机器学习——卷积神经网络基础
卷积神经网络是人工神经网络的一种,是一种前馈神经网络。最早提出时的灵感来源于人类的神经元。通俗来讲,其主要的操作就是:接受的输入信息,通过,进行特征的提取与学习,然后通过完成对比,将分类结果通过输出。那么卷积神经网络最重要的任务我认为只有两个:1.如何从原始数据中更好的学到特征信息。2.如何将学到的特征更好的映射到标记样本。这两个任务应该是CNN分类的关键。
2023-08-07 22:12:17
764
原创 机器学习基础知识(1)
机器学习是一种通过输入大量数据来构建一种模型(网络),这个训练好的模型将会被用来预测或执行某些操作,这个训练的过程和方法就是机器学习。我们也可以理解为构建一个“函数”,使得这个函数面对我们的输入数据能够返回出某些结果,而寻找或者说构建这个函数的过程就是机器学习。
2023-08-04 20:35:54
996
原创 深度学习——全维度动态卷积ODConv
动态卷积就是对卷积核进行线性加权第一篇提出动态卷积的文章也是在SE之后,他提出目前的注意力机制模型主要都是在特征图上做工作,而动态卷积它对多个卷积核进行线性加权,加权值则与输入有关,这就使得动态卷积具有输入依赖性。也就是说,对于不同的输入,我们使用不同的卷积核。之后对这些不同的卷积核,进行注意力加权。看这组图片,这是的作者提出的。在两种方式的对比下,发现他们的作用是一样的。
2023-08-03 22:45:21
10088
原创 数据结构——红黑树基础(博文笔记)
0.满足BST的要求1.根节点和叶子节点是黑色的(叶子节点是空节点,下图中将null节点省略)2.对于任意节点,从此节点到任何叶子节点的简单路径上的黑色节点数量一致。3.只有红色和黑色两种颜色的节点4.任意红色节点不相邻顶端为黑,非红即黑,红不相邻,叶路黑同。
2023-08-03 21:13:15
1735
原创 深度学习——常见注意力机制
(2)相比于SE,一方面是提取的全局信息更加充分(其实在后续的实验中说服力不是很强,单独avg pooling+add,只掉了0.3个点,但是更加简洁),另一方面则是加号和乘号的区别,而且在实验结果上,加号比乘号有显著的优势。(1) 相比于SNL,SNL中的transform的1x1卷积在res5中是2048x1x1x2048,其计算量较大,所以借鉴SE的方法,加入压缩因子,为了更好的优化,还加入了layernorm。1.SENet作为通道注意力机制,侧重通道之前的依赖关系,忽略了空间特征的作用。
2023-08-02 22:13:47
1596
1
原创 深度学习——注意力机制、自注意力机制
1.缩放是因为softmax归一化是有问题的,当缩放前的某个元素非常大的时候,softmax会把大部分的概率分给这个大的元素,这就会产生一个类似one-hot的向量,softmax反向传播会导致梯度消失。所以在softmax前缩放,缓解这种问题。2.除以维度的根号因为我们希望输入softmax的数据是均值为0,方差为1。
2023-08-01 20:29:34
2035
原创 Codeforces Round #832 (Div. 2)C,D ICPC澳门 D(模拟) F(构造) G(博弈)
明天还是需要在看看的。还有今天晚上。
2022-11-06 22:13:45
947
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人