- 博客(95)
- 资源 (2)
- 收藏
- 关注
原创 欢乐力扣:合并两个有序链表
将两个升序链表合并为一个新的 升序 链表并返回。新链表是通过拼接给定的两个链表的所有节点组成的。,简单来说就是不断调整链表指针的指向,让其指向两个链表中较小的节点。
2025-03-29 22:45:34
303
原创 欢乐力扣:环形链表
如果链表中有某个节点,可以通过连续跟踪 next 指针再次到达,则链表中存在环。为了表示给定链表中的环,评测系统内部使用整数 pos 来表示链表尾连接到链表中的位置(索引从 0 开始)。注意:pos 不作为参数进行传递。仅仅是为了标识链表的实际情况。用哈希表存储访问过的节点,若重复访问,则说明有环,返回True;如果链表中存在环 ,则返回 true。否则,返回 false。给你一个链表的头节点 head ,判断链表中是否有环。
2025-03-16 16:43:14
130
原创 欢乐力扣:基本计算器
注意:不允许使用任何将字符串作为数学表达式计算的内置函数,比如 eval()。给你一个字符串表达式 s ,请你实现一个基本计算器来计算并返回它的值。
2025-03-16 16:30:06
556
原创 欢乐力扣:有效的括号
给定一个只包括 ‘(’,‘)’,‘{’,‘}’,‘[’,‘]’ 的字符串 s ,判断字符串是否有效。用栈,是左括号则压入栈,右括号的话则出栈比较是否匹配。若不匹配,则返回False。每个右括号都有一个对应的相同类型的左括号。左括号必须用相同类型的右括号闭合。左括号必须以正确的顺序闭合。
2025-03-12 21:43:41
272
原创 欢乐力扣:汇总区间
给定一个无重复元素 的 有序 整数数组 nums。返回恰好覆盖数组中所有数字的最小有序区间范围列表。也就是说nums 的每个元素都恰好被某个区间范围所覆盖,并且不存在属于某个范围但不属 nums 的数字 x。核心思想若有一个元素比前一个元素恰好>1,则更新右边界;否则,就存储一个区间。“a->b” ,如果 a!“a” ,如果 a == b。
2025-03-09 21:47:57
375
原创 欢乐力扣:合并区间
以数组 intervals 表示若干个区间的集合,其中单个区间为 intervals[i] = [starti, endi]。请你合并所有重叠的区间,并返回 一个不重叠的区间数组,该数组需恰好覆盖输入中的所有区间。先将intervals按照左端点进行升序排序,固定住左边,然后遍历不断更新右边的区间即可。
2025-03-09 16:04:35
207
原创 欢乐力扣:最长连续序列
给定一个未排序的整数数组 nums ,找出数字连续的最长序列(不要求序列元素在原数组中连续)的长度。请你设计并实现时间复杂度为 O(n) 的算法解决此问题。其余情况则可以不断累加遍历,动态更新序列长度。
2025-02-26 21:33:18
342
原创 欢乐力扣:存在重复元素二
给你一个整数数组 nums 和一个整数 k ,判断数组中是否存在两个 不同的索引 i 和 j ,满足 nums[i] == nums[j] 且 abs(i - j) <= k。如果存在,返回 true;否则,返回 false。借助哈希表,来不断的存储元素值以及下标,若当前元素已经在字典里,则取出对应下标与k进行比较;若不满足条件,则将当前遍历的元素的下标存入字典,覆盖掉原来的下标。暴力法,直接两层for循环,但会超时。
2025-02-26 21:21:09
428
原创 欢乐力扣:快乐数
主要思路就是,所有正整数一定会步入循环,不会出现无限大的数字,因此,代码可以不考虑这个边界条件;另外,就是用哈希表来记录每次的累加和,用于判断是否进入死循环。定义为:对于一个正整数,每次不断将其转化成 每位数字的平方和。判断是否最终和会为1,是1就是快乐数,否则不是。编写一个算法来判断一个数 n 是不是快乐数。
2025-02-24 21:54:56
317
原创 欢乐力扣:字母异位词分组
给你一个字符串数组,请你将 字母异位词 组合在一起。可以按任意顺序返回结果列表。字母异位词 是由重新排列源单词的所有字母得到的一个新单词。将每个单词排序,并将排序后的单词作为key来存入字典。
2025-02-24 21:27:01
384
原创 欢乐力扣:有效的字母异位词
给定两个字符串 s 和 t ,编写一个函数来判断 t 是否是 s 的 字母异位词。其中字母异位词表示:重新排列字母顺序能变成另外一个词,且每个字符只用一次。由于s和t长度一样,因此,可以首先用哈希表来统计字符出现次数;然后遍历t,每出现一个字符就-1,若<0,则返回False。将两个字符串分别排序后比较是否相等即可。
2025-02-23 14:07:13
282
原创 欢乐力扣:单词规律
给定一种规律 pattern 和一个字符串 s ,判断 s 是否遵循相同的规律。这里的 遵循 指完全匹配,例如, pattern 里的每个字母和字符串 s 中的每个非空单词之间存在着双向连接的对应规律。读者可直接看代码,本质上就是构造两个哈希表来验证是否为互逆的映射。
2025-02-23 11:55:46
296
原创 手撕FocalLoss
为了加深对Focal Loss理解,本文提供了一个简单的手写Demo。根据真实标签yyy的不同,Focal Loss 可以分为两种情况:1) 当真实标签y1y = 1y1FLp−α1−pγlogpFLp−α1−pγlogp2) 当真实标签y0y = 0y0FLp−1−αpγ。
2025-02-22 11:38:02
1086
原创 QARepVGG--含demo实现
在上一篇博文RepVGG中,介绍了RepVGG网络。RepVGG 作为一种高效的重参数化网络,通过训练时的多分支结构(3x3卷积、1x1卷积、恒等映射)和推理时的单分支合并,在精度与速度间取得了优秀平衡。然而,其在低精度(如INT8)量化后常出现显著精度损失。本文将要介绍的QARepVGG(Make RepVGG Greater Again: A Quantization-aware Approach)的提出正是为了解决这一问题。欢迎留言交流讨论。
2025-02-22 11:02:35
514
原创 欢乐力扣:同构字符串
每个出现的字符都应当映射到另一个字符,同时不改变字符的顺序。不同字符不能映射到同一个字符上,相同字符只能映射到同一个字符上,字符可以映射到自己本身。给定两个字符串 s 和 t ,判断它们是否是同构的。如果 s 中的字符可以按某种映射关系替换得到 t ,那么这两个字符串是同构的。同时遍历两个字符串中每个字符,判断取出这两个字符是不是能够互相映射到对方。
2025-02-22 10:43:12
318
原创 欢乐力扣:赎金信
给你两个字符串:ransomNote 和 magazine ,判断 ransomNote 能不能由 magazine 里面的字符构成。如果可以,返回 true;否则返回 false。magazine 中的每个字符只能在 ransomNote 中使用一次。
2025-02-20 21:34:05
295
原创 RepVGGBlock实现
在上一篇博文conv+bn算子融合中,介绍了conv+bn算子融合。本文将要介绍的RepVGG(Re-parameterized Convolutional Neural Network)是一种通过重新参数化技术将复杂的神经网络结构转换为简单的卷积层的方法。这种方法可以在训练时使用复杂的多分支结构,在推理时将其简化为单一的卷积层,从而显著提高推理速度。下一篇将介绍QARepVGG Block,来解决RepVGG Block量化int8掉点问题,敬请期待。
2025-02-19 21:45:58
815
原创 欢乐力扣:旋转图像
给定一个 n × n 的二维矩阵 matrix 表示一个图像。请你将图像顺时针旋转 90 度。你必须在 原地 旋转图像,这意味着你需要直接修改输入的二维矩阵。请不要 使用另一个矩阵来旋转图像。
2025-02-17 21:10:46
374
原创 conv+bn算子合并:原理、推导与实现
本文将详细介绍Conv+BN合并的原理、数学推导以及实现方法,并通过测试用例验证其正确性。通过将卷积层和批量归一化层合并为一个等效的卷积操作,我们可以在推理阶段减少计算量,从而提升模型的推理效率。本文详细介绍了合并的数学原理,并提供了一个完整的PyTorch实现和测试用例。希望本文能帮助读者更好地理解Conv+BN合并的原理和应用。
2025-02-16 15:19:11
755
原创 LDM论文解读
本文就是VQGAN和DDPM的结合。在图像的2D特征向量上做加噪去噪,从而降低DDPM在全像素空间上生成造成计算量大的问题。而且在隐变量上训练DDPM在一定程度上并不会损失生成的细节。
2024-06-30 16:56:09
1022
原创 VQGAN: Taming Transformers for High-Resolution Image Synthesis
本文类似VQVAE,区别在于引入了GAN的思想来强制codebook学到更逼真的图像成分表示,另外,自回归模型替换成了长序建模更强的Transformer来替代PixelCNN。(在codebook上进行自回归是因为Transformer计算代价大)。
2024-06-30 16:53:59
788
原创 VQVAE:Neural Discrete Representation Learning
发表时间:NIPS2017作者及组织:Aaron van den Oord,Oriol Vinyals和Koray Kavukcuoglu, 来自DeepMind。
2024-06-30 16:51:29
1108
原创 End-to-End Multi-Person Pose Estimation with Transformers
本篇论文借鉴DeformableDetr的范式来回归人体2d姿态,有关DeformableDetr可参考:1)
2024-04-14 10:12:03
963
原创 DETR Doesn’t Need Multi-Scale or Locality Design
自Detr以来,后续paper的改进的方向:主要是将归纳偏置重新又引入进Detr结构,比如DINO,ConditionDetr,HybridMatch等。但这与Detr原始简洁的结构设计背道而驰。于是本篇工作旨在保持Detr简洁结构设计上,提高其精度。关于DETR相关内容可参考:1)Detr2)3)4)DAB-DETR5)DN-DETR6)DINO。
2024-03-13 22:18:41
1103
原创 A ConvNet for the 2020s
发表时间:CVPR2022code链接:作者及组织: Zhuang Liu,Hanzi Mao来自Meta和UC Berkeley。一句话总结:仿照swin-T思想,重新设计ResNet结构,使其逼近并超过swin-T。
2024-01-31 18:40:07
432
原创 On Data Scaling in Masked Image Modelin
本文验证SIMMIM无监督预训练方法,是否会出现与NLP类似的拓展法则现象。
2024-01-17 20:37:29
929
原创 SimMIM: a Simple Framework for Masked Image Modeling
本文提出一种新的自监督视觉预训练方法,是跟MAE同期工作 ,两篇论文有点儿类似,但本文较MAE额外验证MIM在swin-transformer网络上也有效。
2024-01-17 20:34:08
807
原创 DINO:DETR with Improved DeNoising Anchor Boxes for End-to-End Object Detection
该篇论文在DN-DETR基础上,额外引进3个trick进一步增强DETR的性能:在12epoch下coco上达到了49.0map。本文将分别介绍这3个trick,
2024-01-17 20:31:28
1566
1
原创 DN-DETR:query去噪训练加速Detr收敛
该篇论文发现Detr收敛慢原因来自匈牙利一对一匹配,于是在训练阶段额外引入object query来学习加噪的gt,提高了收敛速度和精度。
2024-01-17 20:27:06
1386
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人