- 博客(36)
- 收藏
- 关注
原创 二叉树的四种遍历总结
本文介绍了二叉树的四种遍历方式及其实现方法。先序遍历采用"根-左-右"顺序,提供递归和栈迭代两种实现;中序遍历按"左-根-右"顺序,同样包含递归和迭代版本;后序遍历遵循"左-右-根"顺序,使用递归和双栈迭代实现;层序遍历则采用队列实现广度优先搜索。每种遍历方法都给出了清晰的Java代码示例,包括递归辅助函数和迭代使用的栈/队列数据结构,展示了不同遍历策略的具体实现细节。
2025-12-01 12:26:34
96
原创 JAVA中的堆和栈
Java中的"堆"和"栈"有双重含义:JVM内存模型中的堆(存储对象实例)和栈(存储局部变量与方法帧),以及数据结构中的堆(完全二叉树)和栈(LIFO线性表)。优先队列(PriorityQueue)是基于堆实现的高级容器,用于优先级调度。JVM堆是线程共享、GC管理的对象存储区,栈是线程私有、方法调用的快速存储区;数据结构栈适合表达式求值,堆适合TopK问题。优先队列结合了两者优势,提供高效的优先级元素访问能力,广泛应用于任务调度和数据处理场景。
2025-10-30 19:16:44
1017
原创 动态规划总结
动态规划是解决复杂问题的有效算法,其核心思想是将问题分解为重叠子问题,通过存储中间结果避免重复计算。关键要素包括:重叠子问题、最优子结构和状态转移方程。典型应用场景包括:1)一维DP(斐波那契数列、爬楼梯);2)二维网格DP(最小路径和);3)字符串处理(LCS、编辑距离);4)股票买卖问题(状态机DP);5)背包问题(0-1/完全背包)。解题步骤为:定义状态→推导转移方程→初始化边界→确定计算顺序。优化手段包括空间压缩(滚动数组)和状态简化。不同场景需灵活选择一维或多维状态表示,并注意边界条件的处理。
2025-10-28 15:56:07
1171
原创 二分查找算法总结
二分查找是一种针对有序数组的高效搜索算法,时间复杂度O(logn)。其核心是通过比较中间元素与目标值,不断将搜索范围减半。文章详细介绍了三种实现方式:1)基础二分查找,判断目标是否存在;2)左边界查找,返回目标首次出现的位置;3)右边界查找,返回目标最后出现的位置。每种实现都给出了具体代码示例,并强调了边界更新的关键点:避免死循环、防止整数溢出、正确处理重复元素。文章还指出常见错误,如区间定义不一致、边界更新不当等,并提供了相应解决方案。
2025-10-28 15:41:44
1006
原创 高效VLM:VisionZip
《VisionZip:视觉语言模型中的高效视觉标记压缩方法》针对现有视觉语言模型(VLMs)存在的视觉标记冗余问题,提出了一种创新解决方案。研究发现,传统VLMs使用长序列视觉标记会导致计算成本高昂,且大量标记注意力权重趋近于零,存在显著冗余。VisionZip通过两阶段处理(保留主导标记+合并次要标记),在仅保留10%标记的情况下实现95%的原模型性能,并将LLaVA-NeXT模型的预填充时间减少8倍。该方法支持无训练应用、高效微调和从头训练三种模式。
2025-06-04 20:42:13
991
原创 个性化VLM:MC-LLaVA解读
MC-LLaVA提出首个多概念个性化视觉语言模型,突破现有单概念模型的局限。通过多概念联合训练框架和视觉嵌入初始化文本提示技术,有效解决多概念场景下的参数冲突和数据依赖问题。方法包含三个创新:1)使用视觉特征聚类初始化概念标记,减少对负样本的依赖;2)构建概念关联的系统提示;3)推理时引入置信图聚合机制提升多概念定位精度。实验表明,仅需每个概念10张训练图像,即可在保持单概念性能的同时显著提升多概念处理能力。该方法实现了高效参数微调和模块化权重保存,为个性化VLM提供了实用解决方案。代码已开源。
2025-06-01 13:51:58
686
原创 GPT3 与 GPT2 的异同
GPT-3 是 GPT-2 的显著升级版本,通过增加模型规模、改进训练数据和方法,以及增强少样本学习能力,GPT-3 在多种自然语言处理任务上表现出色,展示了大型语言模型在通用性和适应性方面的巨大潜力。尽管 GPT-3 仍有一些局限性,但其在文本生成和理解方面的进步为未来的研究和应用提供了新的方向。
2025-02-27 19:56:50
1117
原创 GPT1 与 GPT2 的异同
GPT2主要探讨了语言模型在没有明确监督的情况下,通过在大规模网页文本数据集(WebText)上进行训练,能够学习执行多种自然语言处理任务的能力。研究团队通过实验展示了语言模型在问答、机器翻译、阅读理解等任务上的表现,并分析了模型容量对性能的影响。背景知识自然语言处理任务:通常需要通过监督学习在特定数据集上进行训练,如问答、机器翻译、阅读理解和文本摘要等。语言模型:通过预测文本序列中的下一个词来学习语言的统计规律,通常被视为无监督学习任务。GPT-2。
2025-02-27 19:45:33
1104
原创 GPT 与BERT的异同
GPT1介绍了一种通过生成式预训练(Generative Pre-Training)来提升语言理解能力的方法。这种方法首先在一个大型的未标注文本语料库上进行语言模型的预训练,然后针对具体的任务进行判别式微调(discriminative fine-tuning)。文章详细阐述了这种方法的动机、相关工作、框架、实验结果以及分析。背景知识与研究动机自然语言理解(NLU)涉及多种任务,如文本蕴含、问答、语义相似度评估和文档分类等。这些任务通常面临标注数据稀缺的问题,限制了基于判别式训练模型的性能。
2025-02-27 19:42:00
995
原创 EfficientNet:对模型深度、宽度和分辨率的混合缩放策略
这张图可以清晰明了的显示EfficientNet 的卓越表现,一句话总结:更小的模型、更快的速度、更好的效果。
2024-12-19 15:31:29
1559
原创 Swin Transformer变体2:Swin Transformerv2模型
对Swin Transformer的举出模型做了一定的修改,模型性能大幅提升
2024-12-13 16:43:07
1496
原创 2022春计算机系统大作业
计算机系统大作业题 目 程序人生-Hello’s P2P 专 业 计算机 学 号 班 级 学 生 指 导 教 师 计算机科学与技术学院2021年5月摘 要 本文主要阐述了一个孤独的hello.c文件是怎么在linux系统中一步步......
2022-05-16 21:04:56
2619
原创 关于程序优化的一些思考
目 录第1章 实验基本信息1.1 实验目的1.2 实验环境与工具1.2.1 硬件环境1.2.2 软件环境1.2.3 开发工具1.3 实验预习第2章 实验预习2.1 程序优化的十大目标(5分)2.2性能优化的方法概述(5分)2.3 Linux下性能测试的方法(5分)2.4 Windows下性能测试的方法(5分)第3章 性能优化的方法第4章 性能优化实践第1章 实验基本信息1.1 实验目的理解程序优化的10个维度熟练利用..
2022-05-13 21:55:12
2383
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
2