自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 傅里叶展开理解入门

傅里叶展开理解入门

2025-03-19 19:13:59 438

原创 计算机视觉图像点运算【灰度直方图均衡化图形界面实操理解 +开源代码】

数字图像点运算图形化界面搭建 灰度直方图均衡化实操

2025-03-09 18:03:03 1299

原创 哈希表问题总结【例题+代码】

C/C++哈希表问题总结

2025-03-08 14:34:31 837

原创 Vue3伪类伪元素、动画效果(代码实例)

伪元素开头为双冒号。比如,::before就是一个伪元素的示例。伪元素已经可以用css自定义,所以实际上的作用是减少标签数目,在浏览器渲染调试的时候可以少一点标签,让代码简洁好读。

2025-03-08 10:45:42 573

原创 Vue开发前端导航栏设计【常见问题+示例代码】

本文中实现了一个前端代码比较完善的Nav开发,展示了各种可能遇到的问题,希望能对读者有所帮助。

2025-03-06 20:59:16 665

原创 动态规划【股票买卖问题总结】

股票买卖动态规划总结

2025-03-04 19:25:49 373

原创 Vue3前端开发页面框架搭建【示例代码+调试步骤】

很多vue初学者一开始就在追求如何做出很炫酷的效果,而对页面的整体布局没有一个比较全面的了解,本文旨在提供一个基础的页面布局流程,为前端初学者搭建更好的思维框架。

2025-03-04 17:04:34 1169

原创 拓扑排序【C++实现】

拓扑排序旨在解决有依赖关系的图排序,比如大学排课,先上A课才能上B课,等等这样一系列的依赖顺序,问给出规划一条完整的上课顺序.基本思路就是在图关系中找到入度为0的节点,然后将这个节点从图中删除,以此往复,直到结束。可能会出现问题的地方:如果图中有环,就没有办法找出下一个节点了,因为没有节点入度为0,这也就是说为何拓扑排序可以判断图中有没有环。需要判断是不是环的话,在最后加一个判断看ans的大小是否等于节点数即可。

2025-03-04 14:13:24 276

原创 最小生成树Prim与Kruskal 算法【C++实现】

1584. 连接所有点的最小费用 - 力扣(LeetCode)prim算法核心思路在于初始化边矩阵,设置一个最小距离数组和是否在树中的数组。

2025-03-04 11:00:50 502

原创 机器学习及监督学习概论

假设用神经网络建模房价(输出)与房屋面积(输入)的关系。神经网络权重参数为 ww,目标是学习这些参数的分布。

2025-03-02 19:43:02 961

原创 Transformer XL【详细解析】

目前普遍认为,transformer存在如下局限性:1.输入序列定长,无法捕捉过长的依赖2.解码自回归过程仅仅考虑到了之前已经生成的信息,完成像单词填空类的任务效果可能不会那么好3.attention计算资源消耗过大,复杂度O(N^2)对于问题2,有bert类的架构;对于问题3,有一系列例如gMLP来简化attention操作,以减少计算资源消耗;而Transformer XL 致力于解决问题一,在正式介绍该模型之前,先引入。

2025-02-28 08:00:00 630

原创 【超详细】动态规划子序列问题总结

子序列就是在一个数组中按顺序挑选若干数,子数组是连续的子序列,视为特殊的子序列问题。

2025-02-28 00:01:00 1502

原创 GMLP【Pytorch实现 超详细】

GMLP 的出现背景与Transformer模型及其核心组件——自注意力机制(Self-Attention)有关。Transformer在自然语言处理等领域取得了显著成功,但其自注意力机制存在计算复杂度高、内存消耗大等问题,尤其是在处理长序列时。

2025-02-26 20:18:09 792

原创 VIT(Vision Transformer)【超详细 pytorch实现】

传统的 CNN 通过局部卷积核提取特征,虽然可以通过堆叠多层卷积扩大感受野,但仍然依赖于局部信息的逐步聚合,难以直接建模全局依赖关系。:ViT 使用自注意力机制(Self-Attention),能够直接捕捉图像中所有 patch(图像块)之间的全局关系。这种全局建模能力在处理需要长距离依赖的任务(如图像分类、目标检测)时表现更好。

2025-02-25 22:48:03 746

原创 动态规划入门【思路及易错点解析】

动态规划入门题单笔记以及易错点提醒

2025-02-22 14:29:49 690

原创 LLM4POI【2025 SIGIR】

当前工作主要解决短轨迹问题和冷启动问题,没有注意到如何深度融合多源数据,这些数据如果很好融合就能够精确建模用户行为,甚至推断出数据中没有体现的信息,比如在教学时间访问教学楼的频率可以推断出用户是教师还是学生,显然,这两种群体在假期时间要访问的POI也不同。之前工作存在的弊端:没有充分融合语境信息过度依赖人工设计模式、难以理解复杂模式(主要是统计学习的问题,深度学习解决的挺好)充分融合语境信息有两个挑战需要从原始数据中直接进行信息的提取,避免embedding融合时候的信息损失。

2025-02-21 11:06:02 1235 1

原创 【超详细含面试题】Transformer模型解析

Transformer是一个黑盒模型,经典的应用是输入一串文字序列,转换出另外的文字序列,比如说翻译任务transformer的结构可以分为 输入层、编码层、解码层、输出层,我们接下来逐一进行分析。

2025-02-18 08:49:32 944

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除