- 博客(17)
- 收藏
- 关注
原创 Vue3伪类伪元素、动画效果(代码实例)
伪元素开头为双冒号。比如,::before就是一个伪元素的示例。伪元素已经可以用css自定义,所以实际上的作用是减少标签数目,在浏览器渲染调试的时候可以少一点标签,让代码简洁好读。
2025-03-08 10:45:42
573
原创 Vue3前端开发页面框架搭建【示例代码+调试步骤】
很多vue初学者一开始就在追求如何做出很炫酷的效果,而对页面的整体布局没有一个比较全面的了解,本文旨在提供一个基础的页面布局流程,为前端初学者搭建更好的思维框架。
2025-03-04 17:04:34
1169
原创 拓扑排序【C++实现】
拓扑排序旨在解决有依赖关系的图排序,比如大学排课,先上A课才能上B课,等等这样一系列的依赖顺序,问给出规划一条完整的上课顺序.基本思路就是在图关系中找到入度为0的节点,然后将这个节点从图中删除,以此往复,直到结束。可能会出现问题的地方:如果图中有环,就没有办法找出下一个节点了,因为没有节点入度为0,这也就是说为何拓扑排序可以判断图中有没有环。需要判断是不是环的话,在最后加一个判断看ans的大小是否等于节点数即可。
2025-03-04 14:13:24
276
原创 最小生成树Prim与Kruskal 算法【C++实现】
1584. 连接所有点的最小费用 - 力扣(LeetCode)prim算法核心思路在于初始化边矩阵,设置一个最小距离数组和是否在树中的数组。
2025-03-04 11:00:50
502
原创 Transformer XL【详细解析】
目前普遍认为,transformer存在如下局限性:1.输入序列定长,无法捕捉过长的依赖2.解码自回归过程仅仅考虑到了之前已经生成的信息,完成像单词填空类的任务效果可能不会那么好3.attention计算资源消耗过大,复杂度O(N^2)对于问题2,有bert类的架构;对于问题3,有一系列例如gMLP来简化attention操作,以减少计算资源消耗;而Transformer XL 致力于解决问题一,在正式介绍该模型之前,先引入。
2025-02-28 08:00:00
630
原创 GMLP【Pytorch实现 超详细】
GMLP 的出现背景与Transformer模型及其核心组件——自注意力机制(Self-Attention)有关。Transformer在自然语言处理等领域取得了显著成功,但其自注意力机制存在计算复杂度高、内存消耗大等问题,尤其是在处理长序列时。
2025-02-26 20:18:09
792
原创 VIT(Vision Transformer)【超详细 pytorch实现】
传统的 CNN 通过局部卷积核提取特征,虽然可以通过堆叠多层卷积扩大感受野,但仍然依赖于局部信息的逐步聚合,难以直接建模全局依赖关系。:ViT 使用自注意力机制(Self-Attention),能够直接捕捉图像中所有 patch(图像块)之间的全局关系。这种全局建模能力在处理需要长距离依赖的任务(如图像分类、目标检测)时表现更好。
2025-02-25 22:48:03
746
原创 LLM4POI【2025 SIGIR】
当前工作主要解决短轨迹问题和冷启动问题,没有注意到如何深度融合多源数据,这些数据如果很好融合就能够精确建模用户行为,甚至推断出数据中没有体现的信息,比如在教学时间访问教学楼的频率可以推断出用户是教师还是学生,显然,这两种群体在假期时间要访问的POI也不同。之前工作存在的弊端:没有充分融合语境信息过度依赖人工设计模式、难以理解复杂模式(主要是统计学习的问题,深度学习解决的挺好)充分融合语境信息有两个挑战需要从原始数据中直接进行信息的提取,避免embedding融合时候的信息损失。
2025-02-21 11:06:02
1235
1
原创 【超详细含面试题】Transformer模型解析
Transformer是一个黑盒模型,经典的应用是输入一串文字序列,转换出另外的文字序列,比如说翻译任务transformer的结构可以分为 输入层、编码层、解码层、输出层,我们接下来逐一进行分析。
2025-02-18 08:49:32
944
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人