- 博客(99)
- 资源 (5)
- 收藏
- 关注

原创 [自动驾驶算法][从0开始轨迹预测]:二、自动驾驶系统中常用的坐标系及相应的转换关系
上一篇文章中,我们介绍了坐标转换的基础知识,接下来,我们将介绍由汽车的传感器到全局定位会涉及到的若干个坐标系统。
2024-01-16 17:01:23
2763

原创 [自动驾驶算法][从0开始轨迹预测]:一、坐标系和坐标系变换
既然要从0开始轨迹预测,那从哪开始写起呢?回想下自己的学习历程,真正有挑战性的不是模型结构,不是繁琐的训练和调参,而是数据的制作!!!笔者自认为不是一个数学基础牢固的人,那么我们的轨迹预测之旅就从坐标转换开始吧~~~由难至简,才能做到【删繁就简三秋树,领异标新二月花】,专注于轨迹预测的核心算法。
2024-01-13 03:01:19
2115
原创 Python魔术方法
魔术方法(Magic Methods),又称为双下划线方法(Dunder Methods),是Python中以双下划线开头和结尾的方法,例如__init__和__str__。它们允许我们自定义类在特定情况下的行为,例如使用运算符、内置函数或特定Python语句时。通过魔术方法,我们可以使类的行为更像内置类型,提供更丰富的接口。
2024-10-24 13:45:39
1315
原创 [深度学习][LLM]:浮点数怎么表示,什么是混合精度训练?
在日常深度学习训练中,一般使用来表示参数并进行相关训练任务。那么浮点数在内存中是如何存储的呢?在正式开始介绍混合精度训练之前,让我们先对相关基础知识进行介绍。
2024-09-04 18:03:42
1302
原创 [LLM]:检索增强生成技术:RAG
检索增强生成(Retrieval-Augmented Generation, RAG)技术旨在通过信息检索系统从外部知识库中获取相关信息,为大语言模型提供时效性强、领域相关的外部知识,以减少大语言模型生成内容中的错误。
2024-09-02 14:41:08
1165
原创 [LLM]:大模型(Transformer)参数量分析
最近,OpenAI推出的ChatGPT展现出了卓越的性能,引发了大语言模型(Large Language Model, LLM)的研究热潮。大规模语言模型的“大”体现在两个方面:模型参数规模大,训练数据规模大。以GPT3为例,GPT3的参数量为1750亿,训练数据量达到了570GB。显存效率和计算效率。encoder-decoder(代表模型是T5)、encoder-only(代表模型是BERT,也叫Masked-Language Model,MLM)以及。
2024-08-31 14:48:24
1552
原创 [LLM][Prompt Engineering]:大语言模型提示工程(Prompt Engineering)
大语言模型(LLM)的微调(Fine-tune)代价较高,基于自然语言的提示(Prompt)方法已经成为了使用大语言模型解决下游任务的主要途径。而且提示的质量在很大程度上会影响大语言模型在特定任务中的表现。当前的很多工作和应用集中在如何快速应用LLM,使其适配下游任务,所采用的方法统称为Prompt Engineering,其中包括了上下文学习(In-Context Learning,ICL)和思维链提示(Chain-of-Thought,CoT)
2024-08-30 10:32:05
1346
原创 [LLM][Prompt Engineering]:思维链(CoT)
强大的逻辑推理是大“智能涌现”出的核心能力之一。推理:一般指根据几个已知的前提推导得出新的结论的过程,区别于理解,推理一般是一个“多步骤”的过程,推理的过程可以形成非常必要的“中间概念”,这些中间概念将辅助复杂问题的求解。思维链提示(Chain-of-Thought,CoT)作为上下文学习的一种扩展形式,旨在增强大语言模型在各类复杂推理任务上的表现。常见的推理任务包括算术推理、常识推理以及符号推理多种任务。与方法仅来构造提示不同,思维链提示进一步融合了。将原始的 $⟨ 输入,输出⟩ $ 映射关系转换为。
2024-08-29 17:10:41
1788
原创 [LLM][Prompt Engineering]:大语言模型上下文学习-What、How、Why?
上下文学习是使用由任务描述和(或)示例所组成的自然语言文本作为提示的提示策略。如下图所示,首先,**通过自然语言描述任务**,并**从任务数据集中选择一些样本作为示例**。其次,根据特定的模板,将这些示例按照特定顺序组合成提示内容。最后,将测试样本添加到提示后面,整体输入到大语言模型以生成输出。基于任务描述以及示例信息,LLM**无需显式的梯度更新即可识别和执行新的任务**。
2024-08-29 13:56:44
1623
原创 [从0开始AIGC][LLM]:Pre-Norm or Post-Norm?训练效率还是训练效果?
Pre-Norm和Post-Norm之间的对比是一个“老生常谈“的问题,目前也没有一个比较好的结论解释清楚,当前比较明确的结论是:同一设置下,Pre-Norm结构往往更加容易训练,但最终效果不如Post-Norm。Pre Norm更容易训练好理解,因为它的恒等路径更突出,但为什么它效果反而没那么好呢?
2024-08-27 15:21:46
904
2
原创 [从0开始AIGC][LLM]:LLM中Encoder-Only or Decoder-Only?为什么主流LLM是Decoder-Only?
LLM中Encoder-Only or Decoder-Only & 为什么主流LLM是Decoder-Only?
2024-08-26 17:55:26
2552
原创 [从0开始轨迹预测]:Laplace分布
具有密度函数fx∣μb2b1e−bx−μ的分布叫做拉普拉斯分布;μ是位置参数,b是尺度参数。拉普拉斯分布的期望为μ,方差为2b2,偏度为0,峰度为3。拉普拉斯分布的密度函数,可以看作是两个指数分布函数的概率密度“背靠背”拼接在一起。因此又称(事实上拉普拉斯分布与指数分布确实有很密切的关系)
2024-07-05 23:32:06
1047
原创 [自动驾驶算法][从0开始轨迹预测][文献阅读笔记] [MTR++]:Multi-Agent Motion Prediction with Symmetric Scene Modeling and G
Waymo Open Motion Dataset 2023年冠军方案,较MTR适配了多智能体联合预测的技术方案[自动驾驶算法][从0开始轨迹预测] [文献阅读笔记] [MTR]:Motion Transformer with Global Intention Localization and Local MoMTR仓库。
2024-07-04 17:09:21
1068
原创 [自动驾驶算法][从0开始轨迹预测] [文献阅读笔记] [MTR]:Motion Transformer with Global Intention Localization and Local Mo
MTR模型的整体架构如图所示,(a) 表示稠密未来预测模块,它预测每个智能体的单个轨迹(例如,在上面的 (a) 中绘制为黄色虚线)。 (b) 表示动态地图收集模块,它沿着每个预测轨迹收集地图元素(例如,在(b)的上述部分中沿着每个轨迹绘制为阴影区域)以提供特定于轨迹的地图元素运动解码器网络的功能。 ©表示运动解码器网络,其中𝒦是运动查询对的数量,𝑇是未来帧的数量,𝐷是隐藏特征维度𝑁 是 Transformer 解码器层数。 预测轨迹、运动查询对和查询内容特征是最后一个解码器层的输出,并将作为下一个解
2024-07-04 11:17:49
2232
原创 [从0开始轨迹预测][NMS]:NMS的应用(目标检测、轨迹预测)
任务中,尤其是在的算法时,会产生大量的候选区域,而这些区域可能存在大量的重叠。为了解决这个问题,使用NMS算法来保留最有可能的区域,同时抑制其他冗余或重叠的区域。
2024-07-02 23:49:54
1117
原创 [PyTorch]:加速Pytorch 模型训练的几种方法(几行代码),最快提升八倍(附实验记录)
本篇博文概述了在不影响 PyTorch 模型准确性的情况下提高其训练性能的技术。为此,将 PyTorch 模型包装在 LightningModule 中,并使用 Trainer 类来实现各种训练优化。只需更改几行代码,就可以将单个 GPU 上的训练时间从 22.53 分钟缩短到 2.75 分钟,同时保持模型的预测准确性。性能提升了 8 倍!
2024-07-02 21:03:46
1600
原创 [PyTorch][PyTorch Lightning]:断点续训
日志:保存训练过程中的日志信息,包括损失、指标和训练时间等信息。对象的状态,包括当前的 epoch 和 batch 等信息。优化器状态:保存优化器的状态,包括当前的学习率和动量等信息。参数来控制是否保存模型的权重、最后一次保存的模型权重和。,则只会保存模型的权重,而不会保存其他信息。在需要从断点继续训练的时候,创建一个新的。参数来指定要继续训练的模型状态的路径。对象的状态以及其他信息。参数来指定要恢复训练的检查点路径。参数,以指示从该检查点处恢复训练。回调来保存模型的状态。模型权重:保存模型的权重参数。
2024-05-14 10:50:39
2995
3
原创 [从0开始AIGC][Transformer相关]:算法的时间和空间复杂度
算法是指用来操作数据、解决程序问题的一组方法。对于同一个问题,使用不同的算法,也许最终得到的结果是一样的,但是过程中消耗的资源和时间却会有很大区别。那么如何衡量不同算法之间的优劣?主要还是从算法所占用的时间和空间两个维度去考量。
2024-04-09 21:48:42
2568
1
原创 [从0开始AIGC]: 如何区分并记住常见的几种 Normalization 算法
这里再重复一下上文的类比。如果把x∈RN×C×H×Wx∈RN×C×H×W类比为一摞书,这摞书总共有 N 本,每本有 C 页,每页有 H 行,每行 W 个字符。计算均值时BN 相当于把这些书按页码一一对应地加起来(例如:第1本书第36页,加第2本书第36页…),再除以每个页码下的字符总数:N×H×W,因此可以把 BN 看成求“平均书”的操作(注意这个“平均书”每页只有一个字)
2024-04-09 21:40:50
1014
原创 [Pytorch]:PyTorch中张量乘法大全
在 PyTorch 中,有多种方法可以执行张量之间的乘法。两个矩阵相乘,第一个矩阵的列数必须等于第二个矩阵的行数。()`对应位置的元素相乘,输入张量形状必须相同或。:对于具有更高维度的张量(点积),可以使用。换句话说,输入张量的形状应为。此外,第一个输入张量的。必须与第二个输入张量的。两个一维张量的点积。
2024-04-03 17:31:15
2138
1
原创 [Pytorch][缘来如此]:PyTorch中的广播机制
使两者形状互相兼容。广播提供了一个向量化数组操作的机制,这样遍历就发生在C层面,而不是Python层面。广播可以避免不必要的数据复制,通常导向高效的算法实现。不过,也存在不适用广播的情形(可能导致拖慢计算过程的低效内存使用)。in-place operation称为原地操作符,在pytorch中是指改变一个tensor的值的时候,不经过复制操作,而是直接在原来的内存上改变它的值。in-place操作不允许tensor像广播那样改变形状。在满足特定限制的前提下,的数组上应用算术运算。
2024-04-03 17:03:28
771
原创 [从0开始AIGC][Transformer相关]:一文看懂Transformer中的位置编码:绝对位置、相对位置、旋转位置编码
绝对位置编码最原始的正余弦位置编码(即sinusoidal位置编码)是一种绝对位置编码,但从其原理中的正余弦的和差化积公式来看,引入的其实也是相对位置编码。优势: 实现简单,可预先计算好,不用参与训练,速度快。劣势: 没有外推性,即如果预训练最大长度为512的话,那么最多就只能处理长度为512的句子,再长就处理不了了。当然,也可以将超过512的位置向量随机初始化,然后继续微调。相对位置编码。
2024-04-02 23:14:09
2729
原创 [从0开始AIGC][Transformer相关]:Transformer中的激活函数:Relu、GELU、GLU、Swish
FFN(Feed-Forward Network)块是Transformer模型中的一个重要组成部分,接受自注意力子层的输出作为输入,并通过一个带有 Relu 激活函数的两层全连接网络对输入进行更加复杂的非线性变换。在公式中,首先将输入向量 x 通过一个全连接层(线性变换)得到一个与 x 维度相同的向量,然后将该向量通过Sigmoid函数进行激活。在公式中,Swish函数首先对输入向量 x 进行一个非线性变换,然后通过Sigmoid函数进行激活,并将该激活结果与输入向量 x 逐元素相乘,得到最终的输出值。
2024-04-02 23:04:48
4569
3
原创 [文献阅读笔记]:SEPT: TOWARDS EFFICIENT SCENE REPRESENTATION LEARNING FOR MOTION PREDICTION
SEPT: TOWARDS EFFICIENT SCENE REPRESENTATION LEARNING FOR MOTION PREDICTION
2024-02-04 15:16:21
1688
原创 [文献阅读笔记]:Forecast-MAE: Self-supervised Pre-training for Motion Forecasting with Masked Autoencoders
[文献阅读笔记]:Forecast-MAE: Self-supervised Pre-training for Motion Forecasting with Masked Autoencoders
2024-02-02 15:41:17
1386
原创 [系统配置]:Linux安装中文字体-以QT控件显示中文为例
在Qt中,笔者在使用QPainter的drawText在QImage/QPixmap中绘制中文文字显示为一系列方框,可能是因为字体设置的问题。你需要确保你的系统支持你选择的字体,并且这个字体支持中文字符。//字体,大小,粗体,斜体painter.drawText(rect, Qt::AlignHCenter, "你的中文字符串");
2024-01-16 10:24:23
1079
原创 [AI算法]:Keras版GCN源码自用解析
最近在研究图卷积的相关理论,有看Pytorch版本和DGL版本的GCN源码,但对象要用到Keras版本,就将Keras版本的GCN源码分析,粘一份,以备查看。1 setup.pyrom setuptools import setupfrom setuptools import find_packages setup(name=‘kegra‘, # 生成的包名称 version=‘0.0.1‘, # 版本号 description=‘Deep
2024-01-15 21:21:00
2295
原创 [实用小知识][ffmpeg]:ffmpeg解决所有视频问题
FFmpeg是一个强大的工具,可以进行视频和音频格式转换、流媒体的录制和转播、以及其他多媒体相关操作。
2024-01-10 20:19:23
555
原创 [开发语言][python][c++]:C++中的this指针和Python中的Self -- 26岁生日
C++中的this指针和Python中的Self
2024-01-07 00:39:50
2188
原创 [开发语言][python]:Python参数传递,“值传递”还是“引用传递“?
Python中的函数参数传递方式是“传对象引用”,可以理解为“值传递”和“引用传递”的混合体。
2024-01-05 10:40:28
732
原创 [开发语言][C++]:详解Lambda 函数
lambda在源代码中使用简洁的语法就地定义。Lambda 函数在 C++11 中引入,现已成为广泛使用的功能,尤其是与标准库函数结合使用。
2023-06-26 23:37:28
512
Social STGCNN.pdf
2020-03-10
Social-BiGAT Multimodal Trajectory Forecasting论文翻译.pdf
2020-03-03
(DDPG中文)Continuous control with deep reinforcement learningCH
2019-04-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人