自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(66)
  • 收藏
  • 关注

原创 Language Models are Few-Shot Learners,GPT-3详细讲解

Language Models are Few-Shot Learners,GPT-3详细讲解

2025-03-14 15:14:07 1321

原创 Language Models are Unsupervised Multitask Learners,GPT-2详细讲解

Language Models are Unsupervised Multitask Learners,GPT-2详细讲解

2025-02-25 17:56:21 925

原创 2025 LLM最新前沿总结

2025最新前沿总结

2025-02-10 11:24:44 215

原创 DeepSeek从入门到精通-清华 104页全版下载

清华大学DeepSeek使用手册

2025-02-10 09:52:21 2352

原创 图像旋转,bbox和yolo标注坐标旋转

【代码】图像旋转,bbox和yolo标注坐标旋转。

2025-01-10 17:04:14 146

原创 Improving Language Understanding by Generative Pre-Training GPT-1详细讲解

GPT1详细讲解

2025-01-08 15:30:47 1148

原创 ViT详细解读

ViT详细解读

2024-12-18 11:27:14 688

原创 Selective attention improves transformer详细解读

selective attention简单且无需额外参数的选择性注意力机制,通过选择性忽略不相关信息并进行上下文剪枝,在不增加计算复杂度的情况下显著提升了Transformer模型的语言建模性能和推理效率。

2024-11-15 18:34:57 644 1

原创 Attention is all you need详细解读

Attention is all you need

2024-11-12 19:48:32 431

原创 Seq2Seq,自回归,自编码介绍

Seq2Seq,自回归,自编码

2024-08-07 16:52:27 378

原创 yolo中可视化结果指标

yolo中可视化结果指标

2024-08-06 15:51:59 559

原创 token和embedding

LLM token和embedding介绍

2024-08-02 11:08:13 759 2

原创 马赛克图像处理

马赛克图像处理

2024-07-26 14:26:03 168

原创 大模型LLM技术

大模型训练与优化步骤:预训练、微调、对齐1. 指令微调:LoRA、QLoRA、AdaLoRa、DoRA、LoftQ、GaLore、Mixture of LoRAs、Quantization2. 对齐技术:DPO、KTO、IPO、SimPO、RLHF3. 量化技术:GPTQ、SmoothQuant、AWQ、GGUF、ZeroQuant4. 多模态技术:MoE-LLaVA、Mini-Gemini、VideoLLaMA25. 其他微调技术:Prefix Tuning、Adaptor Tuning、Flas

2024-07-23 14:05:56 202

原创 PANNs: Large-Scale Pretrained Audio Neural Networks for Audio Pattern Recognition论文总结

PANNs 音频标记、音频分类等

2024-07-15 16:01:31 757

原创 行人越界检测 越线 越界区域 多边形IOU越界判断

行人越界检测 越线 越界区域 多边形IOU越界判断总结

2024-07-11 17:08:15 478

原创 yolo-world使用自己数据集训练

yoloworld训练自定义数据集

2024-06-26 14:27:18 3616 13

原创 X-AnyLabeling使用教程

1.AI 模型自动分割标注使用教程2.AI 模型自动目标检测标注使用教程

2024-06-24 11:45:05 1467

原创 python 根据url下载图像

python 根据url下载图像。

2024-06-20 15:44:48 578

原创 scikit-image安装报错

scikit-image安装报错

2024-06-19 10:17:05 791

原创 linux下直接使用别人的anaconda环境,copy别人环境

1.直接使用别人的anaconda安装环境source /home/XXX/anaconda3/bin/activateconda activate labelme2.copy anaconda环境cp -r /home/XXX/anaconda3/envs/x-anylabeling /home/YYY/anaconda3/envsconda config --append envs_dirs /home/YYY/anaconda3/envsconda activate x-anyl

2024-05-23 17:08:12 1167 1

原创 labelme自动标注工具的安装和python代码修改

【代码】labelme自动标注工具的安装和代码修改。

2024-03-27 17:33:20 1501

原创 文生视频Sora

文生视频模型 Sora

2024-02-21 11:20:57 437

原创 Word2Vector介绍

word2vec也叫word embeddings,中文名“词向量”,google开源的一款用于词向量计算的工具,作用就是将自然语言中的字词转为计算机可以理解的稠密向量。Word2Vec是一种将文本中的词进行嵌入(Embedding)的方法,而所谓嵌入,就是将各个词使用一个定长的向量来表示,Embedding其实就是一个映射,将单词从原先所属的空间映射到新的多维空间中,也就是把原先词所在空间嵌入到一个新的空间中去。通过这种方法,我们可以获得一个词的扩展词,即与其相似的词。

2024-01-03 17:42:16 997

原创 AIGC智能创作时代一书总结

GPT-1:核心思想是将无监督学习作用于监督学习模型的预处理目标,先通过在无标签的数据上学习一个通用模型,然后根据问答和常识推理等特定自然语言处理任务微调模型,半监督学习。强化学习:强化学习并不是对数据本身学习,而是在给定的数据环境中,让智能体学习如何选择一系列行动,来达成长期累积收益最大化的目标,强化学习本质是学习一套决策系统而非数据本身。GPT-2:在语言模型领域,所有监督学习都可以看作无监督学习的子集,当模型的容量非常大且数据量足够丰富时,无监督学习的语言模型就可以覆盖所有有监督学习的任务。

2023-12-13 17:58:28 179 1

原创 目标检测常用评价指标

有时这两个是矛盾的,比如只检测出了一个结果,且是正确的,那么P就是100%,但是R就会很低。ROC曲线:就是选择不同的置信度阈值,以FPR=FP/(FP+FN),即错误预测正样本/所有预测负样本,为横坐标, TPR=TP/(TP+FN)=Recall为纵坐标。PR曲线:就是选择不同的置信度阈值,得到的不同组合的P,R,以R为横坐标,P为纵坐标绘制而成。在ROC曲线中,以FPR为x轴,TPR为y轴,FPR指实际负样本中被错误预测为正样本的概率。R低P高:识别出的飞机都是正确的,但还有很多飞机没被识别出来。

2023-11-29 13:52:16 534

原创 torch和onnx输出结果对比

torch和onnx输出结果对比

2023-11-07 20:17:38 262

原创 torch onnx 权重对比一致性

torch与onnx权重layer weight 对比是否一致。torch与onnx各层权重layer weight提取。

2023-11-07 15:42:23 196

原创 torch中输入图像是否需要提前resize对结果的影响

在实际C++代码部署中,如mxnet c++部署,如果部署时采用cv2.resize,先cv2.resize训练集再训练可以减少这种size问题导致的score敏感问题。A. 测试采用transforms.Resize((224,224))方式resize图像测试。训练采用transforms.Resize((224,224))方式resize图像训练。B. 测试采用cv2.resize(img,(224,224))方式resize图像测试。二者结果有时候差异比较大。输入尺寸对结果的影响。

2023-11-02 15:23:05 264

原创 torch mxnet c++结果对比实验

net模型和block模型数据demo,验证原图输入和resize input之后作为输入的结果比较。net和block模型过拟合,resize input影响较大。

2023-10-31 18:04:05 64

原创 torch转onnx onnx转mxnet中遇见的问题

transform.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5)) 数据标准化 (x/255-0.5)/0.5∈[-1,1]转换为mxnet数据标准化为:(x-127.5)*(1/127.5)=(x-127.5)*0.00784313725490196。通过强制将图像resize到输入大小后,torch、onnx、mxnet(python)、mxnet(c++)结果一致。原因:模型训练过拟合原因,resize方式不一样,影响波动比较大。

2023-10-31 09:46:59 133

原创 模型训练优化trick

3.train loss不断下降,test loss趋于不变,过拟合:(1)正则化和降维(2)降低模型复杂度 (3)获取更多数据集、数据增强。翻转,旋转,裁剪,缩放,平移,抖动、Mixup、Cutout、Cutmix、Mosaci等。4.train loss趋于不变,test loss不断下降:数据集有问题,检查数据集。6.train loss不断上升,test loss不断上升:数据清洗,超参设置不当。(7)batch size过小,loss动荡,难以收敛,过大收敛过快陷入局部最优解。

2023-07-10 11:04:33 195

原创 卷积层、特征层、输出层、权重关系

卷积层、特征层、输出层、权重关系

2023-07-05 16:44:58 388

原创 torch获取每层权重

pytorch读取每层权重。

2023-07-05 11:17:07 857

原创 torch转onnx

torch转onnx。

2023-07-04 17:53:34 129

原创 git上传代码@ 代码无法查看

因为工程下除了第一级路径下的之外,project_name文件夹下出现多余的.git 文件。

2023-06-29 10:52:03 163

原创 onnx每层权重、输出层结果、简化、inference

onnx 每层权重读取,onnx每层输出结果。

2023-06-27 17:04:07 1753

原创 mxnet inference输出层output

mxnet inference输出层output。

2023-06-27 16:40:52 84

原创 mxnet inference 最后输出层结果

mxnet inference 最后输出层结果。

2023-06-27 15:36:01 73

原创 onnx mxnet输出层结果对比

onnx和mxnet转换 输出层结果及其cos相似度计算对比。

2023-06-27 14:54:21 133

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除