- 博客(231)
- 收藏
- 关注
原创 Error response from daemon: could not select device driver ““ with capabilities: [[gpu]]
报错含义呐就是上述三个包,没有获取到(因为大家熟知的网络原因)。确保安装了 NVIDIA Docker 运行时。确保 NVIDIA 驱动已正确安装并正常运行。如果能正常显示驱动信息,则驱动已安装。编辑 Docker 配置文件。重启完后就可以正常使用了。
2024-08-15 22:45:00
1488
原创 Pytorch Dataloader参数补充篇(collate_fn、pin_memory、dorp_last、prefetch_factor、persistent_workers)
如果不为None,那么在设定随机种子后,数据加载前,这个函数会在每个子进程上调用,并把子进程id作为输入(一个在[0, num_workers - 1]的整数),默认为None。数据预处理过程中出现了问题:如果数据预处理函数(如collate_fn或自定义的数据转换函数)出现了错误或死循环,可能会导致数据加载器无法获取下一个数据批次。多进程/多线程数据加载时出现了死锁或竞争条件:当使用多进程或多线程加载数据时,如果出现了死锁或竞争条件,也可能导致数据加载器无法获取下一个数据批次。
2024-08-07 00:30:00
2031
1
原创 Pytorch Dataloder之num_workers(下篇:多进程加载器)
否则,消费者会将从self._data_queue中取到的数据 存到字典self._task_info中,以便后续消费者读到该索引时,直接返回数据。self._index_queues详解:_MultiProcessingDataLoaderIter中,每个子进程会维护一个self._index_queues,里面存放的是(self._send_idx ,一个batch内所有数据的索引)。生产者生产数据的索引 = self._send_idx = 子进程准备的batch的数据索引。
2024-08-07 00:15:00
758
3
原创 RuntimeError: CUDA error: device-side assert triggered
RuntimeError: CUDA error: device-side assert triggeredAssertion ^idx_dim >= 0 && idx_dim < index_size && "index out of bounds" failedAssertion `input_val >= zero && input_val
2024-08-07 00:00:00
2554
1
原创 书生·浦语大模型全链路开源体系-笔记&作业4
欢迎来到 XTuner 的中文文档 — XTuner 0.1.18.dev0 文档XTuner 是由 InternLM 团队开发的一个高效、灵活、全能的轻量化大模型微调工具库。主要用于多种大模型的高效微调,包括 InternLM 和多模态图文模型 LLaVa。支持 QLoRA、全量微调等多种微调训练方法,并可与 DeepSpeed 集成优化训练。提供模型、数据集、数据管道和算法支持,配备配置文件和快速入门指南。
2024-06-06 01:30:00
1066
原创 书生·浦语大模型全链路开源体系-笔记&作业3
RAG(Retrieval Augmented Generation)技术,通过检索与用户输入相关的信息片段,并结合外部知识库来生成更准确、更丰富的回答。解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。RAG 能够让基础模型实现非参数知识更新,无需训练就可以掌握新领域的知识。本次课程选用的茴香豆应用,就应用了 RAG 技术,可以快速、高效的搭建自己的知识领域助手。
2024-06-05 01:00:00
866
原创 书生·浦语大模型全链路开源体系-笔记&作业2
自由指令输入的图文写作能力: 浦语·灵笔2 可以理解自由形式的图文指令输入,包括大纲、文章细节要求、参考图片等,为用户打造图文并貌的专属文章。生成的文章文采斐然,图文相得益彰,提供沉浸式的阅读体验。准确的图文问题解答能力:浦语·灵笔2 具有海量图文知识,可以准确的回复各种图文问答难题,在识别、感知、细节描述、视觉推理等能力上表现惊人。
2024-05-28 21:13:21
877
原创 书生·浦语大模型全链路开源体系-作业1
大型语言模型的历史可以追溯到2017年,当时OpenAI推出了GPT-1(Generative Pre-trained Transformer)模型,这是一个基于Transformer架构的语言生成模型,在多个自然语言处理任务上取得了突破性进展。通用大模型是指参数量巨大、覆盖广泛的通用模型,这些模型通过海量的训练数据积累了丰富的知识和能力,能够适用于多种不同的任务和模态。相比之前的专用模型,大模型具有更强的迁移学习能力,可以通过少量的细化训练在特定任务上发挥出色的性能。1. 工具链极其完善!
2024-05-27 20:37:34
535
原创 Pytorch Dataloder之num_workers(上篇:单进程加载器)
3.2 先看_SingleProcessDataLoaderIter,单进程迭代器相比多进程迭代器整体逻辑会简单些,本文先讲单进程迭代器,后续会出一篇单独讲多进程迭代器。1. 在从dataloader中取数据时,先调用dataloader的__iter__方法,__iter__方法中,则会优先调用self._get_iterator()方法,返回一个迭代器的实例化对象。num_workers=1时,表示采用多进程方法加载数据,但是只有一个子进程,使用该子进程加载数据。
2024-04-23 23:21:34
1435
原创 Pytorch Dataloader之batch_sampler
sampler是返回Dataset所有数据的索引,batch_sampler是返回一个mini-batch数据的索引。
2024-04-18 20:11:14
1157
原创 Pytorch Dataloader之sampler
sampler是从数据集中采样的策略。可以自定义,任何实现了 __len__方法的 Iterable;也可以使用dataloader中提供的默认的sampler。dataloader中提供了两个默认的sampler:RandomSampler(随机采样)和SequentialSampler(顺序采样)。使用那个默认的sampler是由shuffle参数决定的。因此,sampler参数与shuffle参数是冲突的,两个只能指定一个。
2024-04-17 14:30:32
2364
原创 Pytorch Dataloader入门
line43-line53:Dataset每次只能读取一个样本,而且是顺序的。line55-line66:Dataloader的默认参数:batch_size=1, shuffle=False, drop_last=False,每次返回的是一个mini-batch的数据,类型是一个列表,默认长度为1。line69-line72:Dataloader修改参数batch_size=4,返回的mini-batch数据中长度变为4,而且是顺序的。
2024-04-16 19:41:32
1739
原创 远程主机可能不符合glibc和libstdc++ VS Code服务器的先决条件
VSCode最近更新了一次版本,到了1.86.0,有个GLIBC库,低于v2.28.0的版本不再满足需求。
2024-02-06 23:25:10
5970
1
原创 VOC2012数据集的探索性数据分析(EDA)
对VOC2012数据集的探索性数据分析。文章结尾有EDA python代码和Github EDA代码仓库(包含多个数据集EDA代码)。
2022-10-01 10:06:17
1085
原创 mmdetection使用wandb查看训练日志
mmdetection查看日志之前一直是在用TextLoggerHook,已经觉得挺方便的了,自从用了wandb之后,发现wandb真不错,看log更方便了,回不去了。
2022-09-28 20:07:03
3642
8
原创 wandb一个简单demo
wandb绘制曲线:sin函数,cos函数,log函数。wandb绘制matplotlib图片。wandb绘制numpy图片。wandb绘制本地图片。
2022-09-27 16:16:15
831
原创 coco2017 数据集探索性数据分析(EDA)
对coco数据集的分析,近期忙着写论文,空余时间很少能写博文了。EDA的代码放在结尾了,Github仓库里也有。仓库里还有其他的一些EDA分析,不定时更新。
2022-09-20 09:38:48
991
原创 mmcls 多标签模型部署在torch serve
各个文件说明:cls_requests_demo:分类模型请求api服务的demodet_requests_demo:检测模型请求api服务的demoinference:要修改的inference代码mmcls_handler:要修改的mmcls_handler代码torchserve_log:过程中遇到的报错集合。
2022-09-08 17:18:56
660
原创 mm系列权重文件瘦身
我们训练完的mmcls,mmdet等模型,保存好的训练权重pth是比较大的。并且里边有两个参数是我们推理的时候用不到的。我们能够看到瘦身前180m,瘦身后92m,跟pytorch官方的resnet50预训练权重差不多大。(会在resnet50.pth文件的同级目录下生成一个resnet50_thin.pth)我们在推理过程中其实只需要state_dict就可以了,里边保存的是我们训练好的权重参数。state_dict:我们模型的参数。optimizer:优化器的参数。meta:训练时的环境配置。
2022-08-24 20:38:28
858
原创 MMdeploy TensorRT 模型实时监控桌面,PyQt5实现
利用PyQt5搭建界面,使用mmdeploy的api,加载转换好的TensorRT模型,推理图片,或者监控桌面。
2022-08-12 14:14:11
614
原创 MMDeploy部署实战系列【第六章】:将编译好的MMdeploy导入到自己的项目中 (C++)
MMDeploy部署实战系列【第六章】:将编译好的MMdeploy导入到自己的项目中
2022-08-01 14:04:33
3446
15
原创 MMDeploy部署实战系列【第五章】:Windows下Release x64编译mmdeploy(C++),对TensorRT模型进行推理
MMDeploy部署实战系列【第五章】:Windows下Release x64编译mmdeploy c++SDK,对TensorRT模型进行推理
2022-07-27 11:19:02
4314
16
原创 MMDeploy部署实战系列【第四章】:onnx,tensorrt模型推理
MMDeploy部署实战系列【第四章】:onnx,tensorrt模型推理
2022-07-27 11:04:42
5588
23
原创 MMDeploy部署实战系列【第三章】:MMdeploy pytorch模型转换onnx,tensorrt
MMDeploy部署实战系列【第三章】MMdeploy pytorch模型转换onnx,tensorrt
2022-07-27 11:02:49
5199
16
yolov9-c/e 模型结构矢量图
2024-05-14
mmdetection yolox-s TensorRT模型2060/2060s显卡可用
2022-08-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人