自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(38)
  • 收藏
  • 关注

原创 【Lesson 3】CUDA 编程模型:线程、块、网格 —— Ubuntu 22.04 + RTX 30/40 系列实战

本文介绍了CUDA编程中的线程层级结构和索引计算。首先检查GPU环境配置,解释了网格(整个任务)、线程块(工作组)和线程(工人)的三层结构关系。详细说明了内置变量threadIdx、blockIdx等的用法,并给出了一维和二维情况下的全局线程ID计算公式。通过向量加法和图像负片处理两个实战案例,演示了如何分配线程块和网格,并实现并行计算。最后提供了NsightCompute调优工具的使用方法和常见错误解决方案。内容涵盖了CUDA编程的关键概念和实用技巧,为后续深入学习奠定基础。

2025-09-15 16:42:46 1033

原创 【CUDA入门·Lesson 2】Ubuntu实战:3 分钟跑通第一个 CUDA Hello World

这篇教程介绍了如何编写第一个CUDA程序,实现在GPU上打印16行"Hello World"。主要内容包括:1)编写含__global__修饰符的GPU函数;2)使用<<<4,4>>>语法启动4个block,每个block含4个线程;3)通过cudaDeviceSynchronize()同步设备;4)Ubuntu下使用nvcc编译运行;5)扩展实验让线程打印编号;6)提供调试技巧和自动化脚本。教程帮助读者初步理解CUDA编程模型,掌握基本编译流程,为后

2025-08-31 19:18:15 827

原创 【CUDA入门·Lesson 1】Ubuntu实战:CUDA 概念、nvidia-smi 工具与 GPU 参数详解

是 NVIDIA 推出的GPU 通用并行计算平台,它允许开发者利用显卡的并行计算能力进行科学计算、机器学习、深度学习、图像处理、数值模拟等任务。传统 CPU 计算:串行/少量并行 → 适合逻辑控制GPU 计算:大规模并行 → 适合矩阵运算、深度学习⚡ 举个例子:CPU 核心数:4 核 / 8 核(几十个线程)GPU 核心数:几千到上万 CUDA 核心(数万线程同时运行)CUDA 就是让 GPU “像 CPU 一样”编程,写 C/C++/Python 代码,交给 GPU 干加速运算的事。概念类比。

2025-08-31 18:57:33 1244

原创 【原创】WSL2 文件互传终极指南:打通 Windows 与 Linux 的“任督二脉”

《WSL2文件共享避坑指南》摘要: 本文详解WSL2文件系统三大路径(/mnt/c/、\wsl$\、ext4虚拟磁盘)的特性差异与适用场景,针对6种高频操作提供解决方案:大文件传输建议直拖ext4分区并用chown修复权限;跨系统编辑需注意编码转换;开发项目应避免直接放在/mnt/c/以防权限问题。推荐通过优化/etc/wsl.conf配置自动挂载参数,实测ext4路径传输速度最快(1GB文件仅8.2秒)。关键结论:长期项目存~/ext4,临时交换用/mnt/c/,Windows程序编辑走\wsl$\路径。

2025-08-30 20:34:08 2277 1

原创 【原创】Win11 + WSL2 + Ubuntu 22.04 手把手安装 CUDA 11.8(避坑版)

摘要:本文详细介绍了在Win11+WSL2+Ubuntu22.04环境下配置CUDA11.8的完整流程。核心步骤包括:系统检查(需WSL2和NVIDIA显卡驱动)、Ubuntu安装、CUDA工具包部署(推荐deb自动安装方案)、环境变量配置,以及cuDNN和PyTorch的安装验证。特别强调WSL2需独立安装Linux版CUDA,与Windows驱动共存。文中提供了常见报错解决方案,如NVML初始化失败、环境变量错误等,并指出驱动版本需保持兼容。

2025-08-30 19:28:50 2683

原创 FastAPI 入门科普:下一代高性能 Python Web 框架

FastAPI作为Python现代Web框架新秀,凭借高性能、自动文档生成、异步支持和强类型检查等优势迅速崛起。它基于Starlette和Pydantic,性能媲美Node.js/Go,特别适合AI应用、微服务和高并发API开发。相比Flask/Django,FastAPI在自动验证、文档生成和异步处理方面表现更优。通过简单示例展示了其路由定义、数据验证和异步处理能力,并推荐了Uvicorn+Gunicorn的生产部署方案。FastAPI为现代API开发提供了高效解决方案,是AI工程师和后端开发者的理想选择

2025-08-29 20:43:18 1530

原创 AI-Agent 深度科普:从概念到架构、应用与未来趋势

本文系统梳理了AIAgent(智能体)的核心概念与发展趋势。AIAgent是基于大语言模型(LLM)的智能决策单元,具备感知环境、规划任务、执行行动等能力,可调用工具、访问知识库完成复杂任务。其核心架构包括感知、推理、工具调用、记忆、执行和反馈等模块。主要类型有单智能体、多智能体协作和人机协作模式。关键能力包括检索增强、记忆机制、任务拆解等。文章分析了Auto-GPT等典型案例,提出角色定义、监测机制等部署建议,并展望了多模态支持、社会模拟等未来趋势。

2025-08-27 22:43:45 1226

原创 Beyond Compare 入门科普:程序员必备的文件 & 文件夹对比神器

《BeyondCompare:开发运维必备对比神器》简介:BeyondCompare是一款跨平台文件对比工具,支持文本、二进制、图片、压缩包等多种格式对比,特别适合开发者、测试和运维人员。核心功能包括文件夹递归对比、三方合并解决Git冲突、FTP云端目录比对等,能显著提升代码审查、配置同步和部署校验效率。通过直观的双栏界面和差异高亮功能,让文件比对变得简单高效,是开发运维工作中不可或缺的效率工具。

2025-08-26 20:09:24 2375

原创 TensorRT-LLM 深度解析:解锁大模型极致推理性能

TensorRT-LLM:NVIDIA的大模型推理加速利器 摘要:TensorRT-LLM是NVIDIA推出的高性能大语言模型推理框架,通过三级架构设计实现极致优化:1)Pythonic模型定义层保持开发灵活性;2)AOT编译层实现算子融合与内核调优;3)运行时系统支持动态批处理。核心优势包括:支持H100专属FP8量化,吞吐量达6000+tokens/s;分页KV缓存将显存碎片率从35%降至5%;相比vLLM等框架,在NVIDIA硬件上性能提升50%以上。

2025-08-25 19:09:37 1439 1

原创 【机器学习实验神器】MLflow :从0到1用 MLflow 打造「可复现」的机器学习工作流,连老板都点赞!

MLflow是一款开源机器学习生命周期管理工具,可解决实验追踪、模型管理和部署难题。核心功能包括:实验追踪记录参数和指标、模型注册中心集中管理版本、标准化模型打包格式,以及一键部署为REST API。通过代码示例演示了从训练Sklearn模型到注册部署的全流程,配合UI界面直观展示运行记录和版本管理。该工具将机器学习开发的实验结果可追溯、模型可管理、部署可复现三大需求整合为统一平台,适合个人研究者和企业团队构建MLOps流水线使用。

2025-08-22 21:23:33 2050

原创 大模型科普专栏·第三章:大模型的应用场景——从智能交互到代码生成

大模型应用全面落地:从智能客服到多模态交互 大模型技术已深入生活与工业场景,展现多样化应用价值。智能客服实现多轮对话与专业知识响应,显著提升服务效率;AI编程助手如Copilot支持代码补全与错误修复,成为开发者得力工具;RAG技术结合检索与生成,解决大模型"幻觉"问题,确保专业领域答案准确性;多模态大模型实现图文/语音跨模态交互,应用于创意设计、教育科研等领域。当前大模型正加速与行业知识融合,持续推动产业智能化升级。

2025-08-22 20:48:16 840

原创 DVC 入门科普:数据科学的 Git,好用到飞起!

摘要:DVC(数据版本控制)是专为机器学习项目设计的工具,弥补了Git无法管理大文件(数据集、模型权重等)的缺陷。它通过.dvc指针文件追踪数据版本,支持云存储(如S3),实现数据/模型的可回溯、实验参数记录和一键复现。DVC与Git分工协作:Git管代码,DVC管数据+模型,共同构建MLOps工作流。核心功能包括大文件存储、实验追踪和团队协作,适合从小型到TB级项目,是机器学习工程化的关键工具。

2025-08-21 19:57:29 1358

原创 NVIDIA Nsight:GPU 性能优化的「瑞士军刀」

《GPU性能优化实战:Nsight工具与Profiling技术解析》 本文系统介绍了GPU性能分析(Profiling)的核心方法和NVIDIA Nsight工具套件的使用。文章首先解释了Profiling的概念,即通过性能指标分析找出程序瓶颈的技术。然后详细介绍了Nsight家族三大工具:系统级分析的Nsight Systems、核函数级分析的Nsight Compute和图形渲染分析的Nsight Graphics。

2025-08-21 19:11:26 1238

原创 一文搞懂 Docker 与 Kubernetes:从容器到集群的进化之路

Docker与Kubernetes核心解析 Docker通过镜像打包应用及环境,实现"一次构建,到处运行",解决开发与生产环境差异问题。其轻量化容器启动快、隔离性强,适合微服务架构。Kubernetes(K8s)作为容器编排系统,管理大规模容器集群,提供自动扩缩容、服务发现、滚动升级等能力。两者关系互补:Docker负责单容器运行,K8s调度集群资源。典型应用场景包括微服务部署、AI模型推理和CI/CD流水线。

2025-08-20 20:41:27 1811

原创 大模型科普专栏 ·从 KV Cache 到 VLLM 的 PageAttention 图解大模型推理加速黑科技

摘要:大模型推理速度直接影响用户体验和部署成本。VLLM通过三项核心技术大幅提升推理效率:1)KVCache机制避免重复计算历史token;2)PageAttention采用操作系统分页思路管理显存,将碎片率降至4%;3)KVBlockSharing实现多请求共享前缀计算,使100并发客服机器人显存降低5倍。实测显示,LLaMA-2-13B模型吞吐提升24倍,显存占用从74GB降至28GB。这些优化使VLLM成为当前最先进的推理加速框架。

2025-08-20 19:37:12 1606

原创 大模型科普专栏 · 一文吃透LLM后训练“三驾马车”:SFT、RLHF、RAG

随着大模型技术发展,SFT、RLHF和RAG已成为提升模型性能的三大核心技术。SFT通过监督微调让通用模型适应专业任务,核心技术包括LoRA等参数高效微调方法。RLHF基于人类反馈优化模型输出,使其更符合人类价值观,但面临数据成本高等挑战。RAG通过检索外部知识库解决模型知识滞后问题,实现动态知识更新。三大技术相互补充:SFT奠定基础能力,RLHF确保安全性,RAG扩展知识边界。

2025-08-19 23:04:24 863

原创 静态文件与动态文件详解:从基础概念到2025实战

本文全面解析静态文件与动态文件的区别及应用。静态文件(如HTML/CSS/图片)内容固定、响应快(10-50ms),适合官网/博客等场景;动态文件(如PHP/API)实时生成、响应慢(200ms+),适合个性化页面。技术实现上,静态文件由Web服务器直接处理,动态文件需应用服务器和数据库支持。文章提出动静分离架构,通过Nginx配置实现高效分发,并展望2025年SSG、边缘计算等趋势,建议采用混合架构平衡性能与交互性。本文包含完整技术对比、代码示例和部署方案。

2025-08-19 21:10:26 988

原创 Postman 2025最新版安装及使用教程:从入门到精通

Postman 2025指南:API测试利器使用全解析 Postman是一款支持多协议的API开发测试工具,2025年最新版v11.57.0新增AI测试生成功能。本文详细介绍了Postman的安装配置(Windows/macOS/Linux)、基础操作(GET/POST请求发送)和高级功能(环境变量、测试脚本、批量测试)。重点讲解了2025版本特性:AI智能测试生成、性能优化40%、协作增强等。同时提供了常见问题解决方案和学习资源推荐,帮助开发者快速掌握这一API测试标杆工具,提升接口测试效率。

2025-08-19 16:52:25 18574 3

原创 ETL数据管道技术详解:从原理到实战

ETL数据管道技术是大数据时代数据整合的核心,通过抽取-转换-加载流程解决数据孤岛问题。本文详解ETL标准流程,包括增量/全量抽取策略、数据清洗转换方法和高效加载技术;对比主流ETL工具性能特点;通过电商案例展示CDC+Flink实时处理架构;提出分阶段优化方案;并分析实时化、云原生等发展趋势。文章还提供开源/商业工具选型建议,强调ETL工程师向数据管道架构师转型的重要性。

2025-08-18 20:00:00 2000

原创 大模型科普专栏 ·【AI 科普】:一文看懂Prompt → AI Agent → Function Calling → MCP

本文系统梳理了大模型领域的四大关键技术:Prompt(提示词工程)、AIAgent(智能体)、FunctionCalling(函数调用)和MCP(模型上下文协议)。Prompt是与大模型交互的语言,AIAgent是具备感知-决策-执行能力的数字员工,FunctionCalling让模型能调用外部工具,而MCP则统一了工具调用的通信标准。文章通过关系图谱阐明四者的层级关联,并提供了5分钟搭建MCPServer的实战演示。随着技术发展,预计2025年将出现MCP生态爆发,实现AIAgent的模块化组装。

2025-08-18 10:29:19 1263

原创 大模型科普专栏·第二章:算力、数据、推理、加速——解密“大模型”的幕后故事

大模型训练是典型的资本密集型技术,以GPT-4为例需要2.5万张A100显卡连续运行百天,算力成本超6300万美元。核心成本构成包括:1)硬件投入(单张A100售价超10万元);2)海量数据清洗(GPT-3消耗45TB数据);3)惊人能耗(万卡集群功耗达4MW);4)复杂工程调试。推理阶段同样面临显存挑战,70B参数模型加载需140GB显存,长文本处理更需额外32GB。为降本增效,业界采用知识蒸馏、量化压缩(FP32→INT8)、参数剪枝和LoRA微调等技术,使大模型逐逐步向消费级硬件渗透。

2025-08-17 15:22:57 1110

原创 大模型科普专栏·第一章:从GPT-1到GPT-5,大模型的崛起与核心秘密

《大模型入门指南:从原理到应用》摘要 本文系统介绍了大模型(Large Language Model)的核心概念与技术演进。大模型是基于海量数据和超大规模参数训练的深度神经网络,其崛起得益于数据爆炸、算力提升和Transformer架构突破。文章梳理了从早期感知机到GPT-5的技术发展历程,重点解析了Transformer的自注意力机制和多头注意力结构,并提供了12行PyTorch实现示例。通过对比传统小模型,揭示了大模型"通才"特性的优势与挑战,包括幻觉现象和对齐问题。

2025-08-17 08:00:00 1007

原创 TensorRT 量化第二课:对称量化 vs 非对称量化(原理 + 公式 + 代码全解析)谁才是性能王者?

pass对称量化:零点为 0,计算快,适合权重。非对称量化:零点可调,适合非零中心分布(如 ReLU 激活)。TensorRT 提供 Calibrator,支持两种量化方式,可灵活选择。💡下一课预告:带大家搞懂直方图校准 + KL 散度—— 把极端值(outlier)踢出去,scale 选得更聪明。👉 如果文章帮到你,记得点个「赞」👍 支持一下,评论区欢迎贴代码/交流问题,我会在线答疑~# 1. 对称量化反量化"""对称量化,Z=0"""

2025-08-16 21:42:22 1466

原创 【TensorRT专栏】NVIDIA TensorRT 量化第一课:从FP32到INT8:量化到底在做什么?为什么它能让推理“飞”起来?

本文介绍了TensorRT中INT8量化的基本原理与应用。量化通过将FP32模型压缩为INT8格式,可减少75%内存占用并显著提升推理速度。文章详细解析了对称/非对称量化、逐层/逐通道量化等策略,以及量化的数学本质。同时指出量化会带来精度损失,需要校准数据集来优化。TensorRT提供了PTQ(训练后量化)和QAT(量化感知训练)两种模式,并支持自动处理不支持INT8的层。量化是性能与精度的权衡,需要结合具体场景找到平衡点。文末提供了开启INT8量化的示例代码和常见问题解答。

2025-08-16 09:48:31 1265

原创 【超详细】Windows 环境下安装 Visual Studio 详细教程(超详细图文)

Visual Studio 是微软推出的一体化开发环境(IDE),支持 C、C++、C#、Python、.NET、Web 前端等多种语言和框架。在 Windows 下安装 VS,可以帮助我们快速进行应用、游戏、Web 服务等开发。到这里,你的 Windows 系统已经安装好 Visual Studio,并完成了首次运行测试。后续可以:学习调试技巧配置插件扩展与 Git 版本控制结合使用💡小提示:社区版功能足够大多数开发需求,后续可按项目需求再添加工作负载。

2025-08-16 09:00:00 2058

原创 【附源码】YOLOv8 一条龙实战:PyTorch → ONNX → TensorRT(输出 1×84×8400 全流程踩坑记录)

本文详细介绍了YOLOv8模型从PyTorch到ONNX再到TensorRT的完整转换流程。内容涵盖环境配置(Ubuntu/Win11+CUDA11.8+TensorRT8.6.1)、模型导出(PyTorch→ONNX)、ONNX推理测试、TensorRT转换(包含FP16/INT8模式)以及最终推理实现。重点解决了ONNX输出形状为1×84×8400的情况,并提供了Python API转换方法。

2025-08-16 08:35:02 1427 1

原创 NVIDIA 模型量化技术深度解析 —— 提升推理性能的利器

NVIDIA模型量化技术解析:通过降低模型精度(如FP32→INT8/FP8/INT4)提升推理性能,减少存储占用和内存带宽压力。主要支持后训练量化(PTQ)和量化感知训练(QAT)两种策略,TensorRT提供多种量化实现方式(显式/隐式)和精度选择(INT8/FP8/NVFP4)。实践建议:通用场景选INT8,高精度需求用QAT+per-channel策略,极致性能可尝试FP8/NVFP4或INT4权重量化(WoQ)。该技术已形成完整工具链,可显著优化模型推理效率。

2025-08-16 08:00:00 922

原创 【优快云 2025 】什么是大模型?超通俗 + 超硬核,一篇看懂 AI 的“最强大脑”

术语人话翻译火锅类比参数模型的记忆细胞涮菜:毛肚、鸭肠、黄喉,越多越好预训练读万卷书先熬一大锅牛油底料微调做专项突破再分九宫格涮不同口味注意力架构鸳鸯锅中间那块隔板,让味道互不串锅RLHF人类反馈强化学习服务员根据你打分调辣度大模型 = 超大数据 + 超大火力 + 超多涮菜 + 会调味的 AI 服务员提到大模型(Large Model),大家第一反应可能是 ChatGPT、文心一言、Claude 这些“能聊天、会写代码、还能画画”的AI。

2025-08-15 13:30:00 707

原创 【优快云 技术专栏】Windows 环境下 安装 NVIDIA DeepStream 7.0 最全流程(WSL2 + Docker 方案)

本文介绍了在Windows系统上通过WSL2+Docker方案安装运行NVIDIA DeepStream 7.0的全流程。虽然官方不支持Windows原生运行,但通过WSL2安装Ubuntu 22.04,配置NVIDIA驱动和Docker环境,最后拉取DeepStream容器镜像,可以实现接近原生Linux的体验。文章详细说明了安装步骤、常见问题及解决方案,为Windows用户提供了可行的DeepStream开发测试方案。建议开发者优先考虑Linux环境以获得最佳性能,但该方法为Windows用户提供了便捷

2025-08-15 11:40:41 1259

原创 【2025必看干货】AI落地生死局:从实验室200FPS到客户现场5FPS,只需踩对这三个坑

硬件平台最终二进制官方工具/命令示例.engine华为 Ascend.om高通骁龙.dlc苹果 M系列.mlmodel瑞芯微 RK3588.rknn一句话:不拿二进制,就像拿着中国驾照直接去美国租车——不好意思,请先换国际驾照。训练完成只是起点,部署成功才配谈商业价值ONNX 是护照,TensorRT 是火箭,二进制是签证C++ TensorRT 异步 Pipeline把 Jetson 的 4 核 CPU 吃干抹尽,做到 200 FPS 不是梦!

2025-08-15 08:07:52 1168

原创 【模型部署必备神器】3 分钟把 YOLOv8 网络「拆」给你看!——Netron 下载+可视化终极指南(附高清结构图)

本文介绍了使用Netron工具可视化YOLOv8模型结构的详细指南。Netron是一款支持30+框架的模型可视化工具,能够清晰展示模型输入输出、算子节点等细节。文章提供了Netron的下载安装方法(网页版/离线版),并详细讲解了如何将YOLOv8模型导出为ONNX格式(包括静态和动态导出方式)。通过Netron可以直观查看YOLOv8的输入节点(1,3,640,640)、主干网络、检测头以及输出节点(1,84,8400)等关键信息。最后还分享了3个实用技巧:快速定位输出节点、导出高清结构图和查看权重维度,帮

2025-08-15 08:00:00 936

原创 YOLOv10 安装、训练、使用超详细小白教程——Windows、PyCharm + conda + LabelImg 训练自己的数据集

本文提供了一份完整的YOLOv10使用指南,适合Windows系统下的初学者。教程涵盖环境搭建(Anaconda+PyCharm)、YOLOv10安装、使用LabelImg制作数据集、模型训练与推理全流程,并包含常见问题解决方案。重点介绍了如何通过conda创建独立环境,配置数据集文件data.yaml,以及使用不同方式进行训练和测试。教程特别针对CUDA配置、依赖安装、显存不足等问题提供了详细解决方案,最后建议后续可进行模型优化和部署。本指南适合毕业设计、竞赛或兴趣学习使用,帮助用户快速掌握YOLOv10

2025-08-14 20:04:52 1723

原创 YOLOv8 超详细小白教程(毕设必看)——Windows、PyCharm +conda+ LabelImg +GPU训练自己数据集训练

本文提供了一份完整的YOLOv8目标检测模型训练教程,涵盖从环境配置到模型训练的完整流程。教程详细介绍了PyCharm安装、conda环境搭建、GPU驱动配置(CUDA/cuDNN)、LabelImg数据标注工具使用,以及如何准备自定义数据集和训练YOLOv8模型。特别针对Windows系统用户,给出了详细的路径设置和常见问题解决方案。文章还包含了模型验证和推理方法,并提供了训练参数调整建议。本教程适合计算机视觉初学者和需要完成毕业设计的学生,帮助他们快速掌握YOLOv8模型的应用方法。

2025-08-14 09:07:52 3757 2

原创 Windows 环境下安装 Docker 的详细教程(超详细图文)

本文提供Windows系统安装Docker的详细图文教程,适用于Win10/11专业版/企业版(家庭版需启用WSL2)。主要内容包括:1) 检查系统版本和虚拟化支持;2) 下载安装Docker Desktop并配置WSL2(针对家庭版用户);3) 验证安装和运行测试容器;4) 常见问题解决方案。文章还包含BIOS设置、WSL2启用等关键步骤说明,最后建议新手从hello-world等官方镜像开始体验Docker基础操作。

2025-08-14 09:02:32 45986 7

原创 【本文由AIGC生成】AI赋能新时代:从工具到行业,重塑工作与未来

AI 正在以不可逆的趋势渗透到各行各业,从开发到测试,从数据到决策,推动产业升级与效率革命。在这场变革中,每一位开发者、行业从业者既是见证者,也是参与者。与其担心被取代,不如拥抱 AI,让它成为你最强大的工作伙伴。

2025-08-13 15:33:07 847

原创 【保姆级】Windows 系统安装 TensorRT 8.6.1 安装指南

本文详细介绍了在Windows系统上安装TensorRT8.6.1的完整流程。主要内容包括:系统要求、下载方法、安装步骤(解压安装包、设置环境变量、虚拟环境安装及验证)以及常见问题解决方案。关键步骤包括将TensorRT路径添加到环境变量,在conda虚拟环境中安装Python接口和相关组件包。文章最后提供了验证安装的方法和注意事项,帮助用户顺利完成TensorRT的安装配置,以提升深度学习推理任务的性能。

2025-08-13 14:29:33 2885

原创 【保姆级】在Windows系统环境下安装CUDA 11.8和cuDNN v8.9.0的详细指南,配套tensorrt8.6使用

本文详细介绍了在Windows系统上安装NVIDIA CUDA 11.8和cuDNN v8.9.0的完整步骤。包括系统要求(Windows 10+、兼容NVIDIA显卡)、显卡驱动检查、CUDA下载安装、环境变量配置以及cuDNN文件复制过程。最后提供了通过命令行工具和Python代码验证安装是否成功的具体方法,确保用户能够正确配置GPU加速环境以支持深度学习框架的运行。整个安装过程简明清晰,适合开发者快速搭建GPU计算平台。

2025-08-13 12:53:30 7348 1

原创 【附源码】YOLOv8 PyTorch 模型转 ONNX 并推理,包含图像preprocess和nms的postprocess全流程超详细!(小白也能学会)

通过本文的代码,我们成功地将一个 PyTorch.pt模型转换为 ONNX.onnx格式,并介绍了如何使用 ONNX Runtime 进行推理。ONNX 格式使得深度学习模型的跨框架、跨平台部署变得更加简便。

2025-08-13 09:50:27 2024 1

叉车(forklift)的YOLOv8格式数据集 大概1100张图像数据,classes有2类(forklift、person)

叉车YOLOv8数据集,用于计算机视觉与工业自动化领域,包含多角度、多光照叉车图像及边界框标注,结合数据增强提升泛化能力,可用于训练与评估YOLOv8模型,实现厂区与仓库叉车的实时检测与识别。

2025-08-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除