- 博客(17)
- 资源 (1)
- 收藏
- 关注
原创 DeepSeek-R1 本地部署文档
在docker容器中使用ollama服务本地化部署deepseek-r1模型,运行在nvdia gpu上
2025-02-07 15:03:15
2277
3
原创 onnxruntime c++ 推理示例(tensorRT/cuda provider)
onnxruntime-gpu:在 nvidia gpu 上跑onnx模型获得与tensorRT相媲美的推理速度
2023-06-15 14:16:44
6635
9
原创 caffe编译与caffe源码分析
caffe框架 编译caffe框架 源码分析,主要介绍初始化网络流程和相关类caffe框架 简单的训练流程,cpu、gpu或多gpu训练caffe框架 源码主要分析类的注册机制
2023-03-15 17:11:52
704
原创 一个由GPU型号不同导致模型掉点问题的排查过程~~TF32 vs FP32~~
记录一个由gpu 引入的模型掉点问题TF32 vs FP32
2022-05-02 21:30:00
3017
3
原创 GPU 计算能力(Compute Capability)那些事儿 以及 编译caffe/pytorch/tensorflow时怎样设置计算能力?
适合gpu入门同学,大牛出门左拐一、常见gpu卡计算能力查询https://developer.nvidia.com/cuda-gpus#compute部分gpu计算能力:二、计算能力是什么东东计算能力(Compute Capability)并不是指gpu的计算性能nvidia发明计算能力这个概念是为了标识设备的核心架构、gpu硬件支持的功能和指令,因此计算能力也被称为“SM version"。计算能力包括主要修订号X和次要修订号Y来表示。具有相同主版本号的设备具有相同的核心架构,例如:
2022-05-02 12:23:22
14573
7
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人