
PyTorch
文章平均质量分 72
JasonLiu1919
微信公众号《小窗幽记机器学习》。却顾所来径,苍苍横翠微。个人微信号:onepieceand
展开
-
下载huggingface上模型的正确姿势
如何优雅地下载huggingface上模型文件?原创 2022-07-25 16:34:26 · 65825 阅读 · 7 评论 -
torch.nn.functional.cosine_similarity使用详解
概述根据官网文档的描述,其中 dim表示沿着对应的维度计算余弦相似。那么怎么理解呢?首先,先介绍下所谓的dim:a = torch.tensor([[ [1, 2], [3, 4] ], [ [5, 6], [7, 8] ] ], dtype=torch.float)print(a.shape)"""[ [ [1, 2], [3, 4] ], [ [5, 6], [7, 8] ]]"""假设原创 2021-10-07 23:44:41 · 25084 阅读 · 0 评论 -
Pytorch中数据读取-Dataset、Dataloader 、TensorDataset 和 Sampler 的使用
0.引言Pytorch 创建用以输入到模型的数据的一般流程如下:创建一个 Dataset 对象,实现__getitem__()和__len__()这两个方法,会用到 transform 对数据进行扩充;创建一个 DataLoader 对象,该对象可以对上述Dataset对象进行迭代遍历DataLoader对象,将样本和标签加载到模型中进行训练。在上述流程中会涉及 Dataset 、 Dataloader 、Sampler 和 TensorDataset,以下将逐一介绍。1. D原创 2021-05-07 10:53:52 · 8206 阅读 · 3 评论 -
模型推理加速系列|如何用ONNX加速BERT特征抽取(附代码)
简介近期从事模型推理加速相关项目,所以抽空整理最近的学习经验。本次实验目的在于介绍如何使用ONNXRuntime加速BERT模型推理。实验中的任务是利用BERT抽取输入文本特征,至于BERT在下游任务(如文本分类、问答等)上如何加速推理,后续再介绍。PS:本次的实验模型是BERT-base中文版。环境准备由于ONNX是一种序列化格式,在使用过程中可以加载保存的graph并运行所需要的计算。在加载ONNX模型之后可以使用官方的onnxruntime进行推理。出于性能考虑,onnxruntime原创 2020-11-30 23:30:50 · 5187 阅读 · 6 评论 -
使用BERT对句子进行向量化(TensorFlow版和Pytorch版)
背景用BERT对句子进行向量化实施TensorFlow版直接用肖涵博士的bert-as-service。使用方法真的很小白,简单概括为2点:server和client安装。pip install bert-serving-server # serverpip install bert-serving-client # client, independent of `bert-serving-server`在server安装完后,启动服务,比如:bert-serving-start -mod原创 2020-06-06 20:22:51 · 10725 阅读 · 34 评论 -
docker拉取的pytorch-gpu版找不到cuda和cudnn的位置,为何?
问题描述pytorch 镜像位置:https://hub.docker.com/r/pytorch/pytorch/tags拉取镜像:docker pull pytorch/pytorch:1.5-cuda10.1-cudnn7-runtime查看本地现有镜像清单:创建一个容器:docker run --gpus all -td --name=liujiepeng_pytorch pytorch/pytorch bash注意:其实这里有两个repository名字相同,tag名不同的版原创 2020-05-19 11:01:46 · 9945 阅读 · 6 评论 -
在生产环境中基于PyTorch的C++API运行模型-以图像分类为例
背景生产环境多数是使用java或者C++,本文将介绍在C++中加载PyTorch模型,执行生产环境下的推理。因此,本文的重点在于C++中如何加载模型,并进行推理预测操作,而不是模型的设计和训练。可以查看官方提供的说明 https://pytorch.org/tutorials/advanced/cpp_export.html#TorchScript简介TorchScript是PyTorc...原创 2019-10-12 09:37:43 · 2555 阅读 · 0 评论