Transformers Benchmarks 项目使用教程
transformers-benchmarks 项目地址: https://gitcode.com/gh_mirrors/tr/transformers-benchmarks
1. 项目目录结构及介绍
transformers-benchmarks
项目目录结构如下:
data
: 存放数据文件imgs
: 存放图像文件,如性能图表LICENSE
: 项目许可证文件,本项目采用 Apache-2.0 许可证README.md
: 项目说明文件micro_bench.ipynb
: Jupyter 笔记本文件,用于微基准测试transformers.ipynb
: Jupyter 笔记本文件,用于 Transformer 模型性能测试
每个目录和文件的具体作用如下:
data
: 存储项目所需的数据集,例如测试用的模型数据等。imgs
: 存储项目生成的性能图表,方便用户直观地理解测试结果。LICENSE
: 记录项目的开源许可证信息,Apache-2.0 许可证允许用户在遵循协议的前提下使用、修改和分发代码。README.md
: 项目的说明文档,包含项目简介、使用方法和性能测试结果等信息。micro_bench.ipynb
: 用于微基准测试的 Jupyter 笔记本,可以运行以测量不同操作的性能指标。transformers.ipynb
: 用于测试 Transformer 模型在不同 GPU 上性能的 Jupyter 笔记本。
2. 项目的启动文件介绍
项目的启动主要是通过 Jupyter 笔记本进行的。用户需要具备 CUDA 和 PyTorch 环境,推荐使用最新版本的 CUDA 和 PyTorch 以获得最佳性能。
启动步骤如下:
- 使用
nvidia-docker
运行 PyTorch 镜像,例如使用标签22.07-py3
的镜像。sudo docker run --gpus all -it --rm -p 8888:8888 -v ~/:/workspace \ --ipc=host --ulimit memlock=-1 --ulimit stack=67108864 \ nvcr.io/nvidia/pytorch:22.07-py3
- 在 Docker 容器内打开 Jupyter Notebook。
jupyter notebook
- 在浏览器中打开 Jupyter Notebook,选择
micro_bench.ipynb
或transformers.ipynb
文件开始执行。
3. 项目的配置文件介绍
本项目主要使用 Jupyter 笔记本进行操作,不需要额外的配置文件。所有的配置都是在 Jupyter 笔记本内部通过代码实现的。如果用户需要修改代码运行时的某些参数,如批量大小、模型类型等,可以直接在笔记本中的相应代码单元中进行修改。
用户需要注意的是,为了获得准确的测试结果,确保 Docker 容器内的 PyTorch 环境配置正确,以及 GPU 驱动和 CUDA 版本与 PyTorch 兼容。
transformers-benchmarks 项目地址: https://gitcode.com/gh_mirrors/tr/transformers-benchmarks
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考