[AI]docker封装包含cuda cudnn的paddlepaddle PaddleOCR

封装,启动时需要在GPU服务器上
显卡驱动 cuda等下载需要注册账号

环境 Ubuntu 24.04 LTS
镜像 uvicorn-gunicorn-fastapi:python3.8
显卡支持版本 CUDA Version: 12.5
cuda版本 cuda_12.4.0_550.54.14_linux.run
cudnn版本
PaddlePaddle-Gpu
PaddleOCR

启动进入容器

 docker run  --gpus all -it  tiangolo/uvicorn-gunicorn-fastapi:python3.8 --name ugf-cuda-cudnn
 docker exec it ugf-cuda-cudnn /bin/bash

安装cuda

1.下载cuda

CUDA Toolkit Archive | NVIDIA Developer
显卡支持cuda版本为12.5 cuda-toolkit降低一个版本12.4

wget https://developer.download.nvidia.com/compu
### 如何在 Docker 中使用 NVIDIA GPU 为了使 Docker 容器能够访问主机上的 NVIDIA GPU 资源,安装 `nvidia-docker2` 和相关组件是必要的。这可以通过一系列命令来完成: 通过包管理工具安装所需的软件包: ```bash sudo apt-get update && sudo apt-get install -y nvidia-driver-xxx sudo apt-get install -y nvidia-docker2 sudo apt-get install -y nvidia-container-runtime ``` 配置 Docker 使用新的运行时环境以便支持 GPU 加速的应用程序[^1]。 重启 Docker 服务以应用更改并验证设置是否成功: ```bash sudo systemctl restart docker ``` 创建带有 GPU 支持的容器实例时,需指定特定标志让其识别可用硬件资源: ```bash docker run --gpus all nvidia/cuda:11.0-base nvidia-smi ``` 上述指令会启动一个基于 CUDA 的基础镜像,并执行 `nvidia-smi` 命令显示当前系统的 GPU 状态信息,以此确认 GPU 已被正确挂载到容器内。 对于开发工作流而言,在集成开发环境中利用远程连接功能可以极大提高效率。例如,在 Visual Studio Code (VSCode) 上构建 Python 应用程序时,可通过 Remote Development 插件集配合 Docker 扩展实现无缝调试体验;同时还能确保本地机器不受影响而保持轻量化操作[^2]。 此外,借助于 Docker 提供的强大封装能力,开发者不仅限于简单的应用程序隔离,更能轻松部署复杂的 AI/ML 模型训练任务至云端或边缘设备上。TensorFlow Serving 就是一个很好的例子,它允许用户快速搭建起高性能的服务端架构用于推理预测等场景[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值