第二张卡的开发思路

        在开发卡二时,我首先考虑的是如何将短信信息提取并存储到本地内存中。当所需信息放到内存后,我要考虑的是怎么将信息在不同活动的报名页面中显示出来。首先我先将所打开的活动的名称,存到数组,然后根据活动名称从内存中提取信息。在内存中将各个活动的报名信息存到,分别存到以各个活动名称为关键字的内存中。这样就可以在各个不同的页面中读取不同的报名数据。我又在内存中设置了一个内存存储正在开始的报名的活动名称。将报名的信息添加到以该名称为关键字的内存之中。再考虑按钮状态的时候,我再存储活动名称的内存中新加了一个元素,status以存储各个后动的状态,分情况讨论不同的报名页面的按钮状态,当此活动结束时,当此活动不为开始活动且未开始时,当没有活动开始时,来讨论各个报名页面按钮状态。然后我又开始考虑各个信息发到后对短信的具体处理。分为有活动开始。无活动开始,在无活动开始时又要分是否有活动结束。在有活动开始后在提取来信的号码与活动中的号码来比较如果相同不予报名。

在 Docker 中使用 Ollama 部署大模型并指定使用第二张 GPU 运行,可以通过以下步骤实现: 1. **安装和配置 NVIDIA Docker 支持**: 确保系统上已经安装了 `nvidia-docker2`,并且 Docker 引擎配置为支持 GPU。如果尚未安装,可以通过以下命令安装和配置 NVIDIA Docker 支持: ```bash # 添加 NVIDIA Docker 仓库并安装 nvidia-docker2 curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add - distribution=$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list sudo apt-get update sudo apt-get install -y nvidia-docker2 sudo pkill -SIGHUP dockerd ``` 安装完成后,可以使用以下命令测试 NVIDIA GPU 是否可用: ```bash docker run --runtime=nvidia --rm nvidia/cuda:11.8.0-base nvidia-smi ``` 2. **拉取 Ollama 官方镜像并设置 GPU 环境**: Ollama 提供了支持 GPU 的镜像,可以通过以下命令拉取镜像并运行容器: ```bash docker pull ollama/ollama:cuda ``` 然后,启动容器时指定 GPU 设备。为了使用第二张 GPU ,需要使用 `NVIDIA_VISIBLE_DEVICES` 环境变量来控制可见的 GPU 设备。例如: ```bash docker run -d --runtime=nvidia --gpus all --env NVIDIA_VISIBLE_DEVICES=1 -p 11434:11434 ollama/ollama:cuda ``` 在上述命令中,`--gpus all` 启用了所有 GPU,而 `NVIDIA_VISIBLE_DEVICES=1` 表示容器仅能看到第二张 GPU(索引从 0 开始)[^1]。 3. **在 Docker Compose 中部署**: 如果希望使用 `docker-compose.yml` 文件来管理服务,可以在文件中指定 GPU 设备和环境变量。例如: ```yaml version: '3.8' services: ollama: image: ollama/ollama:cuda runtime: nvidia environment: - NVIDIA_VISIBLE_DEVICES=1 ports: - "11434:11434" deploy: resources: reservations: devices: - driver: nvidia count: 1 capabilities: [gpu] restart: unless-stopped ``` 上述配置文件启用了 NVIDIA 运行时,并通过 `NVIDIA_VISIBLE_DEVICES=1` 指定容器仅使用第二张 GPU 。同时,`deploy.resources.reservations.devices` 部分确保容器只分配一个 GPU 设备[^3]。 4. **验证 GPU 使用情况**: 容器启动后,可以通过以下命令进入容器并检查当前使用的 GPU: ```bash docker exec -it <container_id> nvidia-smi ``` 该命令会显示当前容器中可见的 GPU 设备,并确认是否正在使用第二张 GPU [^1]。 ### 示例代码 以下是一个完整的 `docker-compose.yml` 示例,用于部署 Ollama 并指定使用第二张 GPU : ```yaml version: '3.8' services: ollama: image: ollama/ollama:cuda runtime: nvidia environment: - NVIDIA_VISIBLE_DEVICES=1 ports: - "11434:11434" deploy: resources: reservations: devices: - driver: nvidia count: 1 capabilities: [gpu] restart: unless-stopped ``` ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值