第二张卡知识点总结

1  提取bm并转换为大写

由于对bm不规定大小写,所以在处理的时候要考虑四种情况,我是先把收到的信息转化为大写BM然后进行处理。可以用toUpperCase()实现对大写的转换。

实例 :

var get_bm = json_message.messages[0].message.substr(0, 2).toUpperCase();

提取的短信的前两位字母是大写的BM。

 

2  信息的实时显示

这时要用到刷新函数

实例:

function refresh_bid_sign_page = function () {
      var bid_id_exist = document.getElementById("refresh_bid_sign_page");
      if (bid_id_exist) {
            var scope = angular.element(bid_id_exist).scope();
            scope.$apply(function () {
            scope.refresh();
            })
      }
}

这里的refresh_bid_sign_page是对页面绑定的一个id,在竞价成功后调用这个函数即可做到实时显示的效果。

 

3  弹出确认框二次提醒功能

在点击某个按钮时,执行confirm('确定要结束本次报名吗?'),即可弹出提醒框。

confrirm命令返回的确认是true和false的值

if(confirm('确定要结束本次报名吗?')){//////}

 即用户点击确认后才执行以后的代码。

 

4  正在报名的活动的底色为黄色设置

这是一个样式,需要自己写,在CSS/index.css里写

.start{
     background: yellow !important;
}

注:样式写了一定要在index.haml里引入样式

%link(rel="stylesheet" type="text/css" href="css/index.css")

在找到正在报名的活动时return “start”就可以了。

实例:

$scope.staring_activity = function (name) {     
      if (localStorage.starting_activity==name) {
             return "start";
      }
}

 

 

 

【无人机】基于改进粒子群算法的无人机路径规划研究[和遗传算法、粒子群算法进行比较](Matlab代码实现)内容概要:本文围绕基于改进粒子群算法的无人机路径规划展开研究,重点探讨了在复杂环境中利用改进粒子群算法(PSO)实现无人机三维路径规划的方法,并将其与遗传算法(GA)、标准粒子群算法等传统优化算法进行对比分析。研究内容涵盖路径规划的多目标优化、避障策略、航路点约束以及算法收敛性和寻优能力的评估,所有实验均通过Matlab代码实现,提供了完整的仿真验证流程。文章还提到了多种智能优化算法在无人机路径规划中的应用比较,突出了改进PSO在收敛速度和全局寻优方面的优势。; 适合人群:具备一定Matlab编程基础和优化算法知识的研究生、科研人员及从事无人机路径规划、智能优化算法研究的相关技术人员。; 使用场景及目标:①用于无人机在复杂地形或动态环境下的三维路径规划仿真研究;②比较不同智能优化算法(如PSO、GA、蚁群算法、RRT等)在路径规划中的性能差异;③为多目标优化问题提供算法选型和改进思路。; 阅读建议:建议读者结合文中提供的Matlab代码进行实践操作,重点关注算法的参数设置、适应度函数设计及路径约束处理方式,同时可参考文中提到的多种算法对比思路,拓展到其他智能优化算法的研究与改进中。
在 Docker 中使用 Ollama 部署大模型并指定使用第二张 GPU 运行,可以通过以下步骤实现: 1. **安装和配置 NVIDIA Docker 支持**: 确保系统上已经安装了 `nvidia-docker2`,并且 Docker 引擎配置为支持 GPU。如果尚未安装,可以通过以下命令安装和配置 NVIDIA Docker 支持: ```bash # 添加 NVIDIA Docker 仓库并安装 nvidia-docker2 curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add - distribution=$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list sudo apt-get update sudo apt-get install -y nvidia-docker2 sudo pkill -SIGHUP dockerd ``` 安装完成后,可以使用以下命令测试 NVIDIA GPU 是否可用: ```bash docker run --runtime=nvidia --rm nvidia/cuda:11.8.0-base nvidia-smi ``` 2. **拉取 Ollama 官方镜像并设置 GPU 环境**: Ollama 提供了支持 GPU 的镜像,可以通过以下命令拉取镜像并运行容器: ```bash docker pull ollama/ollama:cuda ``` 然后,启动容器时指定 GPU 设备。为了使用第二张 GPU ,需要使用 `NVIDIA_VISIBLE_DEVICES` 环境变量来控制可见的 GPU 设备。例如: ```bash docker run -d --runtime=nvidia --gpus all --env NVIDIA_VISIBLE_DEVICES=1 -p 11434:11434 ollama/ollama:cuda ``` 在上述命令中,`--gpus all` 启用了所有 GPU,而 `NVIDIA_VISIBLE_DEVICES=1` 表示容器仅能看到第二张 GPU(索引从 0 开始)[^1]。 3. **在 Docker Compose 中部署**: 如果希望使用 `docker-compose.yml` 文件来管理服务,可以在文件中指定 GPU 设备和环境变量。例如: ```yaml version: '3.8' services: ollama: image: ollama/ollama:cuda runtime: nvidia environment: - NVIDIA_VISIBLE_DEVICES=1 ports: - "11434:11434" deploy: resources: reservations: devices: - driver: nvidia count: 1 capabilities: [gpu] restart: unless-stopped ``` 上述配置文件启用了 NVIDIA 运行时,并通过 `NVIDIA_VISIBLE_DEVICES=1` 指定容器仅使用第二张 GPU 。同时,`deploy.resources.reservations.devices` 部分确保容器只分配一个 GPU 设备[^3]。 4. **验证 GPU 使用情况**: 容器启动后,可以通过以下命令进入容器并检查当前使用的 GPU: ```bash docker exec -it <container_id> nvidia-smi ``` 该命令会显示当前容器中可见的 GPU 设备,并确认是否正在使用第二张 GPU [^1]。 ### 示例代码 以下是一个完整的 `docker-compose.yml` 示例,用于部署 Ollama 并指定使用第二张 GPU : ```yaml version: '3.8' services: ollama: image: ollama/ollama:cuda runtime: nvidia environment: - NVIDIA_VISIBLE_DEVICES=1 ports: - "11434:11434" deploy: resources: reservations: devices: - driver: nvidia count: 1 capabilities: [gpu] restart: unless-stopped ``` ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值