H3C设备通过ISE进行TACACS认证

本文详细介绍了如何配置H3C设备的TACACS+方案,包括设置认证、授权和计费方案,创建system域,配置SSH密钥,启用命令行权限,并与ISE集成。重点提示了domain设置的重要性。最后展示了与NAD设备的TACACScommandset和PolicySet配置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

组网拓扑,和上一节一样。

 配置步骤:

1、配置AC的TACACS方案

<H3C>dis cu | begin tacacs
hwtacacs scheme lcj
 primary authentication 10.22.2.96 key cipher $c$3$mLU1hCFVJnu8HXw9aR3sVU5mJcXT6nvL
 primary authorization 10.22.2.96 key cipher $c$3$ETPD6qiDayLpLJgb0f2uDwEykw0iyYe+
 primary accounting 10.22.2.96 key cipher $c$3$d/tFuOMkOGErl3oAHa6j5keOrDb8gFFl
 user-name-format without-domain
 nas-ip 10.22.2.94
#

注意without-domain很重要,否则发送的username携带domain,例如user1将会以user1@system发送,导致认证不通过(这里假设domain为system)

2、创建domain system

创建ISP域为system,为login用户配置认证方案为HWTACACS方案,方案名称为lcj;配置授权方案为HWTACACS方案,方案名称为lcj;配置计费方案为不计费;配置命令行授权方案为HWTACACS,方案名称为lcj;配置命令行计费方案为HWTACACS方案,方案名称为lcj

#
domain system
 authentication login hwtacacs-scheme lcj
 authorization login hwtacacs-scheme lcj
 accounting login none
 authorization command hwtacacs-scheme lcj
 accounting command hwtacacs-scheme lcj
#

3、开启ssh,创建RSA等密钥对

#
public-key local create rs
public-key local create dsa
ssh server enable
#

4、通过执行role default-role enable命令允许用户使用系统预定义的缺省用户角色登录设备,或根据需要在服务器上为该用户添加要授权的用户角色。

#
 role default-role enable
#

5、使能命令行授权功能、命令行审计功能。

#
line vty 0 31
 authentication-mode scheme
 user-role network-admin
 user-role network-operator
 command authorization
 command accounting
#

6、接下来就是在ISE上的配置,和前面思科的配置一样,这里就不过多的累述。

新加华三设备为NAD的时候,注意别选择传统的思科设备(Legacy Cisco device)

 然后就是给华三设备的TACACS command set和TACACS profile。

命令集中不允许它输入dis mem和dis ver命令。

接下来在Policy Set为华三设备配置授权策略,为了简单,直接选择条件为所有设备类型,不再配置其他的条件。

其他配置和前文中思科认证的一样。

接下来进行验证:

### 将 PaddlePaddle 的目标检测模型导出并转换为 ONNX 格式的流程 #### 准备工作 为了成功将 PaddlePaddle 的目标检测模型转换为 ONNX 格式,需完成以下准备工作: - 确保已安装 `paddle2onnx` 工具。可以通过运行命令 `pip install paddle2onnx` 来安装该工具[^1]。 - 需要准备好经过训练的目标检测模型及其对应的权重文件。 --- #### 步骤说明 #### 1. 转换为目标检测推理模型 PaddlePaddle 训练模型通常由 `.pdparams` 和 `.pdopt` 文件组成,其中 `.pdparams` 存储的是模型权重,而 `.pdopt` 是用于断点续训的优化器状态。 通过调用 PaddleDetection 提供的脚本 `export_model.py`,可以将训练模型转化为推理模型。具体操作如下: ```bash python tools/export_model.py \ --model_dir=path/to/train/model/directory \ --output_dir=path/to/output/inference/model ``` 上述命令会生成一个适合部署的推理模型结构。 --- #### 2. 安装依赖项 确保环境中已经安装了必要的 Python 库,特别是 `paddle2onnx`。如果尚未安装,可通过以下命令完成安装: ```bash pip install paddle2onnx ``` 此步骤非常重要,因为后续的 ONNX 转换过程需要用到这个工具[^3]。 --- #### 3. 执行模型转换 一旦获得了推理模型,就可以利用 `paddle2onnx` 命令将其进一步转换为 ONNX 格式。以下是具体的命令模板: ```bash paddle2onnx \ --model_dir path/to/inference/model \ --model_filename inference.pdmodel \ --params_filename inference.pdiparams \ --save_file output.onnx \ --opset_version 11 \ --enable_onnx_checker True ``` 在此过程中需要注意以下几点: - 参数 `--model_dir` 指向推理模型所在的目录。 - 参数 `--model_filename` 表明推理模型的主要定义文件名(通常是 `inference.pdmodel`)。 - 参数 `--params_filename` 对应于存储权重的文件名(通常是 `inference.pdiparams`)。 - 参数 `--opset_version` 设置 ONNX 协议版本号,推荐使用较新的版本如 11 或更高版本。 --- #### 4. 性能优化选项 在某些情况下可能还需要对 ONNX 模型进行额外优化处理,比如引入 TensorRT 加速或者应用 INT8 量化技术来减少计算开销。这些高级功能的具体实现方式可参考 YOLOv8 模型的相关文档[^2]。 --- ### 示例代码片段 假设我们有一个名为 `ppyolo_r50vd_dcn_1x_coco` 的目标检测模型,则完整的转换流水线可能是这样的: ```bash # Step 1: Export the trained model to an inference model. python tools/export_model.py \ --model_dir=ppyolo_r50vd_dcn_1x_coco \ --output_dir=inference_model # Step 2: Convert the exported inference model into ONNX format. paddle2onnx \ --model_dir=inference_model/ppyolo_r50vd_dcn_1x_coco \ --model_filename=model.pdmodel \ --params_filename=model.pdiparams \ --save_file=output.onnx \ --opset_version=11 \ --enable_onnx_checker=True ``` 以上两步完成后即可获得兼容性强的标准 ONNX 模型文件。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

剪刀石头布[]~( ̄▽ ̄)~*

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值