HCIP-AI Solution Architect H12-323题库(带详细解析)

最近把HCIP-AI Solution Architect证书也考下来了,分享给大家一些刷过的题库。

完整的题库已经发在“题主”小程序上了,需要的同学也可以自己去找一下。

在业务中部署大模型包含需求分析、模型训练等多个步骤,以下有关大模型业务流程顺序描述正确的是?

A、模型选型->业务场景需求分析->微调数据准备->训练调优->推理部署->应用集成

B、业务场景需求分析->模型选型->微调数据准备->训练调优->推理部署->应用集成

C、业务场景需求分析->微调数据准备->模型选型->训练调优->推理部署->应用集成

D、业务场景需求分析->微调数据准备->模型选型->训练调优->应用集成->推理部署

答案:B

解析:在部署大模型的实际业务流程中,合理的逻辑顺序应首先聚焦于明确业务目标和场景需求,随后根据需求选择合适的模型架构。模型选型完成后,需针对具体任务准备和优化微调所需的数据集,确保数据质量和任务适配性。接下来进入训练阶段,通过迭代调整提升模型性能。训练完成的模型需经过推理部署环节,将其转化为可实际运行的服务。最终,将部署后的模型与业务系统集成,实现端到端的应用闭环。这一流程符合业界通用的机器学习项目实施方法论和工程实践。选项的顺序与此一致。

以下哪个选项是one-hot词向量的优点?

A、当词汇表量大,会导致词向量维度过大

B、表示简单,容易理解

C、词之间孤立,无法表示相似词义

D、对词的表达稀疏

答案:B

解析:one-hot词向量将词汇表中的每个词表示为唯一的二进制向量,每个位置对应一个词。其构造直观,仅需将对应词的位置设为1,其余为0。这种编码方式无需复杂计算,逻辑清晰,便于快速实现。A、C、D均描述其缺点:高维、无法捕获语义关系、稀疏性。《自然语言处理综论》等教材指出,one-hot的核心优势即在于简单性和可解释性。B正确反映了这一特性,其他选项与优点无关。

tf.keras.preprocessing 的作用?

A、Keras模型部署工具

B、Keras内置优化器

C、Keras数据处理工具

D、Keras生成模型工具

答案:C

解析:tf.keras.preprocessing 是 TensorFlow Keras API 中专注于数据预处理和增强的模块。官方文档中明确提到该模块提供图像、文本、序列数据的处理工具,例如图像增强(ImageDataGenerator)、文本分词(Tokenizer)和序列填充(pad_sequences)等功能。选项A涉及模型部署,属于其他模块(如tf.saved_model);选项B优化器属于tf.keras.optimizers;选项D生成模型与预处理无关,而是模型构建层面的概念。此模块的核心作用是通过工具简化数据加载和预处理流程,符合选项C的描述。

关于图像内容审核服务说法错误的是?

A、politics为涉政敏感人物检测结果

B、terrorism为涉政暴恐检测结果

C、confidence代表置信度,范围0-100

D、label代表每个检测结果标签

答案:C

解析:在图像内容审核服务中,“politics”用于检测涉政敏感人物,“terrorism”用于涉政暴恐检测,“label”代表检测结果标签。而“confidence”代表置信度,其范围是0-1,并非0-100,所以该选项说法错误。

以下哪个不属于 ModelArts 的开发类型?

A、标准模型开发

B、快速建模

C、零基础建模

答案:C

解析:ModelArts的核心开发类型为标准模型开发和快速建模,而零基础建模不属于其官方分类。

以下哪个选项是错误的标识符命名?

A、if

B、print

C、a0*

D、_0a

答案:C

解析:Python标识符命名规则要求由字母、数字、下划线组成,且不能以数字开头或包含特殊符号。Python官方文档明确限定标识符只能使用La-zA-ZO-9J字符集。选项C中的"a0*"包含星号(特殊符号),违反命名规则。选项A"If"符合大小写规范且非保留字,B"print"属于合法内置函数名,D"_0a"以下划线开头且无非法字符。参考Python 3.11语言规范第2.3节Identifiers。

以下哪个不属于 HiAI 中的开发工具?

A、HiAI Service

B、HiAI Engine

C、HiAI Foundation

D、HiAI IDE

答案:D

TensorFlow是哪个公司开发的?

A、甲骨文

B、Facebook

C、Google

D、英伟达

答案:C

解析:TensorFlow由Google Brain团队开发,最初于2015年开源。Google将其广泛应用于内部机器学习项目,并推动其在学术界和工业界的普及。甲骨文(A)主要业务为企业级数据库,Facebook(B)开发了PyTorch框架,英伟达(D)以GPU硬件及CUDA计算平台著称。Google开发者博客及TensorFlow官方文档均明确其归属。

华为 HiAI 平台中的人脸检测功能属于哪个模块

A、HiAI Engine

B、HiAI Framework

C、HiAI Foundation

D、HiAI Service

答案:A

线性回归在 3 维以上的维度中拟合的模型是?

A、曲面

B、平面

C、超平面

D、超曲面

答案:C

解析:线性回归模型用于建模自变量与因变量之间的线性关系。在低维空间中,二维对应直线,三维对应平面。当维度超过三维时,线性方程形式为y = w1x1 + w2x2 + ... + wnxn + b,其中参数wi和b定义了高维空间中的一个子空间。根据线性代数中的定义,在 n 维空间中,线性方程确定的解集是 n - 1 维的几何对象,称为超平面。选项 C 符合这一数学定义,而其他选项要么仅适用于低维情况,要么涉及非线性结构。参考《机器学习》(周志华)中线性模型的几何解释。

以下哪个激活函数可以有效解决梯度消失问题?

A、Tanh

B、Sigmoid

C、Softsign

D、Relu

答案:D

解析:梯度消失问题主要由激活函数在饱和区的导数趋近于零导致,尤其在深层网络中会阻碍参数更新。

特征是描述数据特性的维度,关于其在传统机器学习和深度学习中的可解释性,以下说法正确的是

A、特征在传统机器学习可解释性强,而在深度学习可解释性弱

B、特征在传统机器学习可解释性弱,而在深度学习可解释性强

C、特征在传统机器学习和深度学习可解释性均弱

D、特征在传统机器学习和深度学习可解释性均强

答案:A

解析:传统机器学习依赖人工设计的特征,特征含义明确,模型结构简单,如线性模型、决策树等,解释性较强。深度学习通过多层非线性变换自动学习特征,这些特征通常是抽象、高维的,难以直观理解,模型结构复杂导致可解释性弱。《深度学习》等文献指出,深度学习模型常被视为“黑箱”,因其内部特征难以直接映射到人类可理解的语义。选项A正确反映了这一差异,其他选项与实际情况不符。

下列选项中不属于华为统栈解决方案范畴的是?

A、应用使能

B、边缘计算

C、开源框架

D、芯片使能

答案:C

华为 HiAI 平台中负责芯片支持的模块是哪一个?

A、HiAI Engine

B、HiAI Foundation

C、HiAI Framework

D、HiAI Service

答案:B

以下哪项问题不属于 RAG 用于解决大模型的问题?

A、幻觉问题

B、数据安全问题

C、时效性问题

D、计算效率问题

答案:D

解析:检索增强生成(RAG)技术通过引入外部知识源来增强大语言模型的生成能力,旨在解决幻觉问题(生成不准确或虚假信息)、数据安全问题(控制输出,避免泄露敏感或不当内容)和时效性问题(提供最新信息)。计算效率问题主要涉及模型推理速度、资源消耗等性能优化,通常通过模型压缩、硬件加速等方法解决,不属于RAG技术直接解决的核心问题范畴。

LoRA 在预测练模型旁加入了 A 和 B 两个结构。A 的输入维度与原模型输入维度相同,B 的输出维度与原模型输出维度相同,而 A 的输出维度和 B 的输入维度远小于原模型的输入 / 输出维度(即低秩分解)。以下哪项是这两个结构的参数初始化方法?

A、A: O B: 高斯分布

B、A: 高斯分布 B: O

C、A: O B: O

D、A: 高斯分布 B: 高斯分布

答案:B

解析:LoRA(Low-Rank Adaptation)的核心是通过低秩分解矩阵实现高效的模型微调。其设计原则是在训练初期确保适配模块对原始模型的干扰最小化,即初始残差ΔW=AB的期望为0。根据LoRA原始论文(arXiv:2106.09685),矩阵A通常使用随机高斯初始化(打破对称性并促进梯度流动),而矩阵B初始化为全零(使得AB初始乘积为零,避免破坏预测级权重初始阶段的输出)。选项B符合这一初始化策略。选项A、C、D的初始化方式会导致AB初始非零或无法有效训练。

以下哪项不属于模型压缩的方法?

A、模型蒸馏

B、模型量化

C、模型剪枝

D、Key Cache

答案:D

解析:Key Cache是推理优化技术,用于加速序列生成(如文本生成时缓存历史 Key/Value,避免重复计算),但不改变模型本身的参数规模或结构,属于运行时优化,不属于模型压缩方法。仅在推理阶段缓存中间结果,优化时间效率,不涉及模型本身的“压缩”。

以下哪项不属于 LangChain 提供的短期记忆管理方式?

A、TimeMemory

B、ConversionIMemory (ConversationMemory)

C、BufferMemory

D、BufferWindowIMemory

答案:A

解析:在LangChain框架中,常见的短期记忆(或对话记忆)管理方式包括ConversationMemory、BufferMemory和BufferWindowMemory,用于在对话链中存储和管理上下文信息。TimeMemory并非LangChain提供的标准记忆类型。

以下哪个选项是 MindFormers 大模型套件提供的高效低参微调工具?

A、Trainer

B、MindPet

C、Pipeline

D、AutoClass

答案:B

解析:MindFormers 中专门用于高效低参微调的工具是 MindPet,其设计目标是在保持大模型性能的同时,通过减少可训练参数规模(如 LoRA 的低秩分解)实现低成本微调。其他选项均不具备这一核心功能。

当模型较大导致单卡无法加载时,使用 MindSpore 进行多卡分布式推理。若需将模型权重均匀切分到 2 张卡进行分布式推理,且不进行批量(Batch)推理(即每次仅处理单个输入),以下关于 config 配置参数的描述,正确的是哪一项?

A、data parallel: 2 Model parallel: 1 Pipeline_stage: 1

B、data parallel: 2 Model_parallel: 2 Pipeline_stage: 1

C、data_parallel: 1 Model_parallel: 2 Pipeline_stage: 2

D、data_parallel: 1 Model parallel: 2 Pipeline_stage: 1

答案:D

解析:不拆分数据(data_parallel: 1),拆分模型到 2 卡(model_parallel: 2),不使用流水线并行(pipeline_stage: 1)。

Huggingface PEFT和MindPet都是常用的大模型训练套件,关于 Huggingface PEFT 和 MindPet 的描述,错误的是哪一项?

A、PEFT基于PyTorch实现,MindPet基于Mindspore实现

B、PEFT和MindPet都支持LORA,Prefix Tunining等微调算法

C、PEFT和MindPet都是用于对大模型低参微调的套件

D、PEFT是开源套件,MindPet是闭源套件

答案:D

解析:MindPet(若指 MindSpore 官方的 PEFT 实现)同样属于开源生态的一部分,因为 MindSpore 框架本身是开源的,其配套工具(如参数高效微调模块)通常随框架一同开源,供社区使用。

以下哪项问题不属于 RAG 用于解决大模型的问题

A、计算效率问题

B、幻觉问题

C、时效性问题

D、数据安全问题

答案:A

解析:检索增强生成(RAG)技术主要通过检索外部知识源来增强大语言模型的生成,旨在解决幻觉问题(生成不准确信息)、时效性问题(知识过时)和数据安全问题(可控生成,避免敏感信息泄露)。计算效率问题(如推理速度、资源消耗)通常属于模型优化、硬件加速或模型压缩范畴,RAG反而可能因增加检索环节而略微降低效率,因此计算效率问题不属于RAG直接解决的核心问题。

选取部分参数更新(Selection-Based):仅更新模型中的特定参数子集。引入重参数化(Reparametrization-Based):通过参数分解或结构重组,将模型参数表示为更高效的形式。问题:以下哪项属于引入重参数化(Reparametrization-Based)方法?

A、BitFit

B、Prefix Tuning

C、LoRA

D、RLHF

答案:C

解析:LoRA通过引入两个低秩矩阵(A和B)来近似表示预测练模型权重的更新量(ΔW=AB),这属于一种参数分解或结构重组的重参数化方法。BitFit仅更新模型的偏置参数,属于选取部分参数更新的方法。Prefix Tuning是在输入序列前添加可训练的软提示向量,属于添加额外参数的方法。RLHF(基于人类反馈的强化学习)是一种训练范式,不属于参数高效微调的结构化方法。

ZeRO 分析了模型训练中内存的主要消耗在 Model States 和 Residual States:

Model States 指与模型直接相关、必须存储的状态;

Residual States 指并非模型必需,但在训练过程中额外产生的中间状态(如反向传播所需的激活值,可在计算后释放)。

请问以下哪项不属于 Model States?

A、模型参数

B、激活值

C、模型梯度

D、优化器状态

答案:B

解析:Model States是与模型直接相关、训练过程中必须长期存储的状态,包括模型参数、模型梯度和优化器状态。激活值是在正向传播中生成,用于反向传播计算梯度,属于计算过程中的中间状态,可以在反向传播结束后释放,因此它属于Residual States,而非必须长期保留的Model States。

LoRA 在预测练好的模型结构旁边加入了 A 和 B 两个结构。A 的输入维度和输出维度分别与原始模型的输入输出维度相同,而 B 的输入维度和输出维度是一个远小于原始模型输入输出维度的值。这体现了 LoRA 的低秩特性。以下关于这两个结构的参数初始化方法,正确的是:

A、A O -B O

B、A 高斯分布 -B 高斯分布

C、A 高斯分布 -B O

D、A O -B 高斯分布

答案:C

解析:LoRA(Low-Rank Adaptation)通过引入两个低秩矩阵A和B(初始ΔW = AB)来微调模型权重。根据原始论文,矩阵A使用随机高斯分布初始化以打破对称性并促进学习,矩阵B初始化为零矩阵,使得训练开始时AB为零,从而不对预测练模型的原有输出造成初始扰动。选项C(A高斯分布,B零初始化)是正确的策略。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值