写在前面
本篇文章用来记录在了解学习大模型的过程中遇到的一些名词缩写,好记性不如烂笔头,记录下来,也供大家参考。如有不正确的,欢迎指正。
名词扫盲
缩写 | 英文全程 | 中文 | 备注 |
---|---|---|---|
- | - | - | - |
A2A | Agent to Agent | 智能体交互协议 | |
ADK | Agent Development Kit | 智能体开发工具 | |
Agent | 智能体 | 让大模型“代理/模拟”「人」的行为,使用某些“工具/功能”来完成某些“任务”的能力 | |
AGI | artificial general intelligence | 通用人工智能,是具备与人类同等智能、或超越人类的人工智能 | |
AI | Artificial Intelligence | 人工智能 | |
AI Hallucinations | AI幻觉 | ||
AIGC | Artificial Intelligence Generated Content | 人工智能生成内容 | |
AIME | American Invitational Mathematics Examination | 美国数学邀请赛 | |
APE | Automatic Prompt Engineering | 自动提示工程 | |
Base Model | 基座模型 | 基座模型是一个通用的语言模型,通常经过大量文本数据的预训练 | |
Base LLM | 基础语言模型 | ||
Basic semantic similarity | 基本语义相似度 | 检索技术 | |
benchmark | 基准测试 | ||
BERT | Bidirectional Encoder Representation from Transformers | 双向编码器表示 | 在2018年提出的一种预训练语言表示的方法 |
BLEU | Bilingual Evaluation Understudy | 双语评估替换 | BLEU是一种用于评估机器翻译结果质量的指标。它主要侧重于衡量机器翻译输出与参考翻译之间的相似程度,着重于句子的准确性和精确匹配。 |
BPE | Byte Pair Encoding | 基于字节对编码 | 用于进行tokennization(将输入文本拆分为token) |
CBOW | continuous bag of words | 连续词袋模型 | 给定上下文,来预测input word |
Chat Model | 聊天模型 | 聊天模型是在基座模型的基础上,特别针对对话生成进行了优化 | |
Claude | Anthropic 开发的一系列高性能且智能的AI 模型。强调模型行为的安全性和可控性 | ||
CNN | Convolutional Neural Network | 卷积神经网络 | |
codeforces | 一个提供在线评测系统的俄罗斯网站 | ||
COT | Chain Of Thought | 链式思维 | |
CPU | Central Processing Unit | 中央处理器 | 处理器 |
dify | 是一个开源的LLM 应用开发平台(画布、工作流) | ||
DSL | Domain Specific Language | 领域特定语言 | |
DPU | Deep learning Processing Unit | 深度学习处理器 | 处理器 |
ETL | Extract-Transform-Load | 提取、转换和加载 | |
Few-shot | 小样本 | 少样本提示应至少使用三到五个示例 | |
Function Calling | 函数调用 | ||
FFN | Feed-Forward Neural Network | 前馈神经网络 | |
Gemini | Google开发的生成式人工智能聊天机器人 | ||
GPU | Graphics Processing Unit | 图形处理器 | 处理器 |
GPT | Generative Pre-trained Transformer | 生成式预训练变换器 | |
GPQA | Grade-Level Problems in Question Answering | 专家级推理能力的问答基准 | |
GQA | Grouped-Query Attention | 分组查询注意力 | |
GGUF | GPT-Generated Unified Format | Georgi Gerganov定义发布的一种大模型文件格式(预训练结果的二进制格式) | |
Including Metadata | 使用元数据 | 检索技术 | |
Instruction Model | 指令模型 | 指令模型是在基座模型上进行进一步训练,以理解和执行用户的具体指令 | |
Instruction Tunned | 指令微调 | 通过专门的训练,可以更好地理解并遵循指令 | |
LCEL | LangChain Core Execution Layer | langChain的新实现层 | |
LoRA | Low-Rank Adaptation of Large Language Models | 大语言模型的低阶自适应 | |
LLM | Large Language Model | 大语言模型 | |
LLM Aided Retrieval | LLM辅助检索 | 检索技术 | |
llama | Large Language Model Meta AI | Meta AI公司于2023年2月发布的大型语言模型 | |
MCP | Model Context Protocol | 模型上下文协议 | 由Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。 |
MLA | Multi-Head Latent Attention | 多头潜在注意力 | 架构 |
MMLU | Mean Multi-Language Understanding | 多语言理解均值 | |
MMR | Maximum marginal relevance | 最大边际相关性 | 检索技术 |
MoE | Mixture of Experts | 混合专家模型 | 架构 |
MQA | Multi-Query Attention | 多查询注意力 | |
MSE | Microservices Engine | 微服务引擎MSE | |
MTP | Multi-Token Prediction | 多Token预测技术 | |
NLP | Natural Language Processing | 自然语言处理 | |
NPU | Neural network Processing Unit | 神经网络处理器 | 处理器 |
ollama | Ollama是大语言模型便捷的管理和运维工具 | ||
one-hot | 独热码 | 将离散的分类标签转换为二进制向量 | |
One-shot | 单样本 | ||
Prompt | 提示词,即给大模型的输入 | 将大模型返回的输出称为Completion | |
Prompt Engineering | 提示工程 | ||
Prompt Rejection | 提示词注入 | ||
Precision | 精确率 | 又叫查准率,但不等同于准确率,精准率代表对正样本结果中的预测准确程度;而准确率则代表整体的预测准确程度,既包括正样本,也包括负样本 | |
Pretrain-Finetune | 预训练-微调 | ||
Prompt Stuffing | 提示词填充 | ||
RAG | Retrieval-Augmented Generation | 检索增强生成 | |
ReAct | Reasoning and Action | 融合了Reasoning和Acting的一种范式,推理过程是浅显易懂,仅仅包含thought-action-observation步骤 | |
Recall | 召回率 | 实际为正的样本中被预测为正样本的概率 | |
Retrieval | 检索 | 指根据用户的问题去向量数据库中搜索与问题相关的文档内容 | |
RLHF | Reinforcement Learning from Human Feedback | 基于人类反馈对语言模型进行强化学习 | |
RL | Reinforcement Learning | 强化学习 | |
ROUGE | Recall-Oriented Understudy for Gisting Evaluation | 面向召回的要点评估替补 | 主要关注机器生成的摘要中是否捕捉到了参考摘要的信息 |
RWKV | Recurrent Weighted Key Value | 基于RNN的加权键值 | |
RNN | Recurrent Neural Network | 循环神经网络 | |
SA | Self-Attention | 自注意力机制 | |
SAE | Serverless App Engine | Serverless 应用引擎 | |
SC | self consistency | 自我一致性 | |
SFT | Supervised Fine-Tuning | 监督微调 | |
Skip-Gram | 给定input word来预测上下文 | ||
Softmax | 归一化指数函数 | 应用于多分类问题 | |
SSE | Server Sent Events | 服务器发送事件 | 是Cline和MCP Server之间的一种通信方式,仅支持服务器 → 客户端消息 |
STDIO | Standard Input Output | 标准输入/输出 | 是Cline和MCP Server之间的一种通信方式 |
SVM | Support Vector Machine | 支持向量机 | |
SWE-bench Verified | Software Engineering | 对原始 “SWE - bench” 的改进版本,用于评估 AI 模型在软件工程领域性能的基准测试数据集 | |
TAO | Thought(思考)->Action(行动)->观察(Observation) | ||
temperature | 温度系数 | 用于控制文本生成的随机性和多样性。值越大,多样性越大,值越小,输出约倾向高概率文本 | |
TF-IDF | term frequency–inverse document frequency | 支持向量机 | 一字词对于一个文件集或一个语料库中的其中一份文件的重要程度 |
ToT | Tree Of Thoughs | 思维树 | |
Tokenizer | 分词器 | ||
TPU | Tensor Processing Unit | 张量处理器 | 处理器 |
Transformer | 变换器 | 架构 | |
TTS | Text To Speech | 文本转语音 | |
Vertex AI | Vertex AI 是一个机器学习 (ML) 平台,可让您训练和部署机器学习模型和人工智能应用 | ||
vLLM | 伯克利大学LMSYS组织开源的大语言模型高速推理框架 | ||
WAF | Web Application Firewall | 防火墙 | |
Word2Vec | 用于生成词嵌入(word embeddings)的高效方法 | ||
Zero-shot | 零样本 | ||
- | - | - | - |
写在后面
如果本文内容对您有价值或者有启发的话,欢迎点赞、关注、评论和转发。您的反馈和陪伴将促进我们共同进步和成长。