什么是 Embedding?万物即可Embedding

部署运行你感兴趣的模型镜像

什么是 Embedding?万物即可Embedding

1 什么是 Embedding?

如果要用一句话来解释:Embedding 就是把原本“看不懂”的符号,翻译成机器能理解的数字向量。

想象一下:

人类能理解“苹果”和“香蕉”相似,和“桌子”差得远,但在计算机眼里,词汇最初只是符号(例如 ID 编号),没有任何语义。于是我们需要一种方法,把这些符号变成“有意义的数字坐标”,这套坐标体系就是 Embedding 空间,如图1所示。

图 1. Embedding空间

2 Embedding 的作用

  1. 压缩表示
  • 例如用 one-hot 表示一个词,假如有 10 万个词,每个词都是一个长度 100,000 的向量,大部分位置都是 0,非常低效。
  • Embedding 可以把它压缩成 100~1,000 维的实数向量,既节省存储,又利于计算。
  1. 捕捉语义
  • 相似的对象会被映射到相近的向量。
  • “苹果”和“香蕉”在空间里距离很近,而“苹果”和“电脑”距离更远。
  1. 通用特征
  • Embedding 可以作为“底层语言”,被下游任务复用。
  • 比如词向量可以用于机器翻译、情感分析、问答系统。

3 Embedding 用在哪些地方?

3.1 传统深度学习时代

  • NLP(自然语言处理)
  • 最经典的就是 Word2Vec、GloVe 等词嵌入方法。
  • 让“king - man + woman ≈ queen” 这样的语义关系能在向量空间中呈现出来。

图 2. 词向量

  • 推荐系统
  • 用户 ID、商品 ID 没有数值意义,通过 Embedding 可以学到“用户偏好”和“商品特征”,再计算匹配度。
  • 计算机视觉
  • 图像经过 CNN 提取后,也会变成一个向量(即图像的 embedding),用来做分类或检索。

3.2 大模型(LLM、扩散模型等)时代

  • 语言模型
  • GPT、BERT 等模型在最开始都会把单词/子词转换成向量(token embedding)。
  • 训练完成后,我们还可以直接取 embedding 用于 语义搜索(找相似文本)。
  • 多模态模型
  • CLIP 模型会同时把图像和文本转成 embedding,放在同一个空间里。这样“猫的照片”和“a cat”文本在 embedding 空间中会很接近。

图 3. 多模态 Embedding

  • 生成式模型
  • 在扩散模型或音乐生成模型中,embedding 也用于把输入条件(比如提示词)翻译成模型能理解的向量。

4 总结

Embedding 可以理解为一种“翻译器”,它把原本没有数值意义的离散符号(如词语、用户ID、商品、图片等)转化为低维、稠密的向量表示。这样做的好处是既能压缩数据、提升计算效率,又能在向量空间中保留语义或特征上的相似性,使得相似的对象更接近,不相似的对象更远。

在传统深度学习中,Embedding 常见于词向量和推荐系统;在大模型时代,它是语言模型、图文匹配、多模态对齐等任务的基础。可以说,Embedding 是机器理解世界的一种“坐标系”。

最近这几年,经济形式下行,IT行业面临经济周期波动与AI产业结构调整的双重压力,很多人都迫于无奈,要么被裁,要么被降薪苦不堪言。但我想说的是一个行业下行那必然会有上行行业,目前AI大模型的趋势就很不错,大家应该也经常听说大模型,也知道这是趋势,但苦于没有入门的契机,现在他来了,我在本平台找到了一个非常适合新手学习大模型的资源。大家想学习和了解大模型的,可以**点击这里前往查看**

您可能感兴趣的与本文相关的镜像

Qwen3-VL-8B

Qwen3-VL-8B

图文对话
Qwen3-VL

Qwen3-VL是迄今为止 Qwen 系列中最强大的视觉-语言模型,这一代在各个方面都进行了全面升级:更优秀的文本理解和生成、更深入的视觉感知和推理、扩展的上下文长度、增强的空间和视频动态理解能力,以及更强的代理交互能力

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值