1. 引言
在 AI 大模型(如 ChatGPT、LLaMA)的应用中,我们经常听到“向量数据库”这个概念。为什么大模型需要向量数据库?它到底解决了什么问题?本文将从向量、语义理解、向量之间的距离等方面入手,带你理解向量数据库的核心作用,并解释它在 AI 时代的重要性。
2. 什么是向量?
向量(Vector)是数学中的一个概念,可以简单理解为一个有方向和大小的数值列表。在 AI 领域,向量通常用于表示文本、图片、音频等信息。例如,下面是一个 3 维向量的例子:
import numpy as np
vector = np.array([0.5, -0.2, 0.8])
print(vector)
但在实际应用中,向量的维度可能是 128、512,甚至 768 维,这样的高维向量能更精准地表示信息的特征。
3. 为什么需要用向量来表示文本?
传统的计算机理解文本是基于字符串匹配的,例如查找关键词 “苹果” 时,它只会寻找完全匹配的 “苹果”。但现实中,我们希望 AI 能理解语义相似性,例如:
- “苹果”和“iPhone”可能是相关的(苹果公司生产的手机)。
- “猫”和“宠物”也有一定的关联性。
普通的关键词搜索做不到这一点,而向量表示能让 AI 知道哪些词、句子、段落是相似的。这就是语义向量的价值。
如何将文本转换为向量
通常,文本可以通过**词嵌入(Word Embedding)**技术转换为向量。常见方法包括 Word2Vec、GloVe 和 Transformer 模型的 Embedding 层。使用 sentence-transformers
库,我们可以轻松实现文本向量化:
from sentence_transformers import SentenceTransformer
model = SentenceTransformer('all-MiniLM-L6-v2') # 预训练的文本向量模型
sentence = "人工智能正在改变世界"
vector = model.encode(sentence)
print(vector[:10]) # 打印向量的前10个值
4. 向量之间的距离——衡量相似性的方法
既然向量表示了文本的语义,我们就需要计算不同向量之间的“相似程度”,常见的相似性计算方法包括:
4.1 余弦相似度(Cosine Similarity)
衡量两个向量方向是否相近,角度越小,相似度越高:
KaTeX parse error: Unexpected character: ' ' at position 28: … Similarity} = ̲rac{A \cdot B}{…
Python 代码示例:
from sklearn.metrics.pairwise import cosine_similarity
vec1 = np.array([0.5, 0.1, 0.3])
vec2 = np.array([0.4, 0.2, 0.3])
similarity = cosine_similarity([vec1], [vec2])
print(f"余弦相似度: {similarity[0][0]:.4f}")
4.2 欧几里得距离(Euclidean Distance)
计算两个向量在空间中的实际距离:
e
x
t
E
u
c
l
i
d
e
a
n
D
i
s
t
a
n
c
e
=
(
x
1
−
x
2
)
2
+
(
y
1
−
y
2
)
2
+
.
.
.
ext{Euclidean Distance} = \sqrt{(x_1 - x_2)^2 + (y_1 - y_2)^2 + ...}
extEuclideanDistance=(x1−x2)2+(y1−y2)2+...
Python 代码示例:
from scipy.spatial.distance import euclidean
distance = euclidean(vec1, vec2)
print(f"欧几里得距离: {distance:.4f}")
5. 向量数据库的作用
如果 AI 需要在海量知识中查找与用户问题相关的内容,就不能依赖传统的数据库(如 MySQL),因为:
- 文本匹配不支持语义搜索,例如 “AI 发展” 和 “人工智能趋势” 是相关的,但关键词匹配查找不到它们。
- 数据量巨大时查询速度慢,普通数据库不适合处理数百万条高维向量的查询。
向量数据库(如 FAISS、ChromaDB、Pinecone)通过索引大量高维向量,并利用余弦相似度或欧几里得距离快速找到最相似的内容。
使用 FAISS 进行向量检索
import faiss
# 创建向量数据库
dimension = 3 # 假设是 3 维向量
index = faiss.IndexFlatL2(dimension)
# 添加向量
vectors = np.array([[0.5, 0.1, 0.3], [0.4, 0.2, 0.3], [0.1, 0.3, 0.7]], dtype='float32')
index.add(vectors)
# 查询最相似的向量
query_vector = np.array([[0.45, 0.15, 0.3]], dtype='float32')
D, I = index.search(query_vector, k=1) # k=1 返回最相似的一个向量
print(f"最近的向量索引: {I[0][0]}, 距离: {D[0][0]:.4f}")
6. ChatGPT 学习使用教程
ChatGPT从入门到精通](https://pan.quark.cn/s/f4cc2f481cad)
7. 结论
向量数据库是大模型的重要组件,它解决了普通数据库无法处理语义搜索的问题,让 AI 具备理解语义、快速匹配、访问本地知识的能力。在 AI 时代,掌握向量和向量数据库的基本概念,将帮助我们更好地理解和应用大模型技术。
未来,向量数据库将成为 AI 应用的“知识库”,让 AI 变得更智能、更个性化。你是否准备好使用它,打造属于自己的 AI 知识助手呢?