
Embedding Models
文章平均质量分 96
Embedding Models向量模型专栏
AI仙人掌
NLP算法专家|深耕智能文本处理领域,专注用AI技术驱动金融与政务场景的数字化转型
技术核心能力
领域专长
• 金融政务场景:10年+垂直领域经验,聚焦智能风控、政务文档解析、高精度信息抽取
• 文本智能处理:构建金融合同解析、监管文件结构化、政务问答系统等20+行业解决方案
展开
-
大语言模型中的嵌入模型
在LLMs的语境中,嵌入模型是一种神经网络,旨在将文本(如单词、短语、句子)表示为连续向量空间中的密集向量。这些向量表示能捕捉文本项之间的语义关系,是现代NLP系统的基石。"king"和"queen"这两个词的嵌入向量可能在向量空间中非常接近。"king"和"man"之间的向量关系可能与"queen"和"woman"之间的关系类似。想象完这些语义关系在向量空间中的样子后,我们可能会认为单词直接变成了这些能保留语义关系的向量。这种想法在讨论LLM处理流程中的令牌时可能会引起一些混淆。原创 2025-04-04 00:00:00 · 1245 阅读 · 3 评论 -
如何为你的项目找到“真命天模“:大模型|预训练模型|嵌入模型Embedding Models
当GPT-4这样的"灭霸级"大模型、BERT这样的"特种兵"预训练模型,还有Sentence Transformers这样的"轻骑兵"嵌入模型同时摆在面前…这份指南就是你的"AI模型选妃攻略"!:用GPT-4做脏话检测 ≈ 用粒子对撞机砸核桃(效果不错但成本血亏),其实微调后的BERT小可爱用1/10资源就能搞定!大模型就像超级计算机——能解宇宙方程,但用它算1+1=2就太败家了!“用BERT做聊天机器人像让数学家讲相声——不是不行,但费劲!记住:没有最好的模型,只有最合适的模型。不选贵的,只选对的!原创 2025-04-05 00:15:00 · 1354 阅读 · 53 评论 -
向量嵌入Vector Embeddings让机器“读懂“世界的数字魔法
今天咱们要聊的是AI界的"翻译官"——向量嵌入(Vector Embeddings)。这货可是把文字、图片这些人类能懂的东西,变成计算机能理解的数字密码的黑科技!向量嵌入干的就是这个——把各种信息变成一串数字(向量),让电脑能"摸到"这些概念的轮廓。比如"猫"和" kitten"这两个词,经过语言模型处理后,它们的数字密码会非常接近。单看这些数字就像天书,但妙就妙在——电脑能通过"邻居算法"找到相似的向量,就像在派对上帮你找到兴趣相投的朋友!A:前者是数单词出现次数,后者是理解单词的"灵魂"原创 2025-04-01 12:54:23 · 1072 阅读 · 8 评论 -
什么是向量搜索Vector Search?
向量是一种数据结构,存储了一组数字。在这里,它指的是保存了数据集数字摘要的向量,可以看作是数据的指纹或摘要,正式名称叫嵌入。以下是一个简单的例子:"红苹果"0.025112340.054731230.012345670.004567890.033456780.00789012如果你只需要查找LLM中存储的信息匹配项,那么工作就完成了。但真正自适应的应用会希望从内部数据源(如企业数据库)中提取匹配和信息。原创 2025-04-02 20:30:00 · 308 阅读 · 0 评论 -
什么是嵌入模型Embedding Models?
如果你处理通用任务且不需要高度专业化模型,使用BERT、GPT或ResNet等预训练嵌入通常足够且节省时间。如果你的数据非常特定(如小众领域或语言),可能需要微调预训练模型或训练自定义模型。原创 2025-04-01 15:45:00 · 1846 阅读 · 0 评论