通过ModelScope开源Embedding模型将图片转换为向量

本文介绍如何通过ModelScope魔搭社区中的视觉表征模型图片转换为向量,并入库至向量检索服务DashVector中进行向量检索。

ModelScope魔搭社区旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单。

ModelScope魔搭社区的愿景是汇集行业领先的预训练模型,减少开发者的重复研发成本,提供更加绿色环保、开源开放的AI开发环境和模型服务,助力绿色“数字经济”事业的建设。 ModelScope魔搭社区将以开源的方式提供多类优质模型,开发者可在平台上免费体验与下载使用。

在ModelScope魔搭社区,您可以:

  • 免费使用平台提供的预训练模型,支持免费下载运行

  • 一行命令实现模型预测,简单快速验证模型效果

  • 用自己的数据对模型进行调优,定制自己的个性化模型

开源 Embedding 模型是指那些可供开发者免费使用的预训练模型,用于将文本、词汇或序列数据映射到低维向量空间(即嵌入空间),以便更好地捕捉语义和上下文信息。这些模型常用于自然语言处理任务,如词嵌入(Word Embeddings)、句子嵌入(Sentence Embeddings)和文档嵌入(Document Embeddings)等。 1. Word2Vec(例如Google的word2vec和GloVe):这是最早的词嵌入模型,如Continuous Bag of Words (CBOW) 和 Skip-gram,它们生成每个词的固定维度向量,表示其语义和语法特征。 2. FastText:由Facebook开发,它不仅考虑了词本身的字符信息,还能捕捉到未登录词(不在训练词汇表中的词)的子词信息。 3. BERT (Bidirectional Encoder Representations from Transformers):这是一种基于Transformer架构的模型,它能够捕捉单词之间的双向上下文关系,是深度学习在预训练模型中的重要里程碑。 4. ELMO (Embeddings from Language Models) 和 GPT系列(包括GPT-2和GPT-3):这些模型使用深度双向LSTM或者Transformer结构,提供了更复杂的语言模型,生成的嵌入包含更多的语境信息。 5. Universal Sentence Encoder (USE):Google开发的模型,为整个句子生成固定长度的向量,用于各种跨语言和跨任务的文本理解应用。 6. DistilBERT、MiniLM等轻量级版本:为了提高效率,对大型模型如BERT进行了压缩,提供更小的模型大小和更快的推理速度。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值