LangChain如何使用通义千问的向量模型

1、问题

开始用的代码如下:

import os
from langchain_openai import OpenAIEmbeddings,  OpenAI


embeddings_model = OpenAIEmbeddings(
        api_key=os.getenv("DASHSCOPE_API_KEY"),  # 换成你的API KEY
        base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
        model="text-embedding-v3"
)
embeddings = embeddings_model.embed_documents(
    [
        "你好!",         
        "你能做什么"
    ]
 )
print(f"Embedding: {embeddings}")

执行时报错:

openai.BadRequestError: Error code: 400 - {
   'error': {
   'code': 'InvalidParameter', 'param': None, 'message': '<400> InternalError.Algo.InvalidParameter: Value error, contents is neither str nor list of str.: input.contents', 'type': 'InvalidParameter'}, 'id': '2aadf398-7093-9b37-be4c-c85829fce932', 'request_id': '2aadf398-7093-9b37-be4c-c85829fce932'}

2、原因

文本列表 在送入 embeddings.create 之前已经被 toke

【四旋翼无人机】具备螺旋桨倾斜机构的全驱动四旋翼无人机:建模与控制研究(Matlab代码、Simulink仿真实现)内容概要:本文围绕具备螺旋桨倾斜机构的全驱动四旋翼无人机展开研究,重点探讨其系统建模与控制策略,结合Matlab代码与Simulink仿真实现。文章详细分析了无人机的动力学模型,特别是引入螺旋桨倾斜机构后带来的全驱动特性,使其在姿态与位置控制上具备更强的机动性与自由度。研究涵盖了非线性系统建模、控制器设计(如PID、MPC、非线性控制等)、仿真验证及动态响应分析,旨在提升无人机在复杂环境下的稳定性和控制精度。同时,文中提供的Matlab/Simulink资源便于读者复现实验并进一步优化控制算法。; 适合人群:具备一定控制理论基础和Matlab/Simulink仿真经验的研究生、科研人员及无人机控制系统开发工程师,尤其适合从事飞行器建模与先进控制算法研究的专业人员。; 使用场景及目标:①用于全驱动四旋翼无人机的动力学建模与仿真平台搭建;②研究先进控制算法(如模型预测控制、非线性控制)在无人机系统中的应用;③支持科研论文复现、课程设计或毕业课题开发,推动无人机高机动控制技术的研究进展。; 阅读建议:建议读者结合文档提供的Matlab代码与Simulink模型,逐步实现建模与控制算法,重点关注坐标系定义、力矩分配逻辑及控制闭环的设计细节,同时可通过修改参数和添加扰动来验证系统的鲁棒性与适应性。
### 关于 LangChain 通义的介绍 LangChain 是一种用于构建基于大型语言模型的应用程序框架,而通义则是阿里云推出的一个强大的预训练多模态模型。通过集成这两个技术栈,可以创建复杂且高效的自然语言处理应用程序。 #### 接入方式与功能特性 为了使开发者能够更便捷地使用通义的能力,LangChain 提供了一个专门设计好的接口——`StuffDocumentsChain`[^1]。此链允许用户将多个文档作为输入传递给通义,并获取经过处理后的响应结果。这使得开发人员可以在不改变原有业务逻辑的情况下快速引入先进的AI算法支持。 除了上述提到的功能外,在实际项目中还可以借助其他组件来增强系统的整体性能: - **Flux**:这是来自阿里云的服务平台之一,它可以帮助开发者轻松调用各种API资源并将其应用于自己的产品之中[^2]。 - **Chroma向量存储库**:当涉及到自定义知识库时,可以通过该模块实现数据的有效管理和检索操作[^3]。 此外,对于希望获得更加流畅用户体验的应用场景来说,LangChain 支持采用流式输出的方式呈现最终的结果。 ```python from langchain.chains import StuffDocumentsChain from langchain.prompts import PromptTemplate from langchain.llms import Qwen llm = Qwen() prompt_template = "请根据以下内容回答题:\n{context}\n\n题是:{question}" PROMPT = PromptTemplate(template=prompt_template, input_variables=["context", "question"]) stuff_chain = StuffDocumentsChain(llm=llm, prompt=PROMPT) result = stuff_chain.run({"input_documents": docs, "question": question}) print(result) ``` 这段代码展示了如何设置 `StuffDocumentsChain` 来准备上下文环境以及执行查询请求的过程。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值