用LangChain调用Ollama的时候一个小问题

说来让人无语,简单记录一下。安装好Ollama后,我们通常通过访问http://127.0.0.1:11434来测试其是否正常,通常会出来“Ollama is running”,然后我习惯性地从Chrome把地址拷贝到VS Code,

oembed = OllamaEmbeddings(base_url="http://127.0.0.1:11434/", model="mxbai-embed-large")

结果报:

ValueError: Error raised by inference API HTTP code: 404, 404 page not found

真是太奇怪了,试了几次才发现,原来不能带那个反斜杠!这个问题真是让人无语,简单记录一下。

### 如何在LangChain项目中集成和使用Ollama #### 安装必要的库 为了使LangChain能够与Ollama协同工作,需先确保环境中已安装了相应的Python包。这可以通过pip来实现: ```bash pip install langchain ollama ``` 此操作会从PyPI仓库下载并安装`langchain`及其依赖项[^1]。 #### 初始化Ollama模型实例 一旦环境配置完毕,在Python脚本或交互式解释器里创建一个Ollama类的新对象就变得简单起来。下面的例子展示了怎样加载名为`llama2`的预训练模型,并通过它执行一次简单的查询请求: ```python from langchain_community.llms import Ollama # 创建基于Llama2架构的语言模型实例 llm = Ollama(model="llama2") response = llm.invoke("How can LangSmith assist with testing?") print(response) ``` 这段代码定义了一个变量`llm`,该变量指向由指定参数初始化后的Ollama对象;随后调用了它的方法`invoke()`来进行对话式的交流尝试[^3]。 对于更复杂的场景或是想要调整更多选项的情况,则可以考虑采用如下方式构建聊天机器人应用: ```python from langchain_ollama.chat_models import ChatOllama chat_llm = ChatOllama( model="llama2:13b", temperature=0, ) conversation_history = chat_llm.generate(["What is the weather like today?", "Tell me more about it."]) for message in conversation_history['messages']: print(f"{message['role']}: {message['content']}") ``` 这里引入了`ChatOllama`作为更加高级别的接口用于处理多轮次的人机对话流程。除了基本的消息传递外,还可以自定义诸如温度(`temperature`)之类的超参以影响生成回复的质量特性[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值