一、书接上文
【大模型应用开发-实战】(一)使用Ollama在⾃⼰的电脑上运⾏⼤模型(上)-优快云博客
【大模型应用开发-实战】(二)使用Ollama在⾃⼰的电脑上运⾏⼤模型(中)-优快云博客
二、LangChain 调⽤本地模型
LangChain 官⽅⽂档有详细介绍如何调⽤本地模型
三、示例代码和效果
1、代码
from langchain_community.llms import Ollama
llm = Ollama(model="qwen:4b")
text = "hello,请⽤中⽂介绍⼀下你⾃⼰。"
print(llm.invoke(text))

本文介绍了如何在个人电脑上使用Ollama运行大模型以及LangChain官方文档中关于调用本地模型的详细步骤,提供了Python代码示例和预期效果。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



