前言
该系列教程的代码: https://github.com/shar-pen/Langchain-MiniTutorial
我主要参考 langchain 官方教程, 有选择性的记录了一下学习内容
这是教程清单
- 1.初试langchain
- 2.prompt
- 3.OutputParser/输出解析
- 4.model/vllm模型部署和langchain调用
- 5.DocumentLoader/多种文档加载器
- 6.TextSplitter/文档切分
- 7.Embedding/文本向量化
- 8.VectorStore/向量数据库存储和检索
- 9.Retriever/检索器
- 10.Reranker/文档重排序
- 11.RAG管道/多轮对话RAG
- 12.Agent/工具定义/Agent调用工具/Agentic RAG
初始化大模型接口并调用
一般都是用ChatOpenAI这个类,以下两个方式引用都可以:
- from langchain_openai.chat_models import ChatOpenAI
- from langchain_openai import ChatOpenAI
这是对话的重要参数,关键的是model.
Key init args — completion params:
- model: str, Name of OpenAI model to use.
- temperature: float, Sampling temperature.
- max_tokens: Optional[int], Max number of tokens to generate.
- logprobs: Optional[bool], Whether to return logprobs.
- stream_options: Dict, Configure streaming outputs, like whether to return token usage when streaming (
{"include_usage": True}).
这是客户端的重要参数,关键的有base_url和api_key.
Key init args — client params:
- timeout: Union[float, Tuple[float, float], Any, None], Timeout for requests.
- max_retries: int, Max number of retries.
- api_key: Optional[str], OpenAI API key. If not passed in will be read from env var OPENAI_API_KEY.
- base_url: Optional[str], Base URL for API requests. Only specify if using a proxy or service
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url='http://localhost:5551/v1',
api_key='EMPTY',
model_name='Qwen2.5-7B-Instruct',
temperature=0.2,
)
使用invoke函数来调用大模型接口
question = "What is the capital of USA?"
llm

最低0.47元/天 解锁文章
1045

被折叠的 条评论
为什么被折叠?



