如何快速选择合适的模型和prompt,langchain来帮你

构建您的语言模型应用程序可能需要在多种提示、模型甚至Chain(这是Langchain的概念)之间进行选择。在这个过程中,您需要以简单、灵活且直观的方式比较不同选项在不同输入上的表现。

LangChain提供了一个名为ModelLaboratory的概念,用于测试并尝试不同的模型。

实验环境是colab,但是还没有成功,模型加载问题,贴出来先看看

安装依赖

!pip install cohere
!pip install huggingface_hub

配置访问key

cohere 的api_key 和 huggingface_hub的access_token,是两个托管模型的地方

%env COHERE_API_KEY=FdHkBHjF3B7ynaCbCs0fxxx
%env HUGGINGFACEHUB_API_TOKEN=hf_MADVhnPvDxxxxTVuYjKbjAxxx

cohere
在这里插入图片描述
huggingface
在这里插入图片描述

模型效果比较

from langchain import LLMChain, OpenAI, Cohere, HuggingFaceHub, PromptTemplate
from langchain.model_laboratory import ModelLaboratory

llms = [
    OpenAI(temperature=0), 
    Cohere(model="command-xlarge-20221108", max_tokens=20, temperature=0), 
    HuggingFaceHub(repo_id="google/flan-t5-xl", model_kwargs={"temperature":1})
]

model_lab = ModelLaboratory.from_llms(llms)

model_lab.compare("What color is a flamingo?")

输出

Input:
What color is a flamingo?

OpenAI
Params: {'model': 'text-davinci-002', 'temperature': 0.0, 'max_tokens': 256, 'top_p': 1, 'frequency_penalty': 0, 'presence_penalty': 0, 'n': 1, 'best_of': 1}


Flamingos are pink.

Cohere
Params: {'model': 'command-xlarge-20221108', 'max_tokens': 20, 'temperature': 0.0, 'k': 0, 'p': 1, 'frequency_penalty': 0, 'presence_penalty': 0}


Pink

HuggingFaceHub
Params: {'repo_id': 'google/flan-t5-xl', 'temperature': 1}
pink

prompt效果比较

prompt = PromptTemplate(template="What is the capital of {state}?", input_variables=["state"])
model_lab_with_prompt = ModelLaboratory.from_llms(llms, prompt=prompt)
model_lab_with_prompt.compare("New York")

输出

Input:
New York

OpenAI
Params: {'model': 'text-davinci-002', 'temperature': 0.0, 'max_tokens': 256, 'top_p': 1, 'frequency_penalty': 0, 'presence_penalty': 0, 'n': 1, 'best_of': 1}


The capital of New York is Albany.

Cohere
Params: {'model': 'command-xlarge-20221108', 'max_tokens': 20, 'temperature': 0.0, 'k': 0, 'p': 1, 'frequency_penalty': 0, 'presence_penalty': 0}


The capital of New York is Albany.

HuggingFaceHub
Params: {'repo_id': 'google/flan-t5-xl', 'temperature': 1}
st john s

prompt 比较

from langchain import SelfAskWithSearchChain, SerpAPIWrapper

open_ai_llm = OpenAI(temperature=0)
search = SerpAPIWrapper()
self_ask_with_search_openai = SelfAskWithSearchChain(llm=open_ai_llm, search_chain=search, verbose=True)

cohere_llm = Cohere(temperature=0, model="command-xlarge-20221108")
search = SerpAPIWrapper()
self_ask_with_search_cohere = SelfAskWithSearchChain(llm=cohere_llm, search_chain=search, verbose=True)
chains = [self_ask_with_search_openai, self_ask_with_search_cohere]
names = [str(open_ai_llm), str(cohere_llm)]
model_lab = ModelLaboratory(chains, names=names)
model_lab.compare("What is the hometown of the reigning men's U.S. Open champion?")

输出

Input:
What is the hometown of the reigning men's U.S. Open champion?

OpenAI
Params: {'model': 'text-davinci-002', 'temperature': 0.0, 'max_tokens': 256, 'top_p': 1, 'frequency_penalty': 0, 'presence_penalty': 0, 'n': 1, 'best_of': 1}


> Entering new chain...
What is the hometown of the reigning men's U.S. Open champion?
Are follow up questions needed here: Yes.
Follow up: Who is the reigning men's U.S. Open champion?
Intermediate answer: Carlos Alcaraz.
Follow up: Where is Carlos Alcaraz from?
Intermediate answer: El Palmar, Spain.
So the final answer is: El Palmar, Spain
> Finished chain.

So the final answer is: El Palmar, Spain

Cohere
Params: {'model': 'command-xlarge-20221108', 'max_tokens': 256, 'temperature': 0.0, 'k': 0, 'p': 1, 'frequency_penalty': 0, 'presence_penalty': 0}


> Entering new chain...
What is the hometown of the reigning men's U.S. Open champion?
Are follow up questions needed here: Yes.
Follow up: Who is the reigning men's U.S. Open champion?
Intermediate answer: Carlos Alcaraz.
So the final answer is:

Carlos Alcaraz
> Finished chain.

So the final answer is:

Carlos Alcaraz

参考

### Ollama Prompt 使用方法 Ollama 是一种允许在个人设备上运行大型语言模型的技术,这使得开发者能够更方便地测试部署各种应用。对于Prompt的设计,其核心在于构建有效的输入字符串,以便让LLM理解并给出预期的回答。 为了有效使用Ollama Prompts,在设计提示语时应考虑以下几个方面: - **清晰度**:确保指令简洁明了。 - **上下文提供**:如果适用,给予足够的背景信息模型更好地理解回应请求。 - **具体化目标**:明确指出希望获得什么样的输出形式或内容范围[^1]。 #### 示例代码展示如何调用带有特定参数配置的OLLAMA API接口发送自定义prompt: ```python import requests def send_ollama_prompt(prompt_text, api_key="your_api_key"): url = "https://api.ollama.com/v1/completions" headers = { 'Content-Type': 'application/json', 'Authorization': f'Bearer {api_key}' } data = {"prompt": prompt_text} response = requests.post(url, json=data, headers=headers) return response.json() # 测试函数 if __name__ == "__main__": result = send_ollama_prompt("解释什么是量子计算?") print(result['choices'][0]['text']) ``` --- ### LangChain 整合教程 LangChain 提供了一套完整的工具集来加速基于大语言模型的应用程序开发过程。通过引入链的概念,可以轻松组合多个处理单元形成复杂的工作流,从而简化应用程序逻辑的设计与实现。 要将 LangChain 集成到现有项目中,通常涉及以下几部分工作: - 安装必要的库文件并通过Poetry管理依赖关系。 - 构建适合应用场景的数据管道。 - 利用预置模块快速搭建基础架构。 - 自定义业务逻辑以满足特殊需求[^2]。 下面是一个简单的例子,展示了怎样利用LangChain创建一个基本的任务执行器,并将其应用于自然语言查询解析场景下: ```python from langchain import ConversationChain from langchain.prompts.prompt import PromptTemplate from langchain.chains.conversation.memory import ConversationBufferMemory template = """The following is a friendly conversation between a human and an AI. Human: {input} AI:""" prompt = PromptTemplate(input_variables=["input"], template=template) conversation_chain = ConversationChain( llm=None, # 替换为实际使用的LLM实例 memory=ConversationBufferMemory(), verbose=True, prompt=prompt ) response = conversation_chain.predict(input="你好,世界!") print(response) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值