大多数开源LLM框架中,都会需要指定LLM参数。这些参数通常是用一个词典—— llm_kwargs 来存储。
使用案例
answer_generator = LLMChain(
llm=MY_LLM,
prompt=PROMPT,
llm_kwargs={
"max_new_tokens": 512,
"top_p": 0.9,
"temperature": 0.6,
"repetition_penalty": 1.2,
"do_sample": True,
}
)
常用参数列表
(参考LangChain官网:langchain_community.llms.huggingface_endpoint.HuggingFaceEndpoint — 🦜🔗 LangChain 0.1.12)
| 参数名 | 参数类型 = 默认值 (HuggingFace)</ |

最低0.47元/天 解锁文章
54

被折叠的 条评论
为什么被折叠?



