使用llm模型为qwen
这里的知识库函数和实时数据函数暂时为假数据,主要为实现整个流程。
from langchain import LLMChain, PromptTemplate
from langchain.llms import HuggingFacePipeline
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import torch
# 假设这是您的findZZ函数
def findZZ(question):
print("进入知识库查询函数:*****************************************")
# 此处仅为示例,实际逻辑应根据业务需求实现
return 0.8, "这是一个关于知识库的问题"
# 假设这是您的search_word函数
def search_word(keyword):
print("进入实时查询函数:*****************************************")
# 此处仅为示例,实际应该从外部API或数据库中获取数据
if "今天天气" in keyword:
return "今天北京天气晴朗,温度适宜。"
elif "今天是几号" in keyword:
from datetime import datetime
return f"今天是{datetime.now().strftime('%Y年%m月%d日')}。"
elif "今天的股票情况" in keyword:
return "今日股市整体表现良好,多数指数上涨。"
else:
return "&#