看过我上一篇部署过GraphRAG失败的原因,我查到了,最后定位是找到原因了,qwen-plus,千问不会根据提示词返回以下格式:2222222
{
"title": "<报告标题>",
"summary": "<执行摘要>",
"rating": "<影响严重性评分>",
"rating_explanation": "<评分解释>",
"findings": [
{
"summary": "<见解1摘要>",
"explanation": "<见解1解释>"
},
{
"summary": "<见解2摘要>",
"explanation": "<见解2解释>"
}
]
}
不会按照这种格式返回,有时候会把 summary识别成 c_summary、in_summary 等参数,这样我们有两种做法,
1、第一种就是直接把chat模型换成,阿里云百炼的deepseek_v3 即可
2、第二种就是修改提示词,把它转成中文的提示词,这样也能识别(自己去试)
我就用第一种直接换成deepseek_v3,这样就能运行成功了
再这过程中还遇到另外一个问题,就是default_embedding_model 选择的模型,
text-embedding-v3的时候,需要进行修改源码,不然会出现数据过长的问题;直接在
venv/lib/python3.11/site-packages/graphrag/index/operations/embed_text/strategies/openai.py中
的 大概35行
# batch_size = args.get("batch_size", 16)
修改成
batch_size = 10
这样就能部署完成了