如何快速搭建医疗AI助手?启真医学大模型QiZhenGPT完整部署教程
启真医学大模型(QiZhenGPT)是一个开源的中文医疗大语言模型,依托启真医学知识库构建专业医疗指令数据集,基于Chinese-LLaMA-Plus、CaMA、ChatGLM等基础模型优化,显著提升中文医疗场景问答准确性,已在浙江大学第二附属医院通过MedCopilot智慧医疗助手落地应用。
📌 核心功能与技术优势
为什么选择QiZhenGPT?
医疗AI模型的核心价值在于知识准确性和临床实用性。QiZhenGPT通过三大技术创新解决传统模型的医疗数据"幻想"问题:
- 权威数据支撑:采用560K真实医患问答数据+478K结构化医学知识(药品/疾病)构建训练集,数据来源包括data/train/sft-20k.json和启真医学知识库
- 多模型适配架构:支持7B/13B等多尺度模型训练,提供scripts/merge_llama_plus.sh等工具实现模型高效融合
- 医疗场景优化:针对药品适应症、疾病诊断等任务专项优化,在data/eval/药品适应症评测数据集.csv测试中准确率达91.49%
图:启真医学大模型知识增强架构示意图,展示医学知识库与大模型的融合机制
典型应用场景 ✨
-
药品知识问答
精准回答药品适应症、禁忌症等专业问题,如查询"非布司他"可准确返回"用于痛风患者高尿酸血症的长期治疗" -
辅助临床决策
针对赖特综合征等复杂疾病,可完整输出关节炎、尿道炎、结膜炎等典型临床表现 -
智能病历生成
通过MedCopilot助手自动汇总患者诊疗数据,生成符合规范的电子病历文书
🔧 3步快速部署指南
环境准备与依赖安装
# 克隆项目仓库
git clone https://gitcode.com/gh_mirrors/qi/QiZhenGPT
# 安装依赖包
cd QiZhenGPT && pip install -r requirements.txt
模型获取与权重合并
-
基础模型选择(三选一):
- Chinese-LLaMA-Plus-7B(轻量级)
- ChatGLM-6B(对话优化)
- CaMA-13B(医学增强)
-
下载LoRA权重: 将医疗领域微调权重文件存放至lora/lora_weights目录
-
执行模型合并:
# 以LLaMA系列为例 sh scripts/merge_llama_plus.sh
启动医疗问答Demo
根据选择的基础模型,修改对应演示脚本的模型路径参数:
# LLaMA系列模型
python gradio_chinese-llama_demo.py
# ChatGLM模型
python gradio_chatglm_demo.py
# CaMA模型
python gradio_cama-demo.py
启动成功后访问本地端口即可体验医疗问答功能,支持药品查询、疾病诊断等专业医疗咨询。
图:MedCopilot智慧医疗助手在医院的实际应用界面,展示诊疗数据统计与辅助决策功能
📊 模型性能对比
在药品适应症评测中(基于94种药品说明书对比),QiZhenGPT表现显著优于通用模型:
| 模型 | 标准1(命中1个适应症) | 标准3(命中2/3以上适应症) |
|---|---|---|
| ChatGLM | 39.36% | 14.74% |
| ChatGPT | 47.87% | 15.96% |
| QiZhen-CaMA-13B | 91.49% | 72.34% |
图:启真医学大模型知识推理流程图,展示从提问到生成专业回答的完整过程
🚀 MedCopilot智慧医疗助手
作为QiZhenGPT的落地应用,MedCopilot已实现五大核心功能:
1. 临床诊疗全流程支持
- 功能清单助手:自动汇总当日入院患者、手术安排等工作事项
- 辅助诊断模块:结合患者临床数据提供个性化治疗建议
- 医疗质量监控:实时检查诊疗行为是否符合国家医疗规范
2. 部署与扩展建议
医院或研究机构可通过以下方式扩展应用:
- 基于lora/lora_weights微调专科模型(如心血管/神经内科)
- 集成电子病历系统,开发定制化病历生成工具
- 利用scripts/callbacks.py实现诊疗流程自动化
⚠️ 使用须知与免责声明
本项目相关资源仅供学术研究之用,严禁用于商业用途。模型输出结果受训练数据、计算精度等因素影响,不能替代专业医师诊断。使用时应严格遵循LICENSE协议及医疗行业相关规定。
通过本教程,您可以快速部署一个专业的医疗AI问答系统。项目持续更新模型权重与工具脚本,建议定期关注仓库更新获取最新医疗AI能力。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



