2024山东大学软件学院创新实训——智慧医疗问答系统(三)

ChatGML微调训练医疗问答任务

目录

ChatGML微调训练医疗问答任务

一. ChatGLM2-6B

二.  P-tuning-v2

三. 模型下载 

四. 数据集处理

五. 模型微调

六. 模型推理

七. 模型检测 

八. 对比微调前后效果

九. 灾难性遗忘


一. ChatGLM2-6B

官方github地址:https://github.com/THUDM/ChatGLM2-6B

ChatGLM2-6B 是 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,同时引入了许多新特性,如:更强大的性能、更长的上下文、更高效的推理、更开放的协议 等。

(1)cli_demo

cli界面是通过在命令行之内直接交互来进行问答的,如下图所示:

(2)web_demo

web_demo界面是通过在Web网页中进行交互问答的,如下图所示:

(3)web_demo2

web_demo2界面也是通过在Web网页中进行交互问答的,如下图所示:

二.  P-tuning-v2

 参考论文:P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks

微调技术:使用ChatGLM 官方推出的 P-tuning-v2

P-tuning v2 微调技术利用 deep prompt tuning,即对预训练 Transformer 的每一层输入应用 continuous prompts 。deep prompt tuning 增加了 continuo us prompts 的能力,并缩小了跨各种设置进行微调的差距,特别是对于小型模型和困难任务。

左图为P-tuning,右图为P-tuning v2

三. 模型下载 

huggingface 地址:https://huggingface.co/THUDM/chatglm2-6b/tree/main

注意:这里将模型文件下载到了ChatGLM2-6B/THUDM/chatglm2-6b目录下

四. 数据集处理

使用 GitHub 上的 Chinese-medical-dialogue-data 中文医疗问答数据集

下载地址:https://github.com/Toyhom/Chinese-medical-dialogue-data

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值