基于大型语言模型指令微调的流调问答模板生成方法
申请人信息
- 申请人:华东师范大学
- 申请人地址:200241 上海市闵行区东川路500号
- 发明人: 华东师范大学
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 基于大型语言模型指令微调的流调问答模板生成方法 |
| 专利类型 | 发明申请 |
| 申请号 | CN202311073614.8 |
| 申请日 | 2023/8/24 |
| 公告号 | CN117574919A |
| 公开日 | 2024/2/20 |
| IPC主分类号 | G06F40/35 |
| 权利人 | 华东师范大学 |
| 发明人 | 陈琴; 叶林浩; 郑仁杰; 程超; 雷智凯; 王佳镐; 贺樑 |
| 地址 | 上海市闵行区东川路500号 |
摘要文本
华东师范大学获取“一种透气窗帘布”专利技术,本发明公开了一种基于大型语言模型指令微调的流调问答模板生成方法,其特点是该方法具体包括:设计流调问答指令数据格式、指令输入向量化表示、大模型微调和流调问题生成等步骤。本发明与现有技术相比具有方法简便,较好的解决了流调信息收集过程中依赖大量人力、问答模板单一、效率低等问题,快速提升流调问答效果,通过设计有效流调问答指令去激发大型语言模型强大的语言生成能力,通过LoRA技术对大模型进行微调,以最小的计算代价快速提升模型在流调问答模板生成任务中的适配能力,实用性强,具有良好的应用前景。
专利主权项内容
1.一种基于大型语言模型指令微调的流调问答模板生成方法,其特征在于:采用LoRA技术对大模型进行微调的方法,利用大模型强大的语言生成能力,以及上下文学习能力和思维链能力,自动生成流调问答模板,该方法具体包括:1)设计流调问答指令数据格式:给定流调任务描述和当前对话历史下,具体指令输入格式为:任务描述 + 对话历史 + "流调员";输出格式为:当前对话历史下流调员下一步的提问;2)指令输入向量化表示:将指令输入预训练模型编码后,得到指令输入向量特征表示,其中L代表指令输入序列的长度,d代表上下文编码的向量表示;3)大模型微调:在原chatglm模型旁边增加一个旁路,分别为降维矩阵A和升维矩阵B,用随机高斯分布初始化A矩阵,用0矩阵初始化B矩阵,原chatglm模型的输入/输出维度不变,输出时将B矩阵和A矩阵与chatglm模型的参数叠加,训练的时候固定原chatglm模型的参数,只对A矩阵和B矩阵的参数进行更新,模型的具体微调更新由下述(a)式表示为:
(a);其中,为初始模型的参数;/>为LoRA模型的训练参数;d为模型上一层输出维度;k为模型下一层输入维度;4)流调问答模板生成:利用指令输入向量化表示步骤得到的指令输入向量特征表示、模型参数/>、降维矩阵A和升维矩阵B,得到长度为T的目标预测响应/>,其由解码端逐个生成下述(b)式表示当前对话历史下应该提问的问题:
(b);其中,表示当前t时刻已经生成的输出;5)通过下述(c)式表示的损失函数使得模型生成的问题与真实问题一致:
(c);其中, 来自马-克-数-据