← 返回列表

面向档案的可信大语言模型训练、推理方法和装置

申请号: CN202311500581.0
申请人: 北京微点科学技术有限公司; 中国人民大学; 北京微点仁达科技有限公司
申请日期: 2023/11/13

摘要文本

本发明提供一种面向档案的可信大语言模型训练、推理方法和装置,该训练方法包括:将多个文本形式的档案数据转化为张量形式数据,以得到第一可信训练集;基于多个文本形式的档案数据,采用有效模型架构来构建预训练语言模型;使用第一可信训练集对预训练语言模型进行无监督学习,并对结果进行有监督微调训练,得到第二可信大语言模型;根据相同用户查询内容与不同候选输出之间的用户偏好排序以及预设模板集合,得到第二可信训练集;使用第二可信训练集对第二可信大语言模型进行无监督学习,并对结果进行有监督训练,得到可信奖励模型;基于可信奖励模型,得到可信大语言模型。本发明可以更准确、更专业的适配档案推理任务场景。 来自马-克-数-据-官网

专利详细信息

项目 内容
专利名称 面向档案的可信大语言模型训练、推理方法和装置
专利类型 发明申请
申请号 CN202311500581.0
申请日 2023/11/13
公告号 CN117494815A
公开日 2024/2/2
IPC主分类号 G06N5/04
权利人 北京微点科学技术有限公司; 中国人民大学; 北京微点仁达科技有限公司
发明人 杨建梁; 钱明辉; 李胡蓉; 鞠翔; 潘菲; 匡扶; 王驰; 赵梦纯; 郭佳璐; 苟佳洁; 孙可
地址 北京市通州区经海三路109号天骥智谷46号楼3层; 北京市海淀区中关村大街59号;

专利主权项内容

1.一种面向档案的可信大语言模型训练方法,其特征在于,所述方法包括:将不同类型的档案数据进行预处理,得到多个文本形式的档案数据;将所述多个文本形式的档案数据转化为张量形式数据,以得到第一可信训练集;基于所述多个文本形式的档案数据,采用有效模型架构来构建预训练语言模型;使用所述第一可信训练集对所述预训练语言模型进行无监督学习,得到第一可信大语言模型;使用所述第一可信训练集对所述第一可信大语言模型进行有监督微调训练,得到第二可信大语言模型;根据相同用户查询内容与不同候选输出之间的用户偏好排序以及预设模板集合,得到第二可信训练集;使用所述第二可信训练集对所述第二可信大语言模型进行无监督学习,得到第三可信大语言模型;使用所述第二可信训练集对所述第三可信大语言模型进行有监督训练,得到可信奖励模型;基于所述可信奖励模型,将所述第二可信大语言模型在基于人工反馈的强化学习的训练下,得到可信大语言模型。