← 返回列表

基于攻击模式的动态实体对齐方法

申请号: CN202410251791.9
申请人: 广州大学
更新日期: 2026-03-17

专利详细信息

项目 内容
专利名称 基于攻击模式的动态实体对齐方法
专利类型 发明申请
申请号 CN202410251791.9
申请日 2024/3/6
公告号 CN117829141A
公开日 2024/4/5
IPC主分类号 G06F40/279
权利人 广州大学
发明人 田志宏; 黄婕; 周盈海; 刘园; 仇晶; 鲁辉; 李默涵; 孙彦斌; 王瑞; 何群; 邱日轩; 徐天福; 郑志彬; 崔宇
地址 广东省广州市番禺广州大学城外环西路230号

摘要文本

本发明公开了基于攻击模式的动态实体对齐方法,涉及网络安全防护技术领域,通过深度学习模型进行实体抽取和关系抽取,采用深度学习的Transformer标记文本中的命名实体,通过嵌入表示法将实体和关系映射到向量空间,CNN和RNN用于捕捉上下文信息,注意力机制提高信息关注度,多任务学习联合处理实体抽取和关系抽取后构建知识图谱,将提取出攻击模式抽象语义描述作为实体特征嵌入,将映射的标准化格式要点作为辅助实体属性标签,联合知识图谱中子图内多种关系信息,同时使用时间参数集合增加实体的时序特征,生成准确、唯一且具有动态特点的攻击实体“画像”。本发明解决了现有对齐手段的准确性不够高的问题,同时实现了实体对齐随时间变化而自发调整。 专利查询网

专利主权项内容

1.基于攻击模式的动态实体对齐方法,其特征在于:所述对齐方法包括以下步骤:S1:攻击模式的抽取使用GPT模型对CTI进行预处理,并基于CTI内容生成威胁情报扩充训练数据集用于模型训练;S2:文本嵌入将文本数据从高维离散表示形式映射为低维连续向量,通过保留语义和上下文信息,将文本转化为向量表示;S3:三元组数据抽取通过深度学习模型进行实体抽取和关系抽取,采用深度学习的Transformer标记文本中的命名实体,通过嵌入表示法将实体和关系映射到向量空间,CNN和RNN用于捕捉上下文信息,注意力机制提高信息关注度,多任务学习联合处理实体抽取和关系抽取后构建知识图谱;S4:实体对齐模型的训练结合训练命名实体标记模型得到待处理的多个相似实体的攻击模式集合,将提取出攻击模式抽象语义描述作为实体特征嵌入,将映射的标准化格式要点作为辅助实体属性标签,联合知识图谱中多种关系信息,选取与待处理实体相连接的3-hop以内连接关系,生成准确且唯一的攻击实体“画像”;每一攻击实体“画像”除了有攻击模式的标注属性、整合多种关系限定后特征集合之外,它还拥有代表时间信息的模型时序参数集,当比较多个相似实体时,实体携带的时间标记会与模型时序参数集共同作用,动态更新“画像”,实现最新实体对齐,实体对齐过程直接经过特定规则由时间戳生成模型时序参数,与实体静态嵌入无关,同时无需集中处理大规模时间数据,只需依靠卷积神经网络层层训练,自发寻找模型时序参数来调整实体对齐模型;S5:结果输出得到输入为CTI文本,输出为不含相似数据的三元组集合,每个实体都拥有基于攻击模式以及时间信息的“描述画像”用于唯一表示攻击实体的依据。