← 返回列表

一种高精度人脸属性特征识别装置及方法

申请号: CN202311338505.4
申请人: 成都信息工程大学
申请日期: 2023/10/17

摘要文本

本发明公开了一种高精度人脸属性特征识别装置及方法,其装置包括人脸和关键点检测模块、分类模块、人脸对齐模块和人脸属性识别模块;人脸和关键点检测模块用于获取不同网络层的特征,输出P层特征;分类模块用于接收P层特征,并输出高精度的人脸检测图像和高精度的人脸关键点;人脸对齐模块用于获取高精度的人脸关键点,得到人脸对齐图像;人脸属性识别模块用于将人脸对齐图像用于基于参数软共享的方式进行多任务人脸属性识别,并训练特征交互模型达到高精度的效果,本方案从两个方面进行特征交互,极大的提升了特征交互的程度,使得模型能够充分提取人脸图像的特征。

专利详细信息

项目 内容
专利名称 一种高精度人脸属性特征识别装置及方法
专利类型 发明授权
申请号 CN202311338505.4
申请日 2023/10/17
公告号 CN117079337B
公开日 2024/2/6
IPC主分类号 G06V40/16
权利人 成都信息工程大学
发明人 董盆景; 胡志恒; 李英祥; 唐鑫
地址 四川省成都市双流区西南航空港经济开发区学府路1段24号

专利主权项内容

1.一种高精度人脸属性特征识别方法,其特征在于,使用一种高精度人脸属性特征识别装置,包括人脸和关键点检测模块、分类模块、人脸对齐模块和人脸属性识别模块;所述人脸和关键点检测模块用于获取不同网络层的特征,输出P层特征;所述分类模块用于接收P层特征,并输出高精度的人脸检测图像和高精度的人脸关键点;所述人脸对齐模块用于获取高精度的人脸关键点,得到人脸对齐图像;所述人脸属性识别模块用于将人脸对齐图像用于基于参数软共享的方式进行多任务人脸属性识别,并训练特征交互模型达到高精度的效果;所述人脸和关键点检测模块为一个单阶段的人脸检测模型,其主干网络分为四个阶段Stage1、Stage2、Stage3和Stage4,分别获取到不同网络层的特征;所述Stage1、Stage2、Stage3和Stage4获取到的特征的尺寸分别为104×104×128、52×52×256、26×26×512、13×13×1024,获取到的四个特征分别代表对输入特征下采样4倍、8倍、16倍和32倍;所述人脸检测模型采用Wider Face数据集转变为VOC类型进行训练;其模型参数设置为:采用Adam优化器进行训练,设置初始lr为0.001,设定每四步对其衰减,衰减为0.9,batch_size设置为16,epoch设置为100,人脸检测模型的卷积层的权重设置为卷积核与通道数乘积的平方根,偏离值设置为0;人脸检测模型的线性层的权重设置为0-0.01,偏离值设置为0;所述人脸属性识别模块为人脸属性识别模型,所述人脸属性识别模块采用Celeba数据集进行训练;其模型参数设置为:人脸属性识别模型卷积层的权重设置为卷积核与通道数乘积的平方根,偏离值设置为0;人脸属性识别模型线性层的权重设置为0-0.01,偏离值设置为0;训练步数epochs设置为100;每个批次训练数据大小为32;学习率设置为e-4;学习率衰减因子为0.9,激活函数采用h_swish函数,将dropout层的参数设置为0.2;包括以下步骤:S1、使用人脸和关键点检测模块获取输入人脸图像的四个特征,将获取到的四个特征通道数统一为256层,其将其输出分别记为A1、A2、A3和A4;S2、将输出A1、A2、A3和A4进行融合,得到多层融合特征,并将融合特征进行卷积运算,得到P层特征;S3、将P层特征输入到分类模块中,输出人脸检测图像和高精度的人脸关键点;S4、判断人脸检测图像中人脸是否存在;若是,则进入步骤S5;若否,则更换输入的人脸图像,并返回步骤S1;S5、提取高精度的人脸关键点中的双眼特征点,计算出左右眼的中心点,将左右眼的中心点进行连线后与水平方向进行比较,得到相对水平方向的角度;S6、根据相对水平方向的角度,对具备高精度人脸关键点的图像进行变换得到人脸对齐图像;S7、标注人脸对齐图像的两个人脸属性,将标注后的人脸属性图像分别输入到两个MobileNetV3模型中,使用特征交互模型连接两个MobileNetV3模型的特征完成特征交互;所述步骤S7中,使用特征交互模型将两个MobileNetV3模型进行连接和特征交互具体包括以下分步骤:S71、使用特征交互模型依次连接两个MobileNetV3模型的卷积层,以元素加权求和的方式实现交互,得到卷积层交互后的新特征和,其公式如下:XaXb其中,和均为交互后的新特征,∈[, , ]和∈[, , ]分别是两个MobileNetV3模型在同一位置卷积层输出的特征,、和分别为特征的高度、宽度和通道数;为卷积层交互后网络模型自身的留存程度,为卷积层交互后获取其他网络模型特征信息的程度,且和的和为1;XaXbzaHWCzbHWCHWCwselfwotherwselfwotherS72、沿通道层进行连接操作,进行特征分离,将特征分离后的和输入到全连接层中,通过全连接层输出其各自特征的差异程度,并输出通道层交互后的和/>的权值,其公式如下:zazb其中,通道层包括全连接层,为通道层交互后网络模型自身的留存程度,/>为通道层交互后获取其他网络模型特征信息的程度,(.)为全连接函数,(.)为激活函数,(.)为对不同特征通道层进行均值操作,(.)为分类函数,(.)输出两个值,其输出的第一个值为/>,输出的第二个值为/>;freluksoftmaxsoftmaxS73、将和/>输入到中间网络层之后的网络层中,丰富两个MobileNetV3模型自身的特征;S74、对通道层交互后的特征的宽高进行分离,取分离后的单通道的均值,之后对分离的特征点进行连接,并进行卷积池化操作,输出通道层交互后的和/>的权值,完成特征交互,/>和/>的公式如下:其中,为特征交互后网络模型自身的留存程度,/>为特征交互后获取其他网络模型特征信息的程度,/>为对MobileNetV3模型特征进行连接的函数,(.)为卷积操作,(.)为池化操作;convbatchS8、计算特征交互的损失值,并对特征交互的损失值通过损失函数进行加权求和,得到求和后的损失值;S9、将求和后的损失值反向传播训练两个MobileNetV3模型,得到训练好的模型,并使用训练好的模型实现高精度人脸属性特征识别。 来自: