← 返回列表
一种目标噪声分离方法、系统及终端设备
申请人信息
- 申请人:广州伏羲智能科技有限公司
- 申请人地址:510000 广东省广州市天河区软件路17号G2栋6楼616房
- 发明人: 广州伏羲智能科技有限公司
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 一种目标噪声分离方法、系统及终端设备 |
| 专利类型 | 发明申请 |
| 申请号 | CN202311706233.9 |
| 申请日 | 2023/12/12 |
| 公告号 | CN117727312A |
| 公开日 | 2024/3/19 |
| IPC主分类号 | G10L21/0208 |
| 权利人 | 广州伏羲智能科技有限公司 |
| 发明人 | 袁文怡; 王弘越; 陈炳辉; 罗峥尹 |
| 地址 | 广东省广州市天河区软件路17号G2栋6楼616房 |
摘要文本
广州伏羲智能科技有限公司获取“一种透气窗帘布”专利技术,本发明提供的一种目标噪声分离方法、系统及终端设备,包括:基于编码器构建深度神经网络模型并训练得到深度神经网络音轨分离模型;获取具有目标噪声和环境噪声的待分离混合音频信号,将其混合噪声幅度特征时域图输入深度神经网络音轨分离模型中,通过编码器的融合层将从混合噪声幅度特征时域图中提取的上下文特征和幅度特征进行融合得到目标噪声的幅度特征时域图;上下文特征表征待分离混合音频信号中各个声源的分布结构信息;依据目标噪声的幅度特征时域图得到目标噪声的时域信号。本发明利用深度神经网络音轨分离模型能获得高精度的幅度特征和上下文特征,能转准确分离环境噪声和目标噪声,解决了目前无法同时兼顾准确度和保真的缺陷。
专利主权项内容
1.一种目标噪声分离方法,其特征在于,所述方法包括:步骤S1,基于编码器构建深度神经网络模型,并对所述深度神经网络模型进行训练得到深度神经网络音轨分离模型;所述编码器设置有融合层;步骤S2,获取待分离混合音频信号;其中,所述待分离混合音频信号具有目标噪声和环境噪声;步骤S3,依据所述待分离混合音频信号,得到混合噪声幅度特征时域图;步骤S4,将所述混合噪声幅度特征时域图输入所述深度神经网络音轨分离模型中,通过所述编码器从所述混合噪声幅度特征时域图中提取上下文特征和幅度特征,并通过所述融合层将所述上下文特征和所述幅度特征进行融合,得到所述目标噪声的幅度特征时域图;其中,所述上下文特征表征所述待分离混合音频信号中各个声源的分布结构信息;步骤S5,依据所述目标噪声的幅度特征时域图得到所述目标噪声的时域信号。