一种基于卷积神经网络的时频差提取方法

    公开(公告)号:CN118245772A

    公开(公告)日:2024-06-25

    申请号:CN202410114890.2

    申请日:2024-01-26

    摘要: 本发明属于电磁信号处理技术领域,特别涉及一种无源定位中时频差提取方法。一种基于卷积神经网络的时频差提取方法,包括以下步骤:接收机截获离散复信号;将离散复信号转化为时频图;用已经训练好的卷积神经网络,分别对时差和频差进行估计,得到粗估计结果;根据粗估计结果和训练网络时得出的统计误差划定一个用以细估的时频差搜索范围;使用网格搜索法在划定的范围内用互模糊函数对粗估计结果进行细估,得到最终的细估计结果;细估计结果作为训练样本反馈至所述卷积神经网络,更新粗估计误差统计特征。本方法很好的平衡了时频差提取方法的计算量和估计精度,与传统方法相比,在计算量远小于传统方法的情况下,获得了几乎最好的估计结果。

    一种基于卷积神经网络的时频差提取方法

    公开(公告)号:CN118245772B

    公开(公告)日:2024-09-17

    申请号:CN202410114890.2

    申请日:2024-01-26

    摘要: 本发明属于电磁信号处理技术领域,特别涉及一种无源定位中时频差提取方法。一种基于卷积神经网络的时频差提取方法,包括以下步骤:接收机截获离散复信号;将离散复信号转化为时频图;用已经训练好的卷积神经网络,分别对时差和频差进行估计,得到粗估计结果;根据粗估计结果和训练网络时得出的统计误差划定一个用以细估的时频差搜索范围;使用网格搜索法在划定的范围内用互模糊函数对粗估计结果进行细估,得到最终的细估计结果;细估计结果作为训练样本反馈至所述卷积神经网络,更新粗估计误差统计特征。本方法很好的平衡了时频差提取方法的计算量和估计精度,与传统方法相比,在计算量远小于传统方法的情况下,获得了几乎最好的估计结果。

    一种基于深度学习的多目标无源定位方法、系统、介质

    公开(公告)号:CN116299170B

    公开(公告)日:2023-09-01

    申请号:CN202310162079.7

    申请日:2023-02-23

    摘要: 本发明属于电磁信号处理技术领域,特别涉及一种多目标无源定位方法。一种基于深度学习的多目标无源定位方法,包括:S1.对接收机空缺输入数据和发射机空缺的标签数据采用零填充法进行填充;S2.对电磁数据进行一维信号的二维图片化;S3.提取时频图像信号的特征;S4.将所提取的特征与定位问题中的其他信息进行拼接;S5.将拼接的数据送入全连接网络进行坐标回归,输出定位结果;S6.在网络训练时,基于网络输出的多个目标的定位结果与标签一一对应,利用置换不变训练法,选取最小的误差结果进行训练。相比于目前假定发射机和接收机数目不变的方法,本方法能够灵活的适用于更多的定位场景。同时,本发明还公开了一种多目标无源定位系统和介质。

    一种基于深度学习的多目标无源定位方法、系统、介质

    公开(公告)号:CN116299170A

    公开(公告)日:2023-06-23

    申请号:CN202310162079.7

    申请日:2023-02-23

    摘要: 本发明属于电磁信号处理技术领域,特别涉及一种多目标无源定位方法。一种基于深度学习的多目标无源定位方法,包括:S1.对接收机空缺输入数据和发射机空缺的标签数据采用零填充法进行填充;S2.对电磁数据进行一维信号的二维图片化;S3.提取时频图像信号的特征;S4.将所提取的特征与定位问题中的其他信息进行拼接;S5.将拼接的数据送入全连接网络进行坐标回归,输出定位结果;S6.在网络训练时,基于网络输出的多个目标的定位结果与标签一一对应,利用置换不变训练法,选取最小的误差结果进行训练。相比于目前假定发射机和接收机数目不变的方法,本方法能够灵活的适用于更多的定位场景。同时,本发明还公开了一种多目标无源定位系统和介质。

    一种Vision Transformer模型结构优化系统、方法、介质

    公开(公告)号:CN116091842A

    公开(公告)日:2023-05-09

    申请号:CN202310177844.2

    申请日:2023-02-23

    摘要: 本发明属于深度学习技术领域,特别涉及一种图像处理优化方法。一种Vision Transformer模型结构优化方法,包括以下步骤:S1.将图片数据利用图片块映射层,先切割为图片块后再分别处理为高维向量;S2.利用级联的优化的Transformer编码器,将所述高维向量进行建模。本发明通过有效结合卷积神经网络与Transformer中的多头注意力层,向Vision Transformer中有效的引入的归纳偏置,提高了模型对图片/图像数据的建模性能。相较于原始的Vision Transformer模型,本发明能够更加高效地给出图片/图像数据的建模结果。同时,本发明还公开了一种Vision Transformer模型结构优化系统及介质。