-
公开(公告)号:CN114692764B
公开(公告)日:2024-11-26
申请号:CN202210344819.4
申请日:2022-03-31
Applicant: 武汉大学
Abstract: 本申请涉及一种旋转目标检测方法、装置、设备及可读存储介质,涉及计算机视觉技术领域,包括基于特征提取骨干网络对包含多个待定位对象的待定位图像进行特征提取得到深度不同的多张第一特征图;基于特征金字塔网络对多张第一特征图进行特征聚合得到感受野不同的多张第二特征图;对多张第二特征图进行上采样得到具有相同尺寸的多张第三特征图,将多张第三特征图进行相加得到融合特征图;将融合特征图输入卷积层得到顶点热力图、日冕中心点热力图、尺寸预测图、偏执预测图和方向预测图;根据上述五张图计算得到各个待定位对象的角点坐标。本申请可降低旋转目标检测的难度和专业性依赖,并提高检测精度。
-
公开(公告)号:CN116703759A
公开(公告)日:2023-09-05
申请号:CN202310595965.9
申请日:2023-05-25
Applicant: 武汉大学
IPC: G06T5/00 , G06T5/20 , G06N3/0464 , G06N3/08
Abstract: 本发明提供图像去雾方法及系统,能够对有雾图像进行实时、高精度去雾。方法包括:步骤I,判断雾天图像是浓雾或薄雾情况下拍摄的图像;步骤II,根据判断结果采用相应的方法A或B进行图像去雾;方法A中,对于给定的单张雾天图像,仅选取图像中上1/4区域内暗通道值最大的前0.1%的像素,利用其映射到有雾图像相应位置像素的平均值计算大气光强;用改进后的公式来粗略估算其透射率,得到粗略的透射率图;将转化为灰度图的原图像作为引导图像,将粗略的透射率图作为输入图像,得到细化后的透射率图;基于此,恢复出无雾的图像;方法B中,利用改进后的K估计模块进行训练和特征提取,得到恢复出无雾图像所需的参数,进而生成无雾图像。
-
公开(公告)号:CN116645398A
公开(公告)日:2023-08-25
申请号:CN202310589213.1
申请日:2023-05-19
Applicant: 武汉大学
IPC: G06T7/246 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08 , G06N3/048 , G06V10/764
Abstract: 本申请公开了一种基于深度神经网络的旋转注意力单目标跟踪方法和装置,通过提取当前帧图像的特征以及包括跟踪目标的模板图像的特征;基于旋转注意力模块对提取的特征进行融合,并通过预设的解码器再次提取所述当前帧图像的特征;基于稀疏注意力模块,将基于旋转注意力模块融合后的特征和再次提取的当前帧图像的特征再次融合,获得目标特征;对所述目标特征进行分类回归,获得分类结果和回归结果;根据所述分类结果和所述回归结果确定所述当前帧图像中所述跟踪目标的位置,实现了在部分遮挡、完全遮挡、光照变化等极端的环境下,对单目标进行高精度跟踪。
-
公开(公告)号:CN115171184A
公开(公告)日:2022-10-11
申请号:CN202210743972.4
申请日:2022-06-27
Applicant: 武汉大学
IPC: G06V40/16 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/08
Abstract: 本发明提供一种跨数据集面部表情识别方法、装置、设备及可读存储介质。该方法包括:分别对N张面部图像进行数据增强处理,得到每张面部图像对应的正视图xi_q和xi_k1;分别寻找N张面部图像的面部特征点的热图hi的近邻对应的面部图像xl;将N张面部图像对应的正视图x_k1={xi_k1|i∈[1,N]}和N张面部图像的面部特征点的热图hi的近邻对应的面部图像输入动量编码器;基于动量编码器的输出得到改进的InfoNCE损失函数;通过改进的InfoNCE损失函数、正视图xi_q以及目标面部表情数据集对编码器和分类器进行参数调整。通过本发明,解决了现有技术中,监督预训练的深度模型无法实现跨数据集进行面部表情识别的问题。
-
公开(公告)号:CN112417991A
公开(公告)日:2021-02-26
申请号:CN202011202209.8
申请日:2020-11-02
Applicant: 武汉大学
Abstract: 本发明公开了一种基于沙漏胶囊网络的双注意力人脸对齐方法。本发明提出的沙漏胶囊网络确保网络在提取人脸图片中多尺度特征的同时更好的捕获人脸特征点间的空间位置关系,对人脸特征点的空间位置关系进行建模,增强算法在部分遮挡情况下的鲁棒性;本发明还设计了两个新颖的注意力机制,即胶囊注意力机制和空间注意力机制,使网络更加关注有助于人脸特征点定位的特征,同时抑制其他不相关特征,增强了网络的表达能力。在部分遮挡、表情夸张、光照变化等极端的环境下,本发明方法依旧能够保持较高的精度。
-
公开(公告)号:CN105738766B
公开(公告)日:2018-09-21
申请号:CN201610098527.1
申请日:2016-02-23
Applicant: 武汉大学
IPC: G01R31/08
Abstract: 本发明公开了一种接触网单端行波故障定位装置,涉及一种接触网故障定位技术。本装置设置接触网接入电流、电压和回流全信息数据采集单元、事件触发故障信息保全单元、短路故障识别单元、短路故障定位单元以及故障显示与报警单元,在牵引站和接触网相连接的线路接入电流互感器和电压互感器,通过实时检测和分析电流和电压的瞬时波形,识别故障类型,并确定故障发生的地点。本发明用于电气化铁路接触网短路故障定位,具有结构简单、精度高、投资少和可靠性高的特点。
-
公开(公告)号:CN108512255A
公开(公告)日:2018-09-07
申请号:CN201810502392.X
申请日:2018-05-23
Applicant: 中国电力科学研究院有限公司 , 中国南方电网有限责任公司 , 武汉大学
Abstract: 本发明公开了一种电压跌落故障下DFIG动态响应特性分析方法,属于电力系统暂态稳定领域。该方法既包括常见的DFIG电气动态响应过程原理分析,同时也包括风机机械动态响应过程原理分析。机械动态响应过程原理分析包括建立空气动力学模型、轴系模型与桨距角控制模型以及机械响应过程分析;电气动态响应过程原理分析包括建立双馈感应发电机模型、转子侧变频器控制原理分析、低电压穿越特殊控制分析以及电气响应过程分析。本发明设计的电压跌落故障时DFIG动态响应特性分析方法可以更准确的反应双馈风机的故障暂态过程,具有普适性。
-
公开(公告)号:CN106383295B
公开(公告)日:2018-06-19
申请号:CN201610946158.7
申请日:2016-10-26
Applicant: 武汉大学 , 国网湖北省电力公司襄阳供电公司 , 国家电网公司
IPC: G01R31/08
Abstract: 本发明涉及一种供用电系统谐波源识别方法及模型,包括:同步实时采集供用电系统电源和所有负荷的电压和电流全信息,并标注时标存储;根据所采集的带时标的信息,计算该时刻的基波和各次谐波的电压、电流和阻抗的幅值和相位;计算和确定供用电系统相应时刻的电源和各用户的基波有功功率及谐波有功功率的大小和方向;根据供用电系统相应时刻的电源和各负荷的谐波功率方向识别谐波源;根据功率平衡原则,验证谐波源识别的正确性。本发明用于供用电系统谐波源识别、计算和分析谐波源对供用电系统产生的附加功率损耗,为供用电系统的谐波源监测、谐波功率计量和谐波污染责任的划分提供理论依据和有效技术手段,实时、客观、简单、实用和易推广。
-
公开(公告)号:CN101701719B
公开(公告)日:2011-07-27
申请号:CN200910272800.8
申请日:2009-11-17
Applicant: 武汉大学
IPC: F23N5/00
Abstract: 本发明公开了一种火电厂最佳燃烧节煤发电控制方法及其装置,涉及火力发电控制技术领域。本方法包括下列步骤:①燃烧信息和运行工况信息的同步实时数据和图像采集(1);②燃烧信息和运行工况信息的分析与优化(2);③最佳燃烧工况信息和最佳燃烧火焰信息的确定(3);④最佳燃烧节煤发电控制方案生成(4);⑤最佳燃烧节煤发电控制方案实施(5)。本装置设置有节煤发电控制决策系统(50),由工控机或集散型控制系统和应用软件功能模块(A)组成,实现最佳燃烧节煤发电控制方案的自动生成。与现有技术相比,本发明可以在不同的煤质、不同负荷条件下,提供实时最佳燃烧节煤发电控制,从而减低发电煤耗,减少燃烧排放量。
-
公开(公告)号:CN101701719A
公开(公告)日:2010-05-05
申请号:CN200910272800.8
申请日:2009-11-17
Applicant: 武汉大学
IPC: F23N5/00
Abstract: 本发明公开了一种火电厂最佳燃烧节煤发电控制方法及其装置,涉及火力发电控制技术领域。本方法包括下列步骤:①燃烧信息和运行工况信息的同步实时数据和图像采集(1);②燃烧信息和运行工况信息的分析与优化(2);③最佳燃烧工况信息和最佳燃烧火焰信息的确定(3);④最佳燃烧节煤发电控制方案生成(4);⑤最佳燃烧节煤发电控制方案实施(5)。本装置设置有节煤发电控制决策系统(50),由工控机或集散型控制系统和应用软件功能模块(A)组成,实现最佳燃烧节煤发电控制方案的自动生成。与现有技术相比,本发明可以在不同的煤质、不同负荷条件下,提供实时最佳燃烧节煤发电控制,从而减低发电煤耗,减少燃烧排放量。
-
-
-
-
-
-
-
-
-