-
公开(公告)号:CN118968078A
公开(公告)日:2024-11-15
申请号:CN202411005765.4
申请日:2024-07-25
Applicant: 福州大学
Abstract: 本发明提出基于时空冗余的轻量化全景视频质量评价方法,包括以下步骤:步骤S1:采集360°全景视频,并将视频整理成数据集后进行预处理;步骤S2:将数据集输入映射为等距矩形投影格式,通过时空一致性均匀采样后获得模型最终输入;步骤S3:去除360°全景视频中冗余的时空信息,利用保留的高度代表视频质量的特征,将模型预测得到的预测视频质量分数和真实视频质量分数进行比较,并计算其单调性损失、线性融合损失以及均方误差以进一步优化模型;步骤S4:将需要检测的360°全景视频输入到全景视频质量评价模型,通过模型预测的分数判断待检测360°全景视频质量;本发明能够在尽量不损失准确率的前提下,提升360°全景视频质量评价的效率。
-
公开(公告)号:CN118918250A
公开(公告)日:2024-11-08
申请号:CN202410946308.9
申请日:2024-07-15
Applicant: 福州大学
Abstract: 本发明涉及一种基于空间混合注意力的神经辐射场三维重建方法,属于计算机视觉领域。包括:拍摄真实场景的各个视角的视图,并通过算法计算相机的空间位置与方向,整理成数据集后进行预处理;在场景中进行采样,通过空间混合多层感知机,得到场景中每个采样点所对应的基本颜色与密度信息;将得到的采样点信息输入具有线性注意力机制的门控结构,对颜色向量与密度向量进行注意力融合,得到空间中每个采样点颜色与密度间的相关性,并与原向量相结合得到包含颜色与密度相关性的采样点信息特征向量;通过空间中每个采样点的密度信息确定场景中存在物体的区域并进行三维场景建模,通过采样点的颜色信息对生成的三维体进行体渲染,重建出完整的三维场景。
-
公开(公告)号:CN118799579A
公开(公告)日:2024-10-18
申请号:CN202410992764.7
申请日:2024-07-23
Applicant: 福州大学
Abstract: 本发明提供一种基于特征感知增强网络的域适应分割方法,包括以下步骤:步骤S1:获取数据集,并通过动态伪标签生成机制提高伪标签质量;步骤S2:通过稀有类采样方法,让模型能够对样本较少的类别充分学习;步骤S3:通过特征距离度量方法提高特征的表征能力;步骤S4:进行模型训练,并通过对模型训练过程进行预热提高模型的收敛稳定性。
-
公开(公告)号:CN115100495B
公开(公告)日:2024-07-26
申请号:CN202210801277.9
申请日:2022-07-08
Applicant: 福州大学
IPC: G06V10/80 , G06V10/82 , G06V20/70 , G06V10/20 , G06V10/762 , G06V20/52 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于子特征融合的轻量化安全帽检测方法,包括以下步骤:步骤S1:获取安全帽数据图片,并预处理,构建安全帽检测数据集;步骤S2:构建子特征融合的轻量化网络模块,通过低代价卷积操作生成子特征图并与初始特征图进行融合;步骤S3:构建轻量化目标检测网络;步骤S4:对YOLOv5目标检测算法的训练超参数进行调优,利用安全帽检测数据集训练轻量化目标检测网络得到安全帽检测模型;步骤S5:根据安全帽检测模型对输入图片进行检测,获取初步检测结果,对初步检测结果进行解码后采用改进的非极大值抑制算法筛选出最终的检测结果,将检测结果绘制在原图中。本发明能够有效减少检测模型的模型大小,并且对工人是否佩戴安全帽进行精准检测。
-
公开(公告)号:CN114267036B
公开(公告)日:2024-07-02
申请号:CN202111604845.8
申请日:2021-12-25
Applicant: 福州大学
IPC: G06V20/62 , G06V30/148 , G06V30/146 , G06V30/19 , G06V10/25 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0475 , G06N3/094
Abstract: 本发明涉及一种基于生成对抗网络的车牌生成方法,包括以下步骤:步骤S1:获取用于生成模板车牌的车牌字符库和背景图像;步骤S2:根据车牌构成随机选择字符,使用OpenCV将字符置入背景图像中,合成模板车牌,并对模板车牌进行图像增强;步骤S3:构建基于编码‑解码结构的车牌生成网络;步骤S4:基于真实场景下的车牌图像和模板车牌图像集,构建训练集;步骤S5:基于训练集,使用对抗生成模型训练基于编码‑解码结构的车牌生成网络,得到训练后的车牌生成网络,用于生成有标签的车牌图像。本发明基于编码‑解码网络结构,使得能够根据模板车牌,进行有标签的车牌图像生成,解决了传统生成的车牌图像标签随机的问题。
-
公开(公告)号:CN118230126A
公开(公告)日:2024-06-21
申请号:CN202410430575.0
申请日:2024-04-11
Applicant: 福州大学
IPC: G06V10/82 , G06V10/25 , G06V10/74 , G06V10/766 , G06V40/10
Abstract: 本发明涉及基于相似度层次树重排序与场景特征嵌入的行人搜索方法,包括以下步骤:获取行人搜索数据集,输入主干网络和特征金字塔结构获得输入后续模块的特征图;将特征输入区域生成网络获得初步提议框,根据提议框从之前获取的特征图中提取感兴趣区域并且生成局部提议特征;将局部提议特征输入多重区域卷积神经网络模块来获取的更准确的行人提议框和行人判别分数,设定阈值,取出低分的行人提议框,剩下的行人提议框用于在图像特征图中提取行人特征;将行人特征输入行人重识别模块计算行人识别损失;按照指定训练参数进行迭代训练,最终模型利用行人信息和图像场景上下文信息综合判断得到行人搜索的结果;本发明能够准确有效地进行行人搜索。
-
公开(公告)号:CN117909920A
公开(公告)日:2024-04-19
申请号:CN202410095613.1
申请日:2024-01-24
Applicant: 福州大学
IPC: G06F18/25 , G06N3/0455 , G06N3/082 , G06F16/35 , G06T7/73
Abstract: 本发明涉及一种基于文本引导的端到端3D物体定位方法,获取3D视觉定位数据集,将预处理和数据增强后的文本和点云两个模态的数据分别输入到两个单独的主干网络中;利用以文本引导的场景编码器增强点云场景的视觉特征生成文本自适应的权重,指导场景编码器生成与文本匹配的采样点特征,再根据霍夫投票利用采样点生成投票点并计算与场景融合的文本分类损失;利用投票点生成物体投票查询并利用文本特征强化其物体感知能力,再使用多模态定位解码器融合点云和文本的特征,利用定位头将物体查询转换成物体边界框并计算投票查询损失和物体目标检测损失;按照指定训练参数进行迭代训练,根据验证准确率不断保存最优模型,利用最终模型得到物体定位结果。
-
公开(公告)号:CN117880527A
公开(公告)日:2024-04-12
申请号:CN202311852266.4
申请日:2023-12-29
Applicant: 福州大学
IPC: H04N19/467 , H04N1/32 , G06V10/774 , G06V10/82 , G06T9/00 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于Swin Transformer架构的高分辨率彩色图像隐藏方法,包括以下步骤:步骤S1:收集图像数据构建训练数据集,并进行数据预处理和数据增强以构建增强数据集;步骤S2:利用窗口自注意力模块构建基于Swin Transformer的隐藏网络,使用激活图计算自注意力输出进行秘密图像的编码操作,输出编码图像;步骤S3:利用窗口自注意力模块构建基于Swin Transformer的揭露网络,使用激活图计算自注意力输出进行秘密图像的解码操作,输出解码后的秘密图像;步骤S4:按照设定训练参数进行迭代训练,通过优化组合损失更新模型参数,根据验证准确率不断保存最优模型,最终保存得到隐藏性能最好的模型权重。该方法能够实现在一张高分辨率的彩色载体图像中隐藏相同分辨率大小的秘密图像。
-
公开(公告)号:CN117789138A
公开(公告)日:2024-03-29
申请号:CN202311852131.8
申请日:2023-12-29
Applicant: 福州大学
Abstract: 本发明涉及一种基于SPD‑Conv的非机动车违停监测方法,包括如下步骤:步骤S1:收集与非机动车相关的有效素材,构建初始数据集,然后采用GridMask结合Albumentations的数据增强方法对初始数据集进行数据增强操作,以进一步丰富数据集;步骤S2:构建改进的YOLOv7网络,包括在骨干网络以及头部网络中添加SPD‑Conv卷积构建块、加入自注意力和卷积集成并融合ACmix结构以及使用EIOU损失函数;步骤S3:将数据集投入训练,配置YOLOv7检测模块,构建非机动车行为判断模块。该方法能够准确有效地对非机动车的违章停放行为进行检测。
-
公开(公告)号:CN117593706A
公开(公告)日:2024-02-23
申请号:CN202311615462.X
申请日:2023-11-28
Applicant: 福州大学
IPC: G06V20/54 , G06V10/25 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/766 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/084 , G06N3/048
Abstract: 本发明提供一种基于Context‑Aware的非机动车密度估计方法,首先,收集与非机动车相关的有效素材,构建初始数据集,采用Mixup结合Albumentations的数据增强方法,获得增强数据集。然后,对图片进行裁剪,生成hdf5文件,以形成最终数据集。然后,构建了深度学习网络,基于尺度感知上下文特征以及几何引导的语境学习,添加坐标注意力机制(Coordinate Attention),同时,定义损失函数L以及评价指标MAE,投入数据集循环训练网络,得到最优的模型文件。最后,将模型文件导入检测模块,对图像中非机动车的密度进行预测,进而估计数量。本发明可以布置于街道监控,实现对非机动车的流量监控的实时反馈。
-
-
-
-
-
-
-
-
-