-
公开(公告)号:CN117058760A
公开(公告)日:2023-11-14
申请号:CN202311030253.9
申请日:2023-08-16
Applicant: 淮阴工学院
IPC: G06V40/20 , G06V10/40 , G06V10/764 , G06V10/80 , G06T7/10
Abstract: 本发明公开了一种人体姿态估计方法及系统,所述人体姿态估计方法包括:使用由Swin Transformer和区域提议网络RPN组成的分割模型,对需要进行人体姿态估计的原始图像进行分割提取,得到仅包含人的图像;对仅包含人的图像进行处理,获取补丁特征图;对具有随机位置且拥有固定大小的非重叠补丁特征图,使用通道注意力处理得到特征向量;对非固定尺寸且能覆盖整张图像的补丁特征图使用空间注意力进行处理得到特征向量;对两种注意力得到的特征向量进行混合,得到基于补丁的混合注意力特征向量;融合特征向量并分类,得到姿态估计的结果。本发明实现了更加准确的人体姿态估计。
-
公开(公告)号:CN116503553A
公开(公告)日:2023-07-28
申请号:CN202310436658.6
申请日:2023-04-21
Applicant: 淮阴工学院
IPC: G06T17/00 , G06T5/00 , G06T7/80 , G06N3/0464
Abstract: 本发明公开了一种基于双目视觉和扩散模型的三维重建方法及装置,三维重建方法包括双目相机标定;利用标定好的双目相机采集待重建物体图像,得到左目相机拍摄图像Imagel和Imager;对图像Imagel和Imager进行畸变矫正和立体校正处理,得到图像Il和Ir;对图像Il和Ir采用半全局块匹配算法计算视差值,构建视差图,并计算出粗略深度图Imaged;构建扩散模型,利用训练数据集对扩散模型进行训练;将粗略深度图Imaged输入到预训练好的扩散模型Modeld中,得到精确深度图Id;根据精确深度图Id,通过坐标系变换得到三维点云模型。本发明三维重建效率高,效果好。
-
公开(公告)号:CN115909318A
公开(公告)日:2023-04-04
申请号:CN202211618280.3
申请日:2022-12-15
Applicant: 卓弢机器人盐城有限公司 , 淮阴工学院
IPC: G06V20/64 , G06V10/147
Abstract: 本发明公开了一种基于双目视觉和距离估计的蘑菇直径测量方法,包括:双目相机标定;利用双目相机采集蘑菇图像,得到左摄像头拍摄图像imagel和右摄像头拍摄图像imager;进行图像预处理,得到左视图像Il和右视图像Ir;分别对左视图像Il和右视图像Ir进行距离估计操作,得到左视图视角下的蘑菇直径d1l和右视图视角下的蘑菇直径d2r;对左视图像Il和右视图像Ir进行双目测量操作,通过轮廓特征提取、立体匹配、深度计算操作,得到蘑菇轮廓关键点的三维坐标,根据轮廓关键点计算出蘑菇直径d3;计算三个测量值d1l、d2r、d3的几何平均数,几何平均数即最终的蘑菇直径测量值。本发明具有较高的测量精度及稳定性。
-
公开(公告)号:CN117315229A
公开(公告)日:2023-12-29
申请号:CN202311237598.1
申请日:2023-09-22
Applicant: 淮阴工学院
IPC: G06V10/25 , G06V10/44 , G06V10/42 , G06V10/80 , G06V10/764 , G06V10/82 , G06V10/774 , G06V10/776 , G06N3/045 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种基于特征嫁接的目标检测方法,包括以下步骤:(1)利用相机拍摄待检物体,构建数据集;(2)构建特征嫁接融合网络;(3)将待检测的物体图像分别输入到主网络Transform和子网络CNN,得到两组特征图;(4)将获取到的待检测物体图像输入到特征嫁接模块中,得到特征图M1、M2、M3、M4;(5)将得到的特征图M1、M2、M3、M4输入到特征融合模块中,得到特征图N8;(6)将得到的特征图N8输入到分类定位网络中,得到目标类别和位置信息;本发明有效结合了Transform网络提取的丰富的全局上下文信息和CNN网络提取的边缘细节信息,使得在最终检测时能更精准的定位到图片中所有目标,在map和Ap上都有进一步的提升。
-
公开(公告)号:CN115909068A
公开(公告)日:2023-04-04
申请号:CN202211451639.2
申请日:2022-11-18
Applicant: 卓弢机器人盐城有限公司 , 淮阴工学院
IPC: G06V20/10 , G06V20/40 , G06V10/40 , G06V10/764 , G06V10/82 , G06N3/048 , G06N3/08 , G06N3/0464
Abstract: 本发明公开了一种基于视频级标签的蘑菇自动化采摘状态检测方法,包括:S1采集蘑菇自动采摘的N个视频,并对其中的每个视频进行标签标注;S2利用已经训练好的Kinetics I3D模型和Denseflow工具分别从标注好的视频中提取三维RGB特征与光流特征;S3将提取的RGB特征与光流特征按维度拼接,并重组成一维的时间金字塔特征;S4通过时间区域生成模块从一维时间金字塔特征中生成粗糙的蘑菇采集动作区域;S5提取出每个蘑菇采集动作阶段中共有的阶段性特征,估计出每个蘑菇采集大概的完成状态;S6计算每个蘑菇采集动作的差异比去调整采集动作状态的估算误差。与现有技术相比,本发明通过对蘑菇采摘完成进度的判断,决定是否进行下一次采摘,从而达到加快采摘蘑菇的效果。
-
公开(公告)号:CN115773837A
公开(公告)日:2023-03-10
申请号:CN202211434738.X
申请日:2022-11-16
Applicant: 卓弢机器人盐城有限公司 , 淮阴工学院
Abstract: 本发明公开了一种基于机器视觉的柔性机械手抓力测量方法及装置,包括:选取具有弹性的柔性材料并确定该柔性材料的弹性系数;对采集的图像进行预处理同时提取柔性材料形变后的轮廓图;提取轮廓图上的像素点,将像素点转换为真实空间点坐标,计算柔性材料的形变量;根据形变量和弹性系数计算机械手的抓力。上述方法是一种基于图像的机器学习测量方法,具有较高稳定性,不受光照强度等环境因素影响,测量速度快,并采用端到端的重建方式,提高了抓力测量的效率。
-
公开(公告)号:CN115761490A
公开(公告)日:2023-03-07
申请号:CN202211434749.8
申请日:2022-11-16
Applicant: 卓弢机器人盐城有限公司 , 淮阴工学院
IPC: G06V20/10 , G06V20/40 , G06V10/30 , G06V10/77 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种轻量化蘑菇识别方法及装置,方法包括:S1、摄像头采集实时视频,并将视频流解码成图像数据集;S2、对图像数据集和图像进行预处理;S3、设计轻量化卷积神经网络,快速提取出蘑菇的视觉特征并预测标签;S4、计算标签预测值与标签真实值的误差,通过自动调整梯度修改网络参数,得到蘑菇识别模型;S5、预处理后的训练数据集批量输入蘑菇识别模型中进行训练;S6、训练后蘑菇识别模型代码部署在总控上。本发明优点在于,轻量级卷积神经网络利用残差结构、通道分流和深度卷积结合方式,来解决卷积神经网络因多层重复叠加的深度结构而导致的计算量、参数增大问题。
-
公开(公告)号:CN115496857A
公开(公告)日:2022-12-20
申请号:CN202211177730.X
申请日:2022-09-22
Applicant: 淮阴工学院
Abstract: 本发明公开了一种基于深度学习的多视角三维重建方法,包括:利用相机对重建目标进行多角度图像采集并选取一张图像作为参考图像;将采集的图像输入图像特征提取模块生成对应的特征图;通过单应性变换算法将特征图转换成参考图像视角下的特征图,并通过逐像素计算图像一致性构建代价体;将构建的代价体输入代价体正则化模块生成参考图像的稀疏深度图;将稀疏深度图输入深度图细化模块生成稠密深度图;根据稠密深度图生成重建目标的空间点云结构,实现三维重建。上述方法是一种基于图像的深度学习重建方法,具有较高稳定性,不受光照强度等环境因素影响,重建效果好,并采用端到端的重建方式,提高了重建效率。
-
-
-
-
-
-
-