-
公开(公告)号:CN106060058A
公开(公告)日:2016-10-26
申请号:CN201610444195.8
申请日:2016-06-16
申请人: 华南理工大学
CPC分类号: H04L67/42 , H04L67/025 , H04L67/12
摘要: 本发明公开一种基于互联网的工业机器人远程控制方法,包括:控制模式设计、网络协议选择、网络远程驱动、虚拟现实控制四个步骤,目的是通过互联网对流水生产线上的工业机器人进行远程控制,使其完成相关的生产任务。该发明采用客户机和服务器C/S控制模式,选择面向连接的传输控制协议TCP传输客户机和服务器之间的远程控制命令,以及利用无连接的用户数据报协议UDP实现图像传输;同时通过网络远程驱动(时间驱动、事件驱动、预测显示等)工业机器人完成相关作业;并且利用虚拟现实控制对工业机器人进行仿真建模,将控制命令序列通过互联网传给远程的工业机器人执行,再将返回的实际执行结果信息通过虚拟的工业机器人仿真模型反映出来。
-
公开(公告)号:CN115909245A
公开(公告)日:2023-04-04
申请号:CN202211515937.3
申请日:2022-11-30
申请人: 华南理工大学
IPC分类号: G06V20/56 , G06V10/82 , G06N3/0464 , G06N3/08
摘要: 本发明公开一种基于深度学习的视觉多任务处理方法,包括:搭建视觉多任务处理神经网络模型;针对三个不同任务解码器设计损失函数;对数据集进行预处理与增强操作;调整训练参数,训练视觉多任务神经网络模型;输入RGB图像检测;本方法创新地将多个任务融合到一个神经网络当中可完成目标检测、可行驶区域检测和车道线检测三个任务,使得同样完成三个任务的时间大大缩短,并且各个解码器之间可以使用一个共享特征的编码器,使得特征利用率大大提高;本方法创新地在定位损失使用了CIoU回归定位损失,考虑了边界框重叠面积、中心距离和长宽比因素,使神经网络模型训练时更能够反馈边界框定位准确性;本方法具有实际推广价值与应用价值。
-
公开(公告)号:CN115841611A
公开(公告)日:2023-03-24
申请号:CN202211576273.1
申请日:2022-12-09
申请人: 华南理工大学
摘要: 本发明公开一种基于改进SSD网络的针对小目标的目标检测方法,该方法将原始SSD网络的backbone改为有利于小目标物体特征提取的ResNet‑101;引入Attention模块、FTT模块和特征融合模块;对SSD网络结构进行修改并训练。本发明引入了超分辨率复原的FTT模块、Attention模块、特征融合模块,有效地利用了多尺度的特征融合,有助于提高针对小目标物体的识别准确率。除此之外还将最后一个特征层conv11_2抛弃,更好地针对小目标物体识别。本发明创新地改造了SSD网络,使得改进后的SSD网络对小目标物体的识别精度更高,具有实际推广价值与应用价值。
-
公开(公告)号:CN114359044A
公开(公告)日:2022-04-15
申请号:CN202111488253.4
申请日:2021-12-07
申请人: 华南理工大学
摘要: 本发明公开了一种基于参考图像的图像超分辨率系统,包括特征提取模块、纹理迁移模块和图像重建模块;利用特征提取模块对输入的低分辨率图像进行特征提取生成低分辨率图像对应的特征图,纹理迁移模块从参考的高分辨率图像中迁移高清纹理细节并融合到从低分辨率图像中提取的特征图,图像重建模块对融合后的特征图重建目标图像大小的高分辨率图像。本发明可以实现优于单张图像超分辨率方法的性能,在给出具有一定相关性的参考图像时,能够较好恢复低分辨率图像丢失的纹理细节。本发明可推广到真实世界的双摄像头数据集以及其他任务,如视频超分辨率和视频去噪,具有潜在的市场与应用价值。
-
公开(公告)号:CN112800937A
公开(公告)日:2021-05-14
申请号:CN202110101590.7
申请日:2021-01-26
申请人: 华南理工大学
摘要: 本发明公开了一种智能人脸识别方法,包括步骤:1)人脸检测:从原始图片中截取出以人面部为主要内容的源姿态人脸图片;2)人脸对齐:识别并定位源姿态人脸图片中的人脸关键点;3)人脸姿态旋转:根据源姿态人脸图片和选定姿态,保留其身份信息和表情信息,生成目标姿态人脸图片;4)人脸表情与身份识别:结合源姿态人脸图片与目标姿态人脸图片,判断图片中人脸的表情与身份。本发明提出结合注意力机制、生成对抗网络、集成学习三大创新要点,建立端到端的识别方法。突破极端姿态的限制,将合成正面图片用于无约束条件的人脸身份、表情识别,取得准确率与鲁棒性的提升,在人脸识别领域拥有广阔的应用前景。
-
公开(公告)号:CN108972549B
公开(公告)日:2021-02-19
申请号:CN201810711249.1
申请日:2018-07-03
申请人: 华南理工大学
IPC分类号: B25J9/16
摘要: 本发明公开了一种基于Kinect深度摄像头的工业机械臂实时避障规划抓取系统,结合计算机视觉技术,通过Kinect摄像头来对工业机械臂周围的生产环境进行动态的感知,检测和追踪环境中动态障碍物,再通过边缘检测算法得到动态障碍物的边缘信息。通过更新动态障碍物的包围盒,采用LazyPRM算法来实现动态避障规划以及物体抓取作业。本发明使得工业机械臂具备更加智能的感知生产环境的变化的能力,有效的提升了生产安全性以及工业机械臂作业的智能化程度,为未来的智能化工厂基本实现智能化和互联化提供了一个可行的方案。
-
公开(公告)号:CN110202583A
公开(公告)日:2019-09-06
申请号:CN201910612564.3
申请日:2019-07-09
申请人: 华南理工大学
IPC分类号: B25J9/16
摘要: 本发明公开了一种基于深度学习的仿人机械手控制系统及其控制方法,系统包括图像采集模块,用于实现工作场景的图像采集及图像预处理功能;物体检测与识别模块,用于实现对所采集图像中的目标物体进行检测,识别出相应的类别;仿人机械手控制决策模块,用于实现仿人机械手运动轨迹规划,根据上述两个模块的处理结果对目标物体所在位置进行运动决策并实现运动轨迹的自我学习。本发明建立了一种自动化控制系统,能在无人为干预条件下自行工作,提高了机器的智能性,可大范围使用于工厂、车间、物流等需要对物品进行分拣等操作的环境下,具有良好的市场前景与潜在价值。
-
公开(公告)号:CN106874914B
公开(公告)日:2019-05-14
申请号:CN201710021710.6
申请日:2017-01-12
申请人: 华南理工大学
摘要: 本发明公开了一种基于深度卷积神经网络的工业机械臂视觉控制方法,包括步骤:1)目标物体视觉信息采集与预处理;2)训练与调整深度卷积神经网络模型;3)验证模型与保存模型。本发明结合深度卷积神经网络提取不同姿态的目标物体的理想抓取位置,提升了系统能够适用的范围,从而克服了传统视觉控制发放识别特定目标物体差问题,有效简化工业机械臂的使用难度,为工业机械臂控制提供新的方法,具备良好的扩展性。
-
公开(公告)号:CN108972549A
公开(公告)日:2018-12-11
申请号:CN201810711249.1
申请日:2018-07-03
申请人: 华南理工大学
IPC分类号: B25J9/16
摘要: 本发明公开了一种基于Kinect深度摄像头的工业机械臂实时避障规划抓取系统,结合计算机视觉技术,通过Kinect摄像头来对工业机械臂周围的生产环境进行动态的感知,检测和追踪环境中动态障碍物,再通过边缘检测算法得到动态障碍物的边缘信息。通过更新动态障碍物的包围盒,采用LazyPRM算法来实现动态避障规划以及物体抓取作业。本发明使得工业机械臂具备更加智能的感知生产环境的变化的能力,有效的提升了生产安全性以及工业机械臂作业的智能化程度,为未来的智能化工厂基本实现智能化和互联化提供了一个可行的方案。
-
公开(公告)号:CN106874914A
公开(公告)日:2017-06-20
申请号:CN201710021710.6
申请日:2017-01-12
申请人: 华南理工大学
CPC分类号: G06K9/4652 , B25J9/1664 , G06K9/6256 , G06K9/66 , G06N3/08
摘要: 本发明公开了一种基于深度卷积神经网络的工业机械臂视觉控制方法,包括步骤:1)目标物体视觉信息采集与预处理;2)训练与调整深度卷积神经网络模型;3)验证模型与保存模型。本发明结合深度卷积神经网络提取不同姿态的目标物体的理想抓取位置,提升了系统能够适用的范围,从而克服了传统视觉控制发放识别特定目标物体差问题,有效简化工业机械臂的使用难度,为工业机械臂控制提供新的方法,具备良好的扩展性。
-
-
-
-
-
-
-
-
-