-
公开(公告)号:CN111696077A
公开(公告)日:2020-09-22
申请号:CN202010391589.8
申请日:2020-05-11
Applicant: 余姚市浙江大学机器人研究中心 , 浙江大学
Abstract: 本发明公开一种应用于晶圆缺陷检测的WaferDet网络方法。通过建立晶圆外观缺陷数据集,然后通过EfficientNet神经网络提取晶圆缺陷特征,并基于特征金字塔(FPN),设计了针对晶圆缺陷特征提取的双向FPN进一步提取多尺度特征,再采用RPN网络在提取的特征图谱上生成感兴趣区域,最后分别采用一个分类层识别感兴趣区域的缺陷类别,一个回归层直接在特征图谱上确定缺陷标记框位置。将改进后的整体网络命名为“WaferDet”。本发明实现了自动晶圆缺陷检测,较传统方法极大地提高了检测效率与检测精度。
-
公开(公告)号:CN110443827A
公开(公告)日:2019-11-12
申请号:CN201910663615.5
申请日:2019-07-22
Applicant: 浙江大学
Abstract: 本发明公开了一种基于改进孪生网络的无人机视频单目标长期跟踪方法,其分为离线训练与测试应用两个阶段。本发明方法实现了无人机视频单目标长期跟踪,克服了无人机视频目标小,特征少、相机运动幅度大导致跟踪失败和遮挡后无法找回目标的缺点,精度与效率远高于传统基于孪生网络的目标跟踪方法。
-
公开(公告)号:CN112507845A
公开(公告)日:2021-03-16
申请号:CN202011391611.5
申请日:2020-12-02
Applicant: 余姚市浙江大学机器人研究中心 , 浙江大学
Abstract: 本发明公开了一种基于CenterNet与深度关联矩阵的行人多目标跟踪方法,首先采用CenterNet来提取输入图片中的行人特征,并以矩形框的形式检测出行人在输入图片中的位置,然后计算每个矩形框的中心,在CenterNet网络各阶段中提取出中心对应的特征,再将提取的特征拼接构建特征关联矩阵,再采用深度亲和力网络DAN对提取的特征进行压缩与关联匹配,进而实现复杂场景下行人多目标的跟踪。本发明是一种兼具高性能与高效率的行人多目标跟踪技术,其采用检测与Id关联匹配共享特征提取网络,联合训练的创新模式,降低效率的同时保障了较高的跟踪精度。
-
公开(公告)号:CN112507845B
公开(公告)日:2022-06-21
申请号:CN202011391611.5
申请日:2020-12-02
Applicant: 余姚市浙江大学机器人研究中心 , 浙江大学
Abstract: 本发明公开了一种基于CenterNet与深度关联矩阵的行人多目标跟踪方法,首先采用CenterNet来提取输入图片中的行人特征,并以矩形框的形式检测出行人在输入图片中的位置,然后计算每个矩形框的中心,在CenterNet网络各阶段中提取出中心对应的特征,再将提取的特征拼接构建特征关联矩阵,再采用深度亲和力网络DAN对提取的特征进行压缩与关联匹配,进而实现复杂场景下行人多目标的跟踪。本发明是一种兼具高性能与高效率的行人多目标跟踪技术,其采用检测与Id关联匹配共享特征提取网络,联合训练的创新模式,降低效率的同时保障了较高的跟踪精度。
-
公开(公告)号:CN110415269B
公开(公告)日:2023-03-31
申请号:CN201910658751.5
申请日:2019-07-19
Applicant: 浙江大学
Abstract: 本发明公开了一种动静态背景下的目标跟踪算法,首先将待检测的视频或是图片流数据导入,基于第一帧图像裁剪目标区域;然后进行第一步的目标物校正,通常第一张图像中是标准的信息,校正主要是对第二帧及其后的所有帧中的目标物进行,让目标物尽可能的位于框的中心;第二次校正主要是为了解决在第一次校正不准确的情况下目标物的偏差校正,两次校正保证了目标物不论怎么运动或是相机怎么运动都能实现精准的目标物动态跟踪;利用校正后的位置信息在本帧(即现在时刻分析的帧)裁剪出新的区域,作为下一帧跟踪的依据;读取下一帧,基于上一帧校正的区域去判断当前帧中目标物的位置,并在原图中框选出来;依次不断的校正直到检测完成。
-
公开(公告)号:CN110443827B
公开(公告)日:2022-12-20
申请号:CN201910663615.5
申请日:2019-07-22
Applicant: 浙江大学
Abstract: 本发明公开了一种基于改进孪生网络的无人机视频单目标长期跟踪方法,其分为离线训练与测试应用两个阶段。本发明方法实现了无人机视频单目标长期跟踪,克服了无人机视频目标小,特征少、相机运动幅度大导致跟踪失败和遮挡后无法找回目标的缺点,精度与效率远高于传统基于孪生网络的目标跟踪方法。
-
公开(公告)号:CN112965082B
公开(公告)日:2024-01-12
申请号:CN202110215537.X
申请日:2021-02-26
Applicant: 浙江大学
Abstract: 本发明涉及机器人智能控制领域,尤其涉及一种基于激光雷达的自适应沿墙导航方法,首先将激光雷达扫描的区域划分为7个区域,再初始化机器人与激光雷达;然后获取各区域的激光线距离墙面最短距离和其对应索引、机器人前进方向与墙面的夹角角度、距离墙面最短距离与沿墙理想距离的差值;接着根据获得的各区域的激光线距离墙面最短距离和沿墙理想距离,判断出机器人相对墙面的位置;最后机器人计算出前向线速度和角速度,执行速度指令进行移动。本发明解决了移动机器人难以自适应沿墙导航的问题,使机器人能够适应复杂环境,自适应地调节移动速度,包括线速度和角速度,使之按照固定距离沿墙移动,同时能够根据周围障碍物的变化快速地改变沿墙策略。
-
公开(公告)号:CN112965082A
公开(公告)日:2021-06-15
申请号:CN202110215537.X
申请日:2021-02-26
Applicant: 浙江大学
Abstract: 本发明涉及机器人智能控制领域,尤其涉及一种基于激光雷达的自适应沿墙导航方法,首先将激光雷达扫描的区域划分为7个区域,再初始化机器人与激光雷达;然后获取各区域的激光线距离墙面最短距离和其对应索引、机器人前进方向与墙面的夹角角度、距离墙面最短距离与沿墙理想距离的差值;接着根据获得的各区域的激光线距离墙面最短距离和沿墙理想距离,判断出机器人相对墙面的位置;最后机器人计算出前向线速度和角速度,执行速度指令进行移动。本发明解决了移动机器人难以自适应沿墙导航的问题,使机器人能够适应复杂环境,自适应地调节移动速度,包括线速度和角速度,使之按照固定距离沿墙移动,同时能够根据周围障碍物的变化快速地改变沿墙策略。
-
公开(公告)号:CN110415269A
公开(公告)日:2019-11-05
申请号:CN201910658751.5
申请日:2019-07-19
Applicant: 浙江大学
Abstract: 本发明公开了一种动静态背景下的目标跟踪算法,首先将待检测的视频或是图片流数据导入,基于第一帧图像裁剪目标区域;然后进行第一步的目标物校正,通常第一张图像中是标准的信息,校正主要是对第二帧及其后的所有帧中的目标物进行,让目标物尽可能的位于框的中心;第二次校正主要是为了解决在第一次校正不准确的情况下目标物的偏差校正,两次校正保证了目标物不论怎么运动或是相机怎么运动都能实现精准的目标物动态跟踪;利用校正后的位置信息在本帧(即现在时刻分析的帧)裁剪出新的区域,作为下一帧跟踪的依据;读取下一帧,基于上一帧校正的区域去判断当前帧中目标物的位置,并在原图中框选出来;依次不断的校正直到检测完成。
-
-
-
-
-
-
-
-