-
公开(公告)号:CN118537563A
公开(公告)日:2024-08-23
申请号:CN202410848013.8
申请日:2024-06-27
申请人: 北京建筑大学 , 中科视元(北京)科技有限公司
IPC分类号: G06V10/26 , G06V20/70 , G06V10/44 , G06V10/42 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/045
摘要: 本公开提供了一种医学图像多器官分割识别方法及装置,属于图像处理技术领域,该方法包括:对医学图像进行特征提取,得到多层局部特征图和全局特征图。对多层局部特征图分别进行自适应特征提取,基于自适应特征提取得到的特征对多层局部特征图进行语义加深,得到多层语义加深特征图。将多层语义加深特征图和全局特征图输入第一解码网络,得到第一融合特征图。第一解码网络为用于特征增强和特征融合的卷积网络。将第一融合特征图输入分割网络中,得到医学图像的分割图。本公开提供的一种医学图像多器官分割识别方法及装置能够提高对医学图像分割的精确度。
-
公开(公告)号:CN112363635A
公开(公告)日:2021-02-12
申请号:CN202011323399.9
申请日:2020-11-23
申请人: 北京建筑大学 , 北京仁光科技有限公司
IPC分类号: G06F3/0354 , G06F3/038 , G06F3/0487
摘要: 本发明涉及基于发光笔的人机交互系统,其包括发光笔、摄像头和主机;发光笔包括圆柱状发光体,圆柱状发光体以其端部触控屏幕;摄像头用于从发光体侧面捕获包含发光体的图像并将其发送至主机,摄像头光轴平行于屏幕;主机接收摄像头捕获的图像,并确定发光体上的平行于屏幕的目标截面在图像中的起始像素点和终止像素点,目标截面为摄像头光轴所在的平面;主机还用于根据起始像素点和终止像素点确定目标截面中心相对于摄像头的第一位置坐标,由第一位置坐标以及摄像头相对于屏幕的第二位置坐标,确定目标截面中心相对于屏幕的第三位置坐标并将其转换成屏幕主机程序空间坐标,以及据此进行响应。本发明可实现对屏幕的无遮挡、无死角触控,提高人机交互效率。
-
公开(公告)号:CN111993429A
公开(公告)日:2020-11-27
申请号:CN202011184328.5
申请日:2020-10-30
申请人: 北京建筑大学 , 北京航空航天大学 , 延边大学 , 武汉职业技术学院 , 宁夏工商职业技术学院 , 中科视元(北京)科技有限公司
摘要: 本发明提供一种基于仿射群的改进高斯重采样粒子滤波目标跟踪方法,并建立机器人目标跟踪抓取系统,机器人目标跟踪抓取系统的RGBD相机图像获取模块得到目标的二维图像及深度图,在二维图像跟踪模块,使用基于仿射群的改进高斯重采样粒子滤波目标跟踪方法进行目标跟踪,然后在三维重构模块结合深度图进行重构估计目标三维位姿,最后在机器人位姿调整模块不断对机器人末态三维位姿与目标三维位姿进行实时计算并计算差值,并进行调整直至抓取。本发明的目标跟踪算法有效改善了粒子滤波粒子多样性匮乏的问题,有效提高了跟踪的实时性和鲁棒性,解决了抓取过程中的迟滞现象。
-
公开(公告)号:CN111427370B
公开(公告)日:2020-09-04
申请号:CN202010515565.9
申请日:2020-06-09
申请人: 北京建筑大学
摘要: 本发明涉及机器人领域,具体提供了一种基于稀疏位姿调整的移动机器人的Gmapping建图方法,包括:S1:初始化粒子位姿与分布,S2:扫描匹配;S3:计算采样位置的目标分布;S4:计算高斯近似;S5:更新第i个粒子的权重;S6:更新粒子地图;S3,S4的同时并行S3’位姿图构建及S4’闭环约束。本发明解决了原有Gmapping算法在较少粒子时存在的边界模糊、缺失、及滑移的技术问题,构建精度高,边界清晰完整,稳定性好。
-
公开(公告)号:CN109753922A
公开(公告)日:2019-05-14
申请号:CN201811640642.2
申请日:2018-12-29
申请人: 北京建筑大学
摘要: 本发明公开了一种基于稠密卷积神经网络的仿人机器人表情识别方法,包括:根据方向梯度直方图特征和支持向量机算法对单帧图像之中的人脸位置进行定位,使用回归树集合对人脸图像的人脸基准点进行匹配,根据匹配结果对人脸图像进行校正和记录,使用稠密卷积神经网络对校正之后的人脸图像进行识别,根据识别结果获得表情分类,将表情分类的结果传输给仿人机器人。本发明提供的技术方案在人脸定位和人脸校正的基础上,使用稠密卷积神经网络将人脸特征提取和表情分类的流程进行结合,以实现对人脸的表情识别,最后将分类结果实时提供给仿人机器人,从而达到人机交互的效果,在保证准确率的同时还具有较高的实时性,有效保障了行人的安全。
-
公开(公告)号:CN109472218A
公开(公告)日:2019-03-15
申请号:CN201811231310.9
申请日:2018-10-22
摘要: 本发明公开了一种基于行人方向识别的汽车辅助驾驶安全方法包括:基于单帧图像的行人检测,基于单帧图像的行人方向识别,基于视频序列的行人行走方向分析,预测行人未来的行走方向,预测汽车与行人发生碰撞的潜在危险,将潜在危险提示给驾驶员。本发明提供的技术方案在行人识别的基础上,通过分析和预测行人的行走方向,以实现预测汽车与行人相撞的潜在危险,最后将潜在危险提示给驾驶员,从而辅助驾驶员安全驾驶。本发明通过优化之后的特征选取和分类器,使用车载摄像头和图像处理器实现了对行人的检测,在保证准确率的同时还具有较高的实时性,有效保障了行人的安全。
-
公开(公告)号:CN118074213A
公开(公告)日:2024-05-24
申请号:CN202410096044.2
申请日:2024-01-23
申请人: 北京建筑大学 , 中财京伟(北京)咨询有限公司 , 北京交通大学
摘要: 本发明涉及微电网集群控制技术领域,具体公开一种微电网集群系统自适应鲁棒协同控制方法及系统,方法包括:构建用于表征微电网集群系统中的个体对象的电压频率控制信号的第一目标方程,并构建用于表征个体对象的功率控制信号的第二目标方程;基于第二目标方程,并根据邻居状态信号和任务调度信号,计算功率控制信号,基于第一目标方程,并根据邻居状态信号和功率控制信号,计算电压频率控制信号,以通过功率控制信号和电压频率控制信号进行协同控制。本发明能够抑制个体信息交互时的邻居信息不确定性,改善异构下垂动态的MGC系统收敛速度慢、鲁棒性能差的问题,并提升了MGC系统的电能质量。
-
公开(公告)号:CN112506361A
公开(公告)日:2021-03-16
申请号:CN202011321506.4
申请日:2020-11-23
申请人: 北京建筑大学 , 北京仁光科技有限公司
IPC分类号: G06F3/0354 , G06F3/00 , G06F3/0487
摘要: 本发明涉及人机交互系统,其包括发光笔、两个摄像头和主机;两个摄像头光轴平行于屏幕,用于从发光体侧面捕获包含所述发光体的第一和第二图像并将其发送至主机;第一摄像头与第二摄像头的光轴和屏幕之间的距离相同;主机确定发光体上的平行于屏幕的目标截面在所述第一图像中的第一起始像素点和第一终止像素点,以及确定所述目标截面在所述第二图像中的第二起始像素点和第二终止像素点,所述目标截面为所述两个摄像头光轴延长线所在的平面;主机还用于根据所述第一、第二起始像素点、第一、二终止像素点的形成光路与所述目标截面的几何关系确定触点的程序空间坐标,并使主机进行响应。本发明可实现对屏幕的无遮挡、无死角触控,提高人机交互效率。
-
公开(公告)号:CN111160327B
公开(公告)日:2020-06-30
申请号:CN202010252867.1
申请日:2020-04-02
申请人: 北京建筑大学
摘要: 本发明涉及人工智能领域,具体提供了一种基于轻量化卷积神经网络的表情识别方法,其特征在于,包括:S1:搭建并训练轻量化卷积网络模型,所述轻量化卷积网络模型的卷积层数范围为36‑58,分组卷积组数范围为2‑4,压缩层压缩因子范围为0.3‑0.5;S2:搭建人脸校正器;S3:采用人脸校正器检测并校正输入图像,获得预处理图像;S4:采用轻量化卷积神经网络模型分类预处理图像中的人脸表情。本发明解决了现有技术存在的识别准确率较低,识别速度慢的技术问题,在保证准确率的同时还具有较高的实时性。
-
公开(公告)号:CN111126364A
公开(公告)日:2020-05-08
申请号:CN202010235994.0
申请日:2020-03-30
申请人: 北京建筑大学
摘要: 本发明涉及人工智能领域,具体提供一种基于分组卷积神经网络的表情识别方法,包括:S1:搭建并训练分组卷积神经网络模型;S2:提取输入图像信息;所述分组卷积网络模型将每个卷积层分解为深度卷积和点卷积,再将每个所述点卷积分组;S3:搭建人脸校正器;S4:采用人脸校正器检测并校正输入图像,获得预处理图像;S5:采用分组卷积神经网络模型分类预处理图像中的人脸表情。本发明解决了现有技术存在的识别准确率较低,识别速度慢的技术问题,在保证准确率的同时还具有较高的实时性。
-
-
-
-
-
-
-
-
-