-
公开(公告)号:CN110490223A
公开(公告)日:2019-11-22
申请号:CN201910609636.9
申请日:2019-07-08
IPC分类号: G06K9/62
摘要: 本发明涉及一种数字化的牙菌斑标注方法,包括以下步骤:1)采用数码相机获取牙齿的照片A和照片B,在labelme软件中,在照片A和照片B中找出4个具有特征的标志点;2)将照片B根据4个标志点与照片A进行匹配,生成照片C;3)在labelme软件中将照片C中菌斑部分标出;4)将照片C中菌斑标记点转移到照片A中;5)根据照片B调整步骤4)获得的照片A中菌斑的轮廓,并标记出牙齿菌斑轮廓。本发明能利用数字化方法标注菌斑,能准确标记出牙齿菌斑轮廓,从而针对性地清除菌斑,使牙齿龈炎得到有效的控制。
-
公开(公告)号:CN117197448A
公开(公告)日:2023-12-08
申请号:CN202310583270.9
申请日:2023-05-23
IPC分类号: G06V10/26 , G06V10/44 , G06V10/762 , G06V10/82 , G06T7/11 , G06N3/0464 , G06N3/0455 , G06N3/08
摘要: 本发明公开了一种二维图像牙菌斑自动分割方法及系统,涉及计算机视觉和图像处理技术领域。通过将输入图像的上下文信息进行编码并且送入由自注意力机制以及Kmeans聚类所组成的编码器模块。将编码后的图像上下文信息输入编码器模块之后会获得自注意力图以及聚类特征图,并将两者结合获得编码后的数据,编码器编码后的数据将会被送至由多层感知机构所组成的解码器中,解码器将编码后的数据通过卷积层以及全连接层之后,输出最终的分割掩码。将图像输入到网络中进行训练,直至训练收敛,最终得到完整的模型。本发明能够自动的划分出牙齿以及牙菌斑的区域,识别精度高,并且解决了模型收敛性差、边缘细节分割效果差的问题。
-
公开(公告)号:CN110490223B
公开(公告)日:2023-03-24
申请号:CN201910609636.9
申请日:2019-07-08
IPC分类号: G06V10/75
摘要: 本发明涉及一种数字化的牙菌斑标注方法,包括以下步骤:1)采用数码相机获取牙齿的照片A和照片B,在labelme软件中,在照片A和照片B中找出4个具有特征的标志点;2)将照片B根据4个标志点与照片A进行匹配,生成照片C;3)在labelme软件中将照片C中菌斑部分标出;4)将照片C中菌斑标记点转移到照片A中;5)根据照片B调整步骤4)获得的照片A中菌斑的轮廓,并标记出牙齿菌斑轮廓。本发明能利用数字化方法标注菌斑,能准确标记出牙齿菌斑轮廓,从而针对性地清除菌斑,使牙齿龈炎得到有效的控制。
-
公开(公告)号:CN108763841B
公开(公告)日:2022-04-05
申请号:CN201810815571.9
申请日:2018-07-24
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
IPC分类号: G06F30/23 , G06F111/10
摘要: 本发明提出一种基于对偶边界元和应变能优化分析的弹性断裂仿真方法,对有关三维线性弹性断裂的两个基本问题进行了处理。通过使用对偶边界元方法来表示含有重叠裂口表面的模型,并采用半解析方法来求解超奇异边界积分方程。通过引入接触力模型来表示来自接触载荷和裂纹前端应变能释放的连续属性。通过在断裂持续时间段内对裂纹的延展距离计算断裂因子来对裂口端的延展进行精确控制。
-
公开(公告)号:CN110874578B
公开(公告)日:2023-06-20
申请号:CN201911119545.3
申请日:2019-11-15
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
IPC分类号: G06V20/40 , G06V20/54 , G06V10/82 , G06N3/0464 , G06N3/084
摘要: 本发明公开了一种基于强化学习的无人机视角车辆识别追踪方法,基于无人机视角场景理解,监控以及追踪,建立高效,自适应的全景视频管理,通过强化学习的迁移学习目标跟踪方法,可以使得无人机在非监督情况下进行自适应的快速运动的车辆跟踪。结合地面摄像头数据,协同处理,借用重识别信息和算法,实现跨视角跨方位的天地协同跟踪系统,使得交通分析不再关注重复大量的视频标注工作,解放手动监控的劳动力,能够依据软件预先提供的初始化目标车辆、快速高效准确的进行自动分析与监控应用。
-
公开(公告)号:CN110874578A
公开(公告)日:2020-03-10
申请号:CN201911119545.3
申请日:2019-11-15
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
摘要: 本发明公开了一种基于强化学习的无人机视角车辆识别追踪方法,基于无人机视角场景理解,监控以及追踪,建立高效,自适应的全景视频管理,通过强化学习的迁移学习目标跟踪方法,可以使得无人机在非监督情况下进行自适应的快速运动的车辆跟踪。结合地面摄像头数据,协同处理,借用重识别信息和算法,实现跨视角跨方位的天地协同跟踪系统,使得交通分析不再关注重复大量的视频标注工作,解放手动监控的劳动力,能够依据软件预先提供的初始化目标车辆、快速高效准确的进行自动分析与监控应用。
-
公开(公告)号:CN108763841A
公开(公告)日:2018-11-06
申请号:CN201810815571.9
申请日:2018-07-24
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
IPC分类号: G06F17/50
CPC分类号: G06F17/5018
摘要: 本发明提出一种基于对偶边界元和应变能优化分析的弹性断裂仿真方法,对有关三维线性弹性断裂的两个基本问题进行了处理。通过使用对偶边界元方法来表示含有重叠裂口表面的模型,并采用半解析方法来求解超奇异边界积分方程。通过引入接触力模型来表示来自接触载荷和裂纹前端应变能释放的连续属性。通过在断裂持续时间段内对裂纹的延展距离计算断裂因子来对裂口端的延展进行精确控制。
-
公开(公告)号:CN118762111A
公开(公告)日:2024-10-11
申请号:CN202411244585.1
申请日:2024-09-06
申请人: 人民卫生电子音像出版社有限公司 , 北京航空航天大学
IPC分类号: G06T13/40 , G06T13/20 , G06T15/04 , G06V40/16 , G06V20/64 , G06N3/0455 , G10L25/57 , G10L25/63 , G10L25/27
摘要: 本发明涉及表情重构技术领域,具体为一种基于深度神经网络的虚拟人面部表情动画生成方法,包括以下步骤:基于3D扫描环境,进行用户虚拟人物模型的面部三维数据捕获,并通过边缘检测和纹理映射调整三维模型的面部纹理和结构信息,生成面部特征编码。本发明通过对虚拟人物面部三维数据的精确捕获和细致的纹理及结构调整,实现了面部表情的高度自然和真实再现,结合实时音频分析,通过精细识别语音中的情绪与语调特征,能够生成与语音内容高度匹配的面部表情,提高了动画的表现力和观众的沉浸感,引入观众实时反馈进行表情调整,使得生成的动画更贴合观众的期待和情感体验,提升了虚拟表情动画的互动性和个性化,优化了用户体验。
-
公开(公告)号:CN118430823A
公开(公告)日:2024-08-02
申请号:CN202410525821.0
申请日:2024-04-29
申请人: 北京航空航天大学
IPC分类号: G16H50/50
摘要: 本公开的实施例公开了基于时序分析的心肌细胞电生理仿真方法与装置。该方法的一具体实施方式包括:采集目标心肌细胞对应的生理属性集对应的各个时序变化轨迹;将舒张间期标志物和所述各个时序变化轨迹输入至预测网络,得到预测细胞动作电位持续时间标志物;根据定制时间模板和所述历史窗口数据,确定目标心肌细胞对应的预测窗口数据;根据预设刺激方案和初始生理状态,确定目标心肌细胞对应的未来生理状态轨迹。该实施方式提高了对多种细胞类型电活动仿真的快速收敛性,自适应地根据细胞生理学数据快速推断出对应的生理机制,较为精准稳定地预测细胞生理属性在多种起搏场景下的时序变化。
-
公开(公告)号:CN118092671B
公开(公告)日:2024-07-05
申请号:CN202410489415.3
申请日:2024-04-23
申请人: 北京航空航天大学
IPC分类号: G06F3/01 , G06F16/45 , G06F16/48 , G06F18/213 , G06F18/24 , G06F18/25 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
摘要: 本公开提出了一种目标视听数据生成方法、装置、电子设备和可读介质。包括:获取当前音视数据序列和视听注视点定位数据集;基于视听注视点定位数据集,生成注视点类激活图集;基于视听注视点定位数据集和注视点类激活图集,对初始多模态注视点预测模型进行训练,以及确定为多模态注视点预测模型;确定音视时短期特征序列和音视时长期特征序列;将音视时短期特征序列和音视时长期特征序列输入多模态注视点预测模型,得到目标注视点区域图像;将当前音视数据序列和目标注视点区域图像输入视听内容生成模型,得到下一视频帧数据序列和下一音频数据序列;生成目标视听数据。该实施方式可以及时生成用户感兴趣的目标视听数据,提高用户的视听体验。
-
-
-
-
-
-
-
-
-