-
公开(公告)号:CN114772257A
公开(公告)日:2022-07-22
申请号:CN202210684050.0
申请日:2022-06-17
申请人: 湖南超能机器人技术有限公司
IPC分类号: B65G47/88
摘要: 本发明涉及一种电动阻挡器,包括:底部支承(1),转动座(2),阻挡件(3)和升降控制单元(4);所述转动座(2)和所述升降控制单元(4)依次排列设置在所述底部支承(1)上;所述阻挡件(3)支承在所述转动座(2)和所述升降控制单元(4)上,其中,所述阻挡件(3)一端为与所述转动座(2)转动连接的转动连接端,另一端为与所述升降控制单元(4)活动连接的升降端;所述升降端在所述升降控制单元(4)的驱动作用下,以所述转动连接端为支点上下活动。
-
公开(公告)号:CN113487610B
公开(公告)日:2021-11-12
申请号:CN202111042470.0
申请日:2021-09-07
申请人: 湖南超能机器人技术有限公司
摘要: 本申请涉及一种疱疹图像识别方法、装置、计算机设备和存储介质。所述方法包括:获取原始疱疹图像,对其进行模糊过滤、去噪声、预处理,得到训练样本;构建深度差分卷积神经网络,该网络是在YOLOV4网络的基础上将主干网络中卷积替换为差分卷积得到的;利用训练样本对该网络进行训练得到疱疹识别模型;采用该模型进行疱疹图像识别得到疱疹图像识别结果。疱疹真实图像不容易获得,样本量少,差分卷积网络能学习到有限图像中更多的细节信息,减少样本需求量;本方法只用单级网络就可一次性检测出多个物体类别,在提高检测召回率和准确率的基础上减少计算资源损耗。
-
公开(公告)号:CN113487610A
公开(公告)日:2021-10-08
申请号:CN202111042470.0
申请日:2021-09-07
申请人: 湖南超能机器人技术有限公司
摘要: 本申请涉及一种疱疹图像识别方法、装置、计算机设备和存储介质。所述方法包括:获取原始疱疹图像,对其进行模糊过滤、去噪声、预处理,得到训练样本;构建深度差分卷积神经网络,该网络是在YOLOV4网络的基础上将主干网络中卷积替换为差分卷积得到的;利用训练样本对该网络进行训练得到疱疹识别模型;采用该模型进行疱疹图像识别得到疱疹图像识别结果。疱疹真实图像不容易获得,样本量少,差分卷积网络能学习到有限图像中更多的细节信息,减少样本需求量;本方法只用单级网络就可一次性检测出多个物体类别,在提高检测召回率和准确率的基础上减少计算资源损耗。
-
公开(公告)号:CN113326722A
公开(公告)日:2021-08-31
申请号:CN202010578384.0
申请日:2020-06-23
申请人: 湖南超能机器人技术有限公司 , 北京理工大学
摘要: 本发明提供一种基于序列模式的图像模糊检测方法、设备及计算机可读存储介质,属于图像处理与分析技术领域。获得RGB彩色图像;将RGB彩色图像转换为灰度图像;将灰度图像使用Sobel算子求取水平和垂直方向的边缘检测算子的卷积因子;使用Tenengrad算法计算分数;将本图像的分数减去上一张图像的分数,利用分数差结果来判断当前图像处于哪一个模式;根据不同的模式使用不同的判断方法来存储清晰的图像;实时推送图像或手动调用各个模式中存储清晰的图像。总之,本发明提供的基于序列模式的图像模糊检测方法通过序列图像的相邻图像来判断选取相对而言最清晰的图片,同时采取对应不同模式的判断方法判断图像清晰度,在保证检测准确性的基础上达成了实时性的要求。
-
公开(公告)号:CN113326721A
公开(公告)日:2021-08-31
申请号:CN202010578148.9
申请日:2020-06-23
申请人: 湖南超能机器人技术有限公司 , 北京理工大学
摘要: 本发明提供一种基于滑窗再模糊的图像模糊检测方法、设备及计算机可读存储介质,属于图像处理与分析技术领域。对所采集的图像进行手掌区域判断;对目标图像进行再模糊处理,获得再模糊图像;将目标图像和所述再模糊图像转换为灰度图像;对得到的两个灰度图像分别进行边缘检测,得到各自的边缘图像;对得到的两个边缘图像分别进行滑窗分块处理,计算两者的结构相似度;将结构相似度同预设阈值进行比较,若相似度大于等于预设阈值,则判断目标图像清楚,否则判断为模糊。总之,本发明提供的基于滑窗再模糊的图像模糊检测方法针对嵌入式应用场景,可一次性提取图像边缘信息,自由设置滑窗尺寸,在保证检测准确性的基础上达成了实时性的要求。
-
公开(公告)号:CN113326720A
公开(公告)日:2021-08-31
申请号:CN202010578133.2
申请日:2020-06-23
申请人: 湖南超能机器人技术有限公司 , 北京理工大学
摘要: 本发明提供一种基于轮廓深度学习的图像模糊检测方法,属于图像处理技术领域。具体为:输入待考察的目标图像;对目标图像进行高斯模糊滤波除去噪声;使用边缘检测算子Canny设置阈值对目标图像进行边缘轮廓提取得到目标边缘轮廓图像;定义目标边缘轮廓图像;建立深度卷积神经网络模型CNN并初始化,使用四种卷积层、不同大小的卷积核、步长为一的滑动窗口对输入图像进行处理,获得不同大小的特征图,特征提取获得边缘轮廓特征;sigmoid函数分类器进行二值分类,过滤模糊图片。本发明针对嵌入式平台的不同应用场景,一次性提取手掌特征轮廓图像信息,合理设置轮廓阈值,在保证模糊检测准确性的基础上减少了计算资源的损耗,达成了实时性的要求。
-
公开(公告)号:CN108582118B
公开(公告)日:2021-04-20
申请号:CN201810763262.1
申请日:2018-07-12
申请人: 湖南超能机器人技术有限公司
摘要: 本发明公开了一种引导问询机器人,包括底壳,底壳的顶部固定连接有上壳,上壳的顶部固定连接有头部外壳,所述底壳的顶部和上壳的底部之间固定连接有隔板,所述隔板的内表面通过套块转动连接有转动杆,所述转动杆的一端固定连接有圆盘,所述圆盘的顶部开设有圆槽,所述隔板底部的两侧均转动连接有导柱,所述导柱的外表面固定连接有连接杆,连接杆的一端固定连接有滑柱,涉及机器人技术领域。该引导问询机器人,利用电机、第一皮带轮和第二皮带轮之间的配合可带动圆盘进行转动,再利用圆盘、导柱和滑柱之间的配合可带动滚轮实现转向,解决了机器导航的过程中会因为碰到障碍物而无法自主改变方向继续前进,实用性不高的问题。
-
公开(公告)号:CN116807770A
公开(公告)日:2023-09-29
申请号:CN202310409034.5
申请日:2023-04-17
申请人: 湖南超能机器人技术有限公司
摘要: 本发明属于医疗护理设备技术领域,具体是涉及到一种床椅装置及使用方法,包括固定床体和移动床椅;固定床体包括固定架和床板,固定架包括床架和设置在床架下方的床脚,床架包括横架和设置在横架两端的两个纵架,横架和两个纵架围合形成床体安装平面;床板铰接设置在横架上,且床板具有朝向和远离床体安装平面转动的转动行程;床板不在床体安装平面时,床形态的移动床椅可嵌入床体安装平面,本发明在组合使用时可扩展床体的床面面积,提高患者睡眠舒适度和医生手术的便利性,在两者单独使用时,固定床体可以独立作为床体使用,避免浪费医疗场所的空间,同时可以保证医疗场所的床体数量,而移动床椅单独使用时具有良好的通过性。
-
公开(公告)号:CN113326722B
公开(公告)日:2023-06-02
申请号:CN202010578384.0
申请日:2020-06-23
申请人: 湖南超能机器人技术有限公司 , 北京理工大学
IPC分类号: G06V40/10 , G06V10/44 , G06V10/56 , G06V10/82 , G06N3/0464
摘要: 本发明提供一种基于序列模式的图像模糊检测方法、设备及计算机可读存储介质,属于图像处理与分析技术领域。获得RGB彩色图像;将RGB彩色图像转换为灰度图像;将灰度图像使用Sobel算子求取水平和垂直方向的边缘检测算子的卷积因子;使用Tenengrad算法计算分数;将本图像的分数减去上一张图像的分数,利用分数差结果来判断当前图像处于哪一个模式;根据不同的模式使用不同的判断方法来存储清晰的图像;实时推送图像或手动调用各个模式中存储清晰的图像。总之,本发明提供的基于序列模式的图像模糊检测方法通过序列图像的相邻图像来判断选取相对而言最清晰的图片,同时采取对应不同模式的判断方法判断图像清晰度,在保证检测准确性的基础上达成了实时性的要求。
-
公开(公告)号:CN116151273A
公开(公告)日:2023-05-23
申请号:CN202310448078.9
申请日:2023-04-24
申请人: 湖南超能机器人技术有限公司
IPC分类号: G06F40/35 , G06F40/279 , G06N5/02 , G06N5/04 , G06N3/0455 , G06N3/042 , G06N3/0499 , G06N3/08 , G16H80/00
摘要: 本申请涉及一种基于Transformer和知识图谱的智能交互方法,该方法采用N‑gram掩码方法进行预训练模型的训练,以处理医学领域中的稀疏数据问题,提高预训练模型在处理稀疏数据时的效果。在智能交互过程中,采用Transformer进行特征和意图的联合提取可以提高模型的准确率,并避免因意图和实体之间的不一致性导致的误判。采用稀疏特征和词向量联合输入的方式,可以综合利用不同类型的特征,提高模型准确性,可以充分利用特征之间的关联和词向量的语义信息,从而提高模型的泛化能力和效果。本方法在医疗领域发挥着重要作用,不仅能帮助用户更方便地获取医疗服务,而且能帮助医生提高诊断效率和准确性。
-
-
-
-
-
-
-
-
-