-
公开(公告)号:CN112613293A
公开(公告)日:2021-04-06
申请号:CN202011593291.1
申请日:2020-12-29
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06F40/194 , G06K9/62
Abstract: 本发明实施例公开了一种摘要生成方法、装置、电子设备及存储介质,所述方法包括:获取摘要文本信息;分别确定预设图像集中至少一个图像与所述摘要文本信息的图文相似度;分别提取所述至少一个图像中的图像文本信息,并确定各所述图像的图像文本信息与所述摘要文本信息的文本相似度;基于各所述图像的图文相似度和文本相似度确定与所述摘要文本信息相匹配的摘要图像;基于所述摘要图像和所述摘要文本信息形成目标摘要。本发明实施例的技术方案实现了当用户阅读初始文本时,可以通过摘要图像直观的了解文本的大致内容,通过阅读摘要文本信息获知文本主旨内容,提高用户的阅读体验感。
-
公开(公告)号:CN112579824A
公开(公告)日:2021-03-30
申请号:CN202011486751.0
申请日:2020-12-16
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06F16/75 , G06F16/783 , G06K9/62 , G06N3/04
Abstract: 本发明公开了一种视频数据分类方法、装置、电子设备及存储介质,所述方法包括:获取视频数据分别在RGB模态、光流场模态和动态图模态下的图像帧序列;对所述RGB模态、所述光流场模态和所述动态图模态下的图像帧序列分别进行分类处理,确定各模态下的分类分数;基于所述各模态下的分类分数确定所述视频数据的目标分类结果。本发明实施例的技术方案对三种模态下的图像帧序列分别进行分类处理,并根据各自的分类分数综合确定视频数据的目标分类结果,使得分类结果更加准确,视频数据的分类效率更高。
-
公开(公告)号:CN108596360B
公开(公告)日:2021-03-12
申请号:CN201810218371.5
申请日:2018-03-16
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06Q10/04 , G06F40/284 , G06F16/332 , G06Q50/18 , G06N20/00
Abstract: 本发明涉及一种基于机器学习的判决预测方法及系统,该预测方法包括:得到判决文书的第一候选关键词;将第一预测权重值与实际权重值的偏离程度小于第一预设阈值,且第一预测权重值大于第二预设阈值的第一候选关键词作为关键词;将判决文书与相应的关键词进行训练得到判决模型;通过判决模型和待判决文书得到判决建议文书,根据判决建议文书得到判决建议。本发明实施例通过对已有的判决文书进行处理得到其中的关键词,并利用判决和关键词的对应关系进行训练得到相应的判决模型,在需要进行审判时,将待判决文件输入所述判决模型,进而得到符合条件的判决文件,从而为法官提供判决建议,保证案件的审判无差错,量刑适中,做到同案同判和司法公正。
-
公开(公告)号:CN111026866B
公开(公告)日:2020-10-23
申请号:CN201911019149.3
申请日:2019-10-24
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06F16/35 , G06F40/289
Abstract: 本发明公开了一种面向领域的文本信息抽取聚类方法、设备和存储介质。该方法包括:获取文本信息集合;所述文本信息集合包括:目标领域内的多个文本信息和目标领域外的多个文本信息;将所述文本信息集合输入预先训练的抽取聚类模型;通过所述抽取聚类模型对所述文本信息集合执行抽取和聚类处理,得到所述目标领域内每个主题对应的代表性信息。本发明将抽取和聚类融合在一起,使得抽取和聚类相互支撑,在抽取聚类过程中,人工干预少且抽取和聚类高效。
-
公开(公告)号:CN108960280B
公开(公告)日:2020-07-24
申请号:CN201810488427.9
申请日:2018-05-21
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06K9/62
Abstract: 本发明涉及一种图片相似度检测方法及系统,该检测方法包括:分别筛选出互联网图片和参考图片中的互联网图片特征点和参考图片特征点;根据所有互联网图片特征点和所有参考图片特征点得到互联网图片和参考图片中的匹配特征点;当匹配特征点的个数大于或等于预设阈值时,互联网图片和参考图片相似。本发明实施例通过获取进行对比的两个图片的特征点,获取得到互联网图片和参考图片的特征点是否相匹配,并统计相匹配的特征点的数量,当匹配的特征点的数量超过预设阈值时,即可确认互联网图片和参考图片相似,本发明实施例计算数据量少,抗噪能力强,实现了快速识别检验图片之间是否相似。
-
公开(公告)号:CN110334275A
公开(公告)日:2019-10-15
申请号:CN201910471730.2
申请日:2019-05-31
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06F16/9535 , G06F16/958
Abstract: 本发明公开了一种信息流行度预测方法、设备和存储介质。该方法包括:获取待预测信息;按照预先确定的流行度影响特征类别,提取所述待预测信息的流行度影响特征;将所述流行度影响特征输入预先训练的集成了多个预测模型的多模型预测器中,获得所述多模型预测器输出的所述待预测信息的流行度。本发明使用集成了多个预测模型的多模型预测器对待预测信息进行信息流行度预测,采用多模型预测器预测信息流行度不仅可以提高预测模型预测结果的稳定性,还可以显著提高预测模型的预测性能,使得流行度预测更加稳定,预测结果更加精准。
-
公开(公告)号:CN109816431A
公开(公告)日:2019-05-28
申请号:CN201811602910.1
申请日:2018-12-26
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06Q30/02 , G06F16/951 , G06F16/953 , G06F16/9535
Abstract: 本发明涉及一种品牌传播指数构建方法、系统及存储介质,解决了现有的品牌指数构建方法效率低、准确率差的问题,本发明包括新闻传播指数构建方法、微信公众号传播指数构建方法和微博传播指数构建方法,采用机器的方法对设计的品牌传播指标进行定量评价并量化计算方法进行量化评估,从而大大提高品牌评估的准确性和有效性,可更好地服务于现有品牌的评估量化工作,品牌指数构建方法效率高,评价的品牌指数准确率高,实用性强。
-
公开(公告)号:CN108960280A
公开(公告)日:2018-12-07
申请号:CN201810488427.9
申请日:2018-05-21
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06K9/62
Abstract: 本发明涉及一种图片相似度检测方法及系统,该检测方法包括:分别筛选出互联网图片和参考图片中的互联网图片特征点和参考图片特征点;根据所有互联网图片特征点和所有参考图片特征点得到互联网图片和参考图片中的匹配特征点;当匹配特征点的个数大于或等于预设阈值时,互联网图片和参考图片相似。本发明实施例通过获取进行对比的两个图片的特征点,获取得到互联网图片和参考图片的特征点是否相匹配,并统计相匹配的特征点的数量,当匹配的特征点的数量超过预设阈值时,即可确认互联网图片和参考图片相似,本发明实施例计算数据量少,抗噪能力强,实现了快速识别检验图片之间是否相似。
-
公开(公告)号:CN108595439A
公开(公告)日:2018-09-28
申请号:CN201810435632.9
申请日:2018-05-04
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06F17/27
Abstract: 本发明涉及一种文字传播路径分析方法及系统,该分析方法包括:将互联网稿件和参考稿件分别按语句向量化,得到互联网稿件语句维度向量和参考稿件语句维度向量;通过计算相应的汉明距离判断互联网稿件与参考稿件是否有共有语句;当互联网稿件与参考稿件有共有语句时,且互联网稿件不包含预设关键词时,确定互联网稿件与参考稿件采用关系的种类。在本发明实施例中,根据互联网稿件和参考稿件分别得到对应语句维度向量,通过语句维度向量计算互联网稿件和参考稿件的汉明距离,利用互联网稿件和参考稿件的汉明距离和互联网稿件是否包含预设关键词确认互联网稿件与参考稿件的采用关系,为用户提供了不同稿件之间关系的处理方法,提高工作的效率。
-
公开(公告)号:CN119886307A
公开(公告)日:2025-04-25
申请号:CN202510070907.3
申请日:2025-01-16
Applicant: 北京中科闻歌科技股份有限公司
IPC: G06N5/022 , G06N5/02 , G06F16/31 , G06F16/36 , G06F40/205
Abstract: 本发明提供了一种基于大模型的树形结构知识构建方法、设备及介质,涉及人工智能技术领域,所述方法包括:初始化栈,并创建栈的根节点,获取目标文章的第i行文本;若第i行文本是标题,获取目标文章的第i行文本的标题类型,按照从栈顶到栈底的顺序遍历栈中的子节点,若存在子节点与第i行文本的标题类型相同,将该子节点标记为相同类型节点,并将从栈顶到相同类型节点的全部节点出栈,若栈为空,将第i行文本作为根节点的子节点,并将第i行文本入栈;若栈不为空,获取栈的栈顶,将第i行文本作为栈顶的子节点,并将第i行文本入栈,直到目标文章的所有行遍历完成,生成目标文章的解析树;从而更加高效且准确的获取到目标文章的解析树。
-
-
-
-
-
-
-
-
-