-
公开(公告)号:CN116992196B
公开(公告)日:2023-12-12
申请号:CN202311250053.4
申请日:2023-09-26
申请人: 中国人民大学
摘要: 本发明涉及一种基于循环动态展开的数据处理方法、系统、设备和介质,包括以下步骤:对预先建立的目标神经网络模型的参数值进行初始化,并将该目标神经网络模型作为循环体的一个时间步构建目标神经微分方程;采用循环动态展开算法对构建的目标神经微分方程进行求解,得到训练好的目标神经网络;将当前待处理数据作为目标神经网络的输入,并将目标神经网络的输出作为数据处理结果。本发明可以广泛应用于数据处理领域。本发明使用动态展开的方式对目标神经微分方程的循环进行展开,既利用了循环全展开的运行速度优势,又利用了循环不展开的编译速度优势,能够有效提高计算速度。因此,本发明可以广泛应用于数据处理领域。
-
公开(公告)号:CN113591743B
公开(公告)日:2023-11-24
申请号:CN202110895033.7
申请日:2021-08-04
申请人: 中国人民大学
IPC分类号: G06V20/40 , G06V10/764 , G06V10/82 , G06N3/088
摘要: 本发明涉及一种书法视频识别方法、系统、存储介质及计算设备,其包括:获取初始书法视频数据并处理;收集获取行书草书书写笔序和草书符号的先验知识;结合先验知识在初始书法视频数据中提取视频关键帧视频图片,将所述关键帧图片转化为文本;将图片的文本向量化得到每个文本的多维向量,将每张图片生成的多维向量按照时序进行拼接,组合形成视频向量;将所述视频进行向量降维可视化处理,完成分类识别。本发明能提高行书草书书法视频识别的准确性,可以广泛在视频数据识别技术领域中应用。(56)对比文件薛扬 等.镜像图灵测试:古诗的机器识别.《计算机学报》.2021,第44卷(第7期),第1398-1413页.孙巍巍.基于深度学习的手写汉字识别技术研究《.中国优秀硕士学位论文全文数据库 信息科技辑》.2017,(第5期),第I138-1130页.
-
公开(公告)号:CN117061733A
公开(公告)日:2023-11-14
申请号:CN202310885569.X
申请日:2023-07-18
IPC分类号: H04N17/02 , H04N21/475 , H04N21/234 , H04N21/4728
摘要: 本申请公开了一种视频评估方法及其相关设备,可对多个视频进行准确的评估,从而准确得到用户对多个视频的感兴趣程度。本申请的方法包括:获取第一视频组,第一视频组包含多个第一视频;对多个第一视频的观看时长进行处理,得到第一视频组的参数,第一视频组的参数用于指示多个第一视频的观看时长的偏置和多个第一视频的观看时长的噪声;基于第一视频组的参数以及多个第一视频的观看时长,获取多个第一视频的评估值,多个第一视频的评估值用于指示用户对多个第一视频的感兴趣程度。
-
公开(公告)号:CN116992153A
公开(公告)日:2023-11-03
申请号:CN202311092230.0
申请日:2023-08-28
申请人: 中国人民大学
IPC分类号: G06F16/9535 , G06F16/9538
摘要: 本发明公开了一种网页重要性的确定方法,包括:将网页以及网页之间的关系转化为图结构,获取在所述概率量传播过程完成后收到的来自目标节点t、并最终留在节点k的概率量的估计;将节点k更新为图结构中的另一节点;重复获取图结构中的节点k收到的来自目标节点t、并最终留在节点k的概率量的步骤,直至得到图结构中所有节点k在收到的来自目标节点t、并最终留在节点k的概率量的估计;根据图结构中所有所述节点收到的来自目标节点t、并最终留在节点k的概率量,得到目标节点t的佩奇排名分值的估计,确定与目标节点t对应的网页的重要性。本发明提供的网页重要性的确定方法,能够更高效地完成一个指定网页佩奇排名的计算。
-
公开(公告)号:CN116975730A
公开(公告)日:2023-10-31
申请号:CN202310975113.2
申请日:2023-08-03
申请人: 中国人民大学
IPC分类号: G06F18/2413 , G06F18/22 , G06F18/2415 , G06F18/213 , G06F18/214 , G06F18/21 , G06N3/042 , G06N3/048 , G06N3/084 , G06N3/0985
摘要: 本发明实现了一种基于距离几何的商品分类方法。通过S1将商品及商品之间的关系建模成图,S2得到初始嵌入矩阵,S3学习商品间的距离信息,S4设置超参数、传播次数,S5将传播后得到的矩阵维度降低,得到预测矩阵,S6使用交叉熵损失函数计算损失,反向传播算法优化,S7重复到算法在一定迭代步数内在验证集上的分类精度不再提升,则停止更新模型参数;将测试集商品的特征输入模型,最终得到输出的预测。从而实现了提高分类精度、应对同配图和异配图场景、在空域上具有可解释性、在计算复杂度层面有优势的技术效果。
-
公开(公告)号:CN116933872A
公开(公告)日:2023-10-24
申请号:CN202311114814.3
申请日:2023-08-31
申请人: 中国人民大学
摘要: 本申请涉及一种基于模糊粗糙集的规则分类器更新方法,所述方法包括:根据需要删除的类别,确定原始规则分类器中需要更新的规则,所述规则为属性的约简集;针对所述需要更新的规则,采用信息度量计算所述规则中所要遗忘的属性,直至满足预设的停止标准,得到更新后的规则;将所述更新后的规则,与所述原始规则分类器中未更新的规则进行合并,得到更新后的规则分类器。本方案,能够解决基于模糊粗糙集的规则知识系统,在需要删除特定类别时的规则分类器的更新问题。
-
公开(公告)号:CN116894047A
公开(公告)日:2023-10-17
申请号:CN202310931300.0
申请日:2023-07-27
申请人: 中国人民大学
IPC分类号: G06F16/242 , G06F16/22 , G06F21/64 , G06Q40/04 , G06Q30/018
摘要: 本发明公开了一种基于区块链的可验证溯源方法和装置,用户可以根据目标实体的状态变化进行溯源查询并且实现查询结果的自验证,链式查询中对区块结构和交易内容进行扩充使之支持PROV模型,并且在实现区块链溯源查询方法的基础之上,进一步地运用MBtree的设计、VO的构造等方法来验证溯源结果的正确性和完整性,从而提高区块链溯源查询系统的可靠性和安全性。子图溯源查询中,会依据三元组的不同排列方式构建三类索引结构压缩存储为B+树实现溯源查询,并且通过将索引结构扩展为MBtree用以查询结果的VO构造从而实现查询结果的可验证。本发明实现了对链式数据的溯源信息查询以及子图等多模态数据进行溯源查询,扩展了可验证溯源查询的应用范围。
-
公开(公告)号:CN112818090B
公开(公告)日:2023-10-03
申请号:CN202110204002.2
申请日:2021-02-24
申请人: 中国人民大学
IPC分类号: G06F16/33
摘要: 本发明属于人工智能对话技术领域,一种基于谐音字的答非所问对话生成方法和系统,包括以下步骤:S1将提出的问题进行分词和语义处理;S2获得经过分词和语义处理后的问题的关键词;S3根据预建立的谐音字数据库,对关键词进行谐音字替换,并生成新的问题;S4将新的问题带入预建立的对话回复模型,生成最终的回复。其通过对语音对话中的关键词进行谐音替换,以模拟用户听错了的情况,进行答非所问的回答,从而暗示对话的另一方自己对话题并不感兴趣,达到结束对话的目的。
-
公开(公告)号:CN116775915A
公开(公告)日:2023-09-19
申请号:CN202310781584.X
申请日:2023-06-28
申请人: 北京达佳互联信息技术有限公司 , 中国人民大学
IPC分类号: G06F16/435 , G06F16/9535 , G06F18/213 , G06F18/22 , G06F18/25 , G06F18/24 , G06F18/214
摘要: 本公开提供了一种资源推荐方法、推荐预测模型训练方法、装置及设备,属于多媒体技术领域。资源推荐方法包括:获取对象的历史推荐信息及历史搜索信息;基于待推荐的资源、历史推荐信息及历史搜索信息,获取对象的推荐兴趣特征及搜索兴趣特征;对对象的对象特征、资源的资源特征、推荐兴趣特征及搜索兴趣特征进行降维处理,得到资源的推荐概率;基于待推荐的多个资源的推荐概率,向对象推荐多个资源中的目标资源。本公开实施例提供的方案中,保证了推荐概率指示的情况与对象的兴趣相匹配,保证了推荐概率的准确性,进而保证了向对象推荐的资源为对象感兴趣的资源,以保证资源推荐的准确性,进而保证资源推荐效果。
-
公开(公告)号:CN113658226B
公开(公告)日:2023-09-05
申请号:CN202110986662.0
申请日:2021-08-26
申请人: 中国人民大学
摘要: 本发明属于视频目标识别技术领域,涉及一种限高装置高度检测方法和系统,包括:将若干个双目视频采集装置设置在同一高度,通过双目视频采集装置采集视频图像;提取视频图像中限高装置的边界框;提取边界框中角点或边缘点,并将角点或边缘点定位到三维点云中;通过三维点云中的三维网格确定限高装置的最低平面,通过地面拟合,对限高装置的高度进行校正,从而确定限高装置的精确高度。其通过在同一高度排列的双目相机,借助深度学习目标检测方法对限高装置进行检测,提高了检测精度,避免了视差的影响,同时也能够对限高装置的边缘信息进行采集。
-
-
-
-
-
-
-
-
-