-
公开(公告)号:CN108805291B
公开(公告)日:2020-09-29
申请号:CN201710288128.6
申请日:2017-04-27
申请人: 清华大学
IPC分类号: G06N20/00
摘要: 本发明实施例提供一种网络表示学习模型的训练方法及服务器,所述方法包括:获取网络节点的文本信息和所述网络节点之间的关联信息;为每个网络节点初始化一个结构向量;根据所述网络节点的文本信息,获取每对相邻网络节点的文本向量,其中,所述每对相邻网络节点是根据所述网络节点之间的关联信息所获取的;根据所述结构向量和所述文本向量构成网络节点表示向量;将所述网络节点表示向量代入网络表示学习模型中,并对代入网络节点表示向量后的网络表示学习模型进行训练。所述服务器执行上述方法。本发明实施例提供的网络表示学习模型的训练方法及服务器,能够提高网络表示学习模型对网络节点分类和链路预测的准确性。
-
公开(公告)号:CN108073704B
公开(公告)日:2020-07-14
申请号:CN201711364040.4
申请日:2017-12-18
申请人: 清华大学
IPC分类号: G06F16/36 , G06F40/253 , G06F40/279 , G06F40/30 , G06N3/04 , G06N3/08
摘要: 本发明提供一种LIWC词表扩展方法,包括:S1,根据目标单词的义元和目标单词的第i‑1层标签,应用注意力机制构建目标单词的第i层上下文表示;S2,将所述第i‑1层标签、第i层上下文表示与循环神经网络的第i‑1层隐状态输入循环神经网络,获取第i层隐状态;S3,应用第i层隐状态获取目标单词的第i层标签;S4,重复S1至S3,逐层获取目标单词的各层标签;其中,m≥i≥1,i为整数,m为目标单词所包含的总层数。本发明提供的一种LIWC词表扩展方法,通过基于注意力机制结合义元的循环神经网络对LIWC词表进行自动扩展,避免了人工扩展导致的误差,提高了LIWC词表标注的精确性,节省了人力成本和时间成本。
-
公开(公告)号:CN109308355A
公开(公告)日:2019-02-05
申请号:CN201811083989.1
申请日:2018-09-17
申请人: 清华大学
摘要: 本发明实施例提供一种法律判决结果预测方法及装置,所述方法包括:将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;对所述第一词向量矩阵进行编码获取第一编码结果,对各所述第二词向量矩阵分别进行编码获取第二编码结果;根据所述第一编码结果、各所述第二编码结果和预先获取的各所述法律文书样本的判决结果,基于长短时记忆神经网络对所述待预测法律文书的各判决任务的判决结果进行预测;其中,所述长短时记忆神经网络根据各所述判决任务之间的依赖关系进行构建。本发明实施例提高了判决结果的准确性,具有良好的可拓展性。
-
公开(公告)号:CN107743071A
公开(公告)日:2018-02-27
申请号:CN201710354785.6
申请日:2017-05-18
申请人: 清华大学
IPC分类号: H04L12/24
摘要: 本发明实施例提供一种网络节点的增强表示方法及装置,所述方法包括:获取网络节点之间的连接关系;根据所述连接关系和已有的网络表示学习模型获取所述网络节点的表示向量;根据所述连接关系对所述网络节点的表示向量进行更新迭代计算,并用更新迭代计算后的网络节点表示矩阵增强表示所述网络节点。所述装置执行上述方法。本发明实施例提供的网络节点的增强表示方法及装置,能够用更新迭代计算后的网络节点表示矩阵表示网络节点,从而提高对网络节点的节点分类、网络节点之间链接预测的准确度。
-
公开(公告)号:CN110858269B
公开(公告)日:2022-03-08
申请号:CN201810903715.6
申请日:2018-08-09
申请人: 清华大学
IPC分类号: G06F40/289 , G06Q10/04 , G06Q50/18
摘要: 本发明实施例提供一种事实描述文本预测方法及装置,其中所述方法包括:对待预测案件的事实描述文本进行预处理,获得多个词向量;将所述多个词向量按顺序输入至事实描述文本预测网络模型中,获得所述待预测案件的事实描述文本预测结果;其中,所述事实描述文本预测网络模型是基于刑事法律文书样本集中的案情描述文本、案情所对应的实际罪名以及所述实际罪名对应的属性信息训练得到。本发明实施例通过将事实描述文本的属性信息加入至模型训练过程中,使得训练完成的事实描述文本预测模型能够有效地预测样本较少的罪名,且利用罪名属性信息能够较好地区分易混淆的事实描述文本,提高了自动罪名预测的准确性。
-
公开(公告)号:CN111325387A
公开(公告)日:2020-06-23
申请号:CN202010091848.5
申请日:2020-02-13
申请人: 清华大学 , 北京幂律智能科技有限责任公司
摘要: 本发明实施例提供一种可解释法律自动判决预测方法及装置,所述方法包括:编码步骤:获取事实编码结果;问题生成步骤:将事实编码结果和预设的问题答案集合,输入至全连接神经网络模型,输出问题编号;答案生成步骤:将分字结果和问题编号,输入至BERT-QA模型,输出问题答案;循环步骤:重复问题生成步骤和答案生成步骤,直到达到预设的重复次数,确定所有问题的答案;判决步骤:将所有问题的答案,输入至统计机器学习模型,输出判决结果。本发明实施例提供的可解释法律自动判决预测方法及装置,仿照实际审讯过程,利用人工智能进行若干轮提问和回答,并最终根据问答结果进行自动判决,实现了为自动判决的结果提供可解释性。
-
公开(公告)号:CN108805291A
公开(公告)日:2018-11-13
申请号:CN201710288128.6
申请日:2017-04-27
申请人: 清华大学
IPC分类号: G06N99/00
摘要: 本发明实施例提供一种网络表示学习模型的训练方法及服务器,所述方法包括:获取网络节点的文本信息和所述网络节点之间的关联信息;为每个网络节点初始化一个结构向量;根据所述网络节点的文本信息,获取每对相邻网络节点的文本向量,其中,所述每对相邻网络节点是根据所述网络节点之间的关联信息所获取的;根据所述结构向量和所述文本向量构成网络节点表示向量;将所述网络节点表示向量代入网络表示学习模型中,并对代入网络节点表示向量后的网络表示学习模型进行训练。所述服务器执行上述方法。本发明实施例提供的网络表示学习模型的训练方法及服务器,能够提高网络表示学习模型对网络节点分类和链路预测的准确性。
-
公开(公告)号:CN108073704A
公开(公告)日:2018-05-25
申请号:CN201711364040.4
申请日:2017-12-18
申请人: 清华大学
摘要: 本发明提供一种LIWC词表扩展方法,包括:S1,根据目标单词的义元和目标单词的第i-1层标签,应用注意力机制构建目标单词的第i层上下文表示;S2,将所述第i-1层标签、第i层上下文表示与循环神经网络的第i-1层隐状态输入循环神经网络,获取第i层隐状态;S3,应用第i层隐状态获取目标单词的第i层标签;S4,重复S1至S3,逐层获取目标单词的各层标签;其中,m≥i≥1,i为整数,m为目标单词所包含的总层数。本发明提供的一种LIWC词表扩展方法,通过基于注意力机制结合义元的循环神经网络对LIWC词表进行自动扩展,避免了人工扩展导致的误差,提高了LIWC词表标注的精确性,节省了人力成本和时间成本。
-
公开(公告)号:CN107392229A
公开(公告)日:2017-11-24
申请号:CN201710476332.0
申请日:2017-06-21
申请人: 清华大学
摘要: 本发明涉及一种面向社会关系抽取的网络表示的方法,属于机器学习及网络表示学习的技术领域,所述方法包括如下步骤:为网络节点之间的边进行关系标注;利用基于平移的网络表示学习方法学习网络节点表示及关系表示;利用学习到的网络节点的表示及关系表示对未标注的边进行关系抽取。本发明能够利用平移的思想对网络节点及它们之间的关系进行建模,在关系抽取任务上取得了显著的提升。同时,这种方法能够适用于不同类型网络的表示学习和关系抽取中,具有良好的适用范围及可扩展性。
-
公开(公告)号:CN109308355B
公开(公告)日:2020-03-13
申请号:CN201811083989.1
申请日:2018-09-17
申请人: 清华大学
IPC分类号: G06F40/284 , G06N3/04 , G06Q10/04 , G06Q50/18
摘要: 本发明实施例提供一种法律判决结果预测方法及装置,所述方法包括:将待预测法律文书中的第一事实信息转化为第一词向量矩阵,将预先获取的各法律文书样本中的第二事实信息分别转化为第二词向量矩阵;对所述第一词向量矩阵进行编码获取第一编码结果,对各所述第二词向量矩阵分别进行编码获取第二编码结果;根据所述第一编码结果、各所述第二编码结果和预先获取的各所述法律文书样本的判决结果,基于长短时记忆神经网络对所述待预测法律文书的各判决任务的判决结果进行预测;其中,所述长短时记忆神经网络根据各所述判决任务之间的依赖关系进行构建。本发明实施例提高了判决结果的准确性,具有良好的可拓展性。
-
-
-
-
-
-
-
-
-