-
公开(公告)号:CN117390293B
公开(公告)日:2024-04-02
申请号:CN202311702623.9
申请日:2023-12-12
Applicant: 之江实验室
IPC: G06F16/9535 , G06F16/9537 , G06F16/332 , G06F16/33 , G06F16/35 , G06F40/194 , G06N3/0475 , G06N3/092 , G06Q50/18
Abstract: 本说明书公开了一种针对纠纷案件的信息推荐方法、装置、介质及设备。所述方法包括:获取用户输入的针对目标案件的查询文本,并将查询文本输入预设的信息推荐大模型;通过信息推荐大模型的分类网络,确定查询文本是否与案件的信息相关,若是,则确定查询文本的查询类型;通过信息推荐大模型的抽取网络,抽取查询文本中包含的目标案件的案件要素信息;根据案件要素信息,在预设案例库中确定出与目标案件相匹配的历史案件;通过信息推荐大模型的生成网络,根据查询类型以及处理历史案件过程中所涉及的案件处理信息,生成待推荐信息并向用户进行信息推荐。
-
公开(公告)号:CN117726429A
公开(公告)日:2024-03-19
申请号:CN202311772379.3
申请日:2023-12-21
Applicant: 之江实验室
IPC: G06Q40/03 , G06F18/213 , G06F18/24
Abstract: 本发明涉及一种信用评估模型训练方法、信用评估方法、装置及电子设备,其中,信用评估模型训练方法包括:在第一训练数据集中提取信用评分特征;在带有标签的第二训练数据集中提取应用场景特征;基于信用评估模型和应用场景模型,构建组合模型;以所述信用评分特征和所述应用场景模型为输入,以所述第二训练数据集带有的所述标签为输出,对所述组合模型进行训练;在训练好的所述组合模型中拆分出训练好的所述信用评估模型。与现有技术相比,本发明具有改善信用分实际应用价值、应用效率较高等优点。
-
公开(公告)号:CN117934149A
公开(公告)日:2024-04-26
申请号:CN202410069351.1
申请日:2024-01-17
Applicant: 之江实验室
IPC: G06Q40/03 , G06Q10/0639 , G06Q10/0635 , G06Q10/04 , G06N20/00
Abstract: 本说明书提供的一种模型训练方法、社会信用风险防控方法以及装置,首先获取样本企业的历史企业数据,根据该历史企业数据,确定预设的信用指标表中样本企业在各维度下的信用指标数据,而后,可以将信用指标数据输入到预设的信用风险预测模型中,以使信用风险预测模型确定出针对样本企业的预测社会信用风险值,并以最小化预测社会信用风险值与信用指标数据对应的样本企业的实际社会信用风险值之间的偏差为优化目标,对信用风险预测模型进行训练,训练后的信用风险预测模型用于执行社会信用风险预测业务。
-
公开(公告)号:CN117807962A
公开(公告)日:2024-04-02
申请号:CN202410236984.7
申请日:2024-03-01
Applicant: 之江实验室
IPC: G06F40/166 , G06N5/04 , G06N20/00
Abstract: 本说明书公开了一种咨政文本写作方法、装置、存储介质及电子设备。在本说明书提供的咨政文本写作方法中,获取样本咨政报告文本以及预先训练的大语言模型;将所述样本咨政报告文本作为训练样本,通过LoRA方法对所述大语言模型进行微调,得到咨政专家大模型;根据写作目标向所述咨政专家大模型输入写作指令,以使所述咨政专家大模型生成符合所述写作目标的咨政文本。
-
公开(公告)号:CN116384573A
公开(公告)日:2023-07-04
申请号:CN202310339707.4
申请日:2023-03-27
Applicant: 之江实验室
Abstract: 本发明涉及一种进入黑名单时间的预测方法、装置和可读存储介质,方法包括:获取历史企业信用记录,建立每个企业的特征向量,对已经进入黑名单的企业进行聚类;计算每个企业进入黑名单前每隔一个时间间隔的历史特征,并计算历史特征与对应的类别黑名单企业的中心向量的距离,从而根据该距离按时间间隔对企业进行排序,进而计算各类黑名单企业每隔一段时间的特征半径;获取待评估企业的特征向量,计算该特征向量与各类黑名单企业的中心向量的距离,根据该距离与对应类别黑名单企业每隔一个时间间隔的特征半径依次进行匹配,得到进入黑名单的时间。与现有技术相比,本发明实现了对不同类型的失信行为进行了自动分类并进行了统一的进入时间预测。
-
公开(公告)号:CN117807961B
公开(公告)日:2024-05-31
申请号:CN202410236982.8
申请日:2024-03-01
Applicant: 之江实验室
IPC: G06F40/166 , G06N20/00
Abstract: 本说明书公开了一种文本生成模型的训练方法、装置、介质及电子设备,包括:确定收集到的公文,针对公文包括的每个标题,确定在公文中该标题的上级标题。根据上级标题,确定该标题的提示文本,有助于文本生成模型在生成该标题下的内容时可以受到该标题的上级标题的影响。然后,将提示文本和该标题输入预先训练的初始文本生成模型,确定输出文本。确定在公文中该标题对应的文本,并作为目标文本。根据目标文本和输出文本,对初始文本生成模型进行训练,得到文本生成模型,提高文本生成模型生成的文本的准确性。
-
公开(公告)号:CN117807961A
公开(公告)日:2024-04-02
申请号:CN202410236982.8
申请日:2024-03-01
Applicant: 之江实验室
IPC: G06F40/166 , G06N20/00
Abstract: 本说明书公开了一种文本生成模型的训练方法、装置、介质及电子设备,包括:确定收集到的公文,针对公文包括的每个标题,确定在公文中该标题的上级标题。根据上级标题,确定该标题的提示文本,有助于文本生成模型在生成该标题下的内容时可以受到该标题的上级标题的影响。然后,将提示文本和该标题输入预先训练的初始文本生成模型,确定输出文本。确定在公文中该标题对应的文本,并作为目标文本。根据目标文本和输出文本,对初始文本生成模型进行训练,得到文本生成模型,提高文本生成模型生成的文本的准确性。
-
公开(公告)号:CN117390293A
公开(公告)日:2024-01-12
申请号:CN202311702623.9
申请日:2023-12-12
Applicant: 之江实验室
IPC: G06F16/9535 , G06F16/9537 , G06F16/332 , G06F16/33 , G06F16/35 , G06F40/194 , G06N3/0475 , G06N3/092 , G06Q50/18
Abstract: 本说明书公开了一种针对纠纷案件的信息推荐方法、装置、介质及设备。所述方法包括:获取用户输入的针对目标案件的查询文本,并将查询文本输入预设的信息推荐大模型;通过信息推荐大模型的分类网络,确定查询文本是否与案件的信息相关,若是,则确定查询文本的查询类型;通过信息推荐大模型的抽取网络,抽取查询文本中包含的目标案件的案件要素信息;根据案件要素信息,在预设案例库中确定出与目标案件相匹配的历史案件;通过信息推荐大模型的生成网络,根据查询类型以及处理历史案件过程中所涉及的案件处理信息,生成待推荐信息并向用户进行信息推荐。
-
公开(公告)号:CN117057694A
公开(公告)日:2023-11-14
申请号:CN202311095042.3
申请日:2023-08-28
Applicant: 之江实验室
IPC: G06Q10/083 , G06Q10/087 , G06Q10/0631
Abstract: 本申请提供一种动态调整运营决策方法、装置及电子设备,该方法将订单数据实时输入到已建立的调配决策模型中,能够在满足累积折扣奖励函数的期望值最大化的条件下,得到目标零售商在补货层的最优生产产量和在配货层的最优配送范围和线上渠道的分配库存量。可见,本申请实施例提供的技术方不再依赖确定策略来,而是在面临线上与线下需求的异质性与动态性,O2O零售商将最大化累积折扣奖励函数的期望值作为优化目标,根据已建立的调配决策模型得到的最优生产产量、最优配送范围和线上渠道的分配库存量实时制定商品补货计划,并适时调整配送范围和渠道库存分配,从而可实现基于需求和库存的动态性实现机动性调整。
-
公开(公告)号:CN116151466A
公开(公告)日:2023-05-23
申请号:CN202310204444.6
申请日:2023-03-02
Applicant: 之江实验室
IPC: G06Q10/04 , G06Q10/0635 , G06F18/214 , G06F18/24
Abstract: 本说明书公开了一种企业风险预警模型的训练方法、装置、介质及设备,包括:在训练企业风险预警模型时,将根据企业的基础数据和对企业进行监管的监管数据确定出的企业的企业数据作为训练样本,再根据失信企业名单,确定训练样本的标注。之后,先将训练样本中的基础数据输入待训练的企业风险预警模型的第一预测层,得到中间预测结果。再将中间预测结果和监管数据输入第二预测层,得到风险预测结果。以风险预测结果和训练样本的标注之间的差异最小为训练目标,对待训练的企业风险预警模型进行训练。使得训练好的企业风险预警模型对企业进行风险预警时,得到的风险预测结果更加准确,使得监管人员可以准确地对企业进行提早地干预,降低企业风险。
-
-
-
-
-
-
-
-
-