面向医疗领域的跨表数据生成方法

    公开(公告)号:CN117727413A

    公开(公告)日:2024-03-19

    申请号:CN202311856146.1

    申请日:2023-12-29

    Applicant: 复旦大学

    Abstract: 本发明提供了一种面向医疗领域的跨表数据生成方法,具有这样的特征,包括以下步骤:步骤S1,根据现有的非结构化的包含少量文档的医学数据集构建结构化的包含大量数据的合成医学数据集;步骤S2,根据合成医学数据集对现有的医学大语言模型依次进行联邦学习和特定训练,得到特定医学大语言模型;步骤S3,将目标疾病基础信息输入特定医学大语言模型,得到目标疾病生化指标。总之,本方法能够对跨表的目标疾病基础信息进行有效处理,生成与真实特征相一致的目标疾病生化指标。

    大语言模型高语境共情增强回复生成方法及装置

    公开(公告)号:CN117668201A

    公开(公告)日:2024-03-08

    申请号:CN202311856151.2

    申请日:2023-12-29

    Applicant: 复旦大学

    Abstract: 本发明提供了一种大语言模型高语境共情增强回复生成方法及装置,具有这样的特征,包括以下步骤:步骤S1,根据现有的共情对话数据构建共情对话数据集,共情对话数据集包括不同难易度的多个任务子集;步骤S2,根据共情对话数据集对现有的大语言模型进行训练,得到共情回复模型和强化学习模型;步骤S3,将指定对话输入共情回复模型,得到初始回复;步骤S4,将初始回复输入强化学习模型,得到共情回复。总之,本方法能够在高语境文化中生成更符合情感、角色和性格的共情回复。

    大型语言模型答案幻觉减少的方法

    公开(公告)号:CN119338006A

    公开(公告)日:2025-01-21

    申请号:CN202411469124.4

    申请日:2024-10-21

    Applicant: 复旦大学

    Abstract: 本发明提供了一种大型语言模型答案幻觉减少的方法,具有这样的特征,包括步骤S1,根据现有数据构建包含多个幻觉类别的幻觉评估数据集;步骤S2,根据幻觉评估数据集对大语言模型的隐藏层和注意力头的输出进行分析,得到大语言模型对各个幻觉类别具有异常响应的隐藏层和注意力头,以及各个幻觉类别对应的高贡献词;步骤S3,将指定问题输入大语言模型,得到该大语言模型对该指定问题的答案选择概率以及该大语言模型的中间生成数据;步骤S4,根据高贡献词、中间生成数据、答案选择概率,结合具有异常响应的隐藏层和注意力头,通过选择函数计算得到答案选择概率对应的调整后概率。总之,本方法能够减少大语言模型生成幻觉。

    大语言模型不完全信息下的问题处理能力的评测装置

    公开(公告)号:CN118689981A

    公开(公告)日:2024-09-24

    申请号:CN202410780036.X

    申请日:2024-06-17

    Applicant: 复旦大学

    Abstract: 本发明提供了一种大语言模型不完全信息下的问题处理能力的评测装置,具有这样的特征,包括评测实体生成模块用于根据现有的实体猜测数据,生成层次概念列表和相似实体;简单难度猜测模块用于根据实体及其对应的底层概念,得到对应的简单难度猜测结果和简单难度猜测轮数;普通难度猜测模块用于根据实体及其对应的中间层概念,得到对应的普通难度猜测结果和普通难度猜测轮数;困难难度猜测模块用于根据实体及其对应的底层概念和相似实体,得到对应的困难难度猜测结果、困难难度猜测轮数和问答记录;分析计算模块用于计算得到不完全信息下的问题处理能力结果。总之,本装置能够客观准确地评估大语言模型多个方面的不完全信息下的问题处理能力。

    机器高阶认知的预训练语言模型幽默回复能力增强方法

    公开(公告)号:CN117744626A

    公开(公告)日:2024-03-22

    申请号:CN202311195450.6

    申请日:2023-09-17

    Applicant: 复旦大学

    Abstract: 本发明属于机器高阶认知技术领域,具体为机器高阶认知的预训练语言模型幽默回复能力增强方法。本发明方法包括:建立常规文本和幽默文本之间的联系,包括构建一个由若干条上文‑幽默回复组成的可解释数据集,每一个上文‑幽默回复对都有一个幽默链和幽默思维导图,展示生成幽默回复需要的知识和逻辑推理过程;评估和提高预训练语言模型的幽默回复能力,包括设计幽默情感风格分类任务和幽默改写任务,作为以多任务训练的方式辅助幽默回复;设计编码器‑解码器框架,将幽默链和幽默思维导图注入预训练语言模型中,并基于多任务学习的方式利用两个辅助任务增强预训练语言模型的幽默回复能力。本发明可大大增强预训练语言模型的幽默回复能力。

    非线性推理任务的解决方案生成方法及装置

    公开(公告)号:CN117709469A

    公开(公告)日:2024-03-15

    申请号:CN202311856150.8

    申请日:2023-12-29

    Applicant: 复旦大学

    Abstract: 本发明提供了一种非线性推理任务的解决方案生成方法及装置,具有这样的特征,包括提问模块用于根据指定横向谜题、历史问题‑答案序列和上一轮线索生成模块生成的线索,生成对应的问题,回答模块用于根据本轮问题生成对应的回答,并将回答与对应的问题加入历史问题‑答案序列作为下一轮历史问题‑答案序列,线索生成模块用于连续多轮对应的回答均非“是”时,生成线索作为下一轮提问模块的输入,分数计算模块用于对本轮的问题和指定横向谜题进行重叠分数计算,得到重叠分数,判断模块用于判断重叠分数是否大于预设阈值,若是,则将问题作为解决方案,若否,则将问题输入回答模块。总之,本方法能够根据问题生成较好的基于横向思维的解决方案。

    面向医疗对话的时间感知增强回复生成方法及装置

    公开(公告)号:CN117708301A

    公开(公告)日:2024-03-15

    申请号:CN202311856149.5

    申请日:2023-12-29

    Applicant: 复旦大学

    Abstract: 本发明提供了一种面向医疗对话的时间感知增强回复生成方法及装置,具有这样的特征,包括步骤S1,根据现有的医疗数据构建时间感知多轮对话数据集;步骤S2,根据时间感知多轮对话数据集对现有的医疗大型语言模型进行训练,得到医疗对话模型;步骤S3,对对话序列进行编码,得到编码状态表示;步骤S4,对历史对话进行编码,得到编码记忆向量;步骤S5,将编码状态表示和编码记忆向量进行结合,得到融合状态表示;步骤S6,根据时间注意力机制对融合状态表示进行增强,得到增强状态表示;步骤S7,将当前提问和增强状态表示输入医疗对话模型,得到医疗对话回复。总之,本方法能够处理与时间相关的医疗对话并生成具有时间感知的回复。

    大规模语言模型生成答案可靠性检测方法

    公开(公告)号:CN117390409A

    公开(公告)日:2024-01-12

    申请号:CN202311195452.5

    申请日:2023-09-17

    Applicant: 复旦大学

    Abstract: 本发明属于大规模语言模型技术领域,具体为一种大规模语言模型生成答案可靠性检测方法。本发明通过构建一个鲁棒的判别器RelD来检测大规模语言模型生成答案的可靠性,包括构建训练数据集RelQA,该数据集包括现有多个数据集的问题、上下文和大规模语言模型生成的答案以及多种评估指标;将RelQA作为输入,结合预训练语言模型,使用加权平均概率方法拟合生成答案的人工标注,来训练判别器RelD;判别器RelD对大规模语言模型生成的答案进行二分类,以此判断生成的答案的可靠性。本发明能够提供更全面、准确的评估结果,更好地反映出生成答案的质量;可以适用于不同的大型语言模型和应用场景,具有较强的可扩展性。

Patent Agency Ranking