文本摘要生成方法、装置、设备和存储介质
摘要:
本申请提出一种文本摘要生成方法、装置、设备和存储介质,本申请利用被样本摘要标注的样本文本对预训练Bert模型进行模型训练,并通过抽检的方式对训练过程中的检测模型进行能力检测,以及时将训练节点从糟糕的训练节点回退至较好的历史训练节点,进而通过回退操作纠正训练方向直至训练完成。本申请有效提升Bert在摘要模型上的表现能力的同时,尽量避免Bert模型在训练微调过程中发生灾难性遗忘等其他丧失本身基本功能的问题,保证了最后得到的已训练的摘要生成模型既保留了Bert模型原本的各种强大功能,也具有较好的摘要生成功能,进而保证生成的摘要具有较高的准确性和可读性。
公开/授权文献
0/0