基于对比注意力机制的中文摘要生成方法

    公开(公告)号:CN116402047A

    公开(公告)日:2023-07-07

    申请号:CN202310330003.0

    申请日:2023-03-30

    摘要: 本发明公开了基于对比注意力机制的中文摘要生成方法,包括了训练生成模型和使用生成模型两个阶段。第一个阶段包括数据的预处理,生成模型的构建,训练生成模型,获得生成模型。第二个阶段包括接收用户的数据,调用摘要生成模型生成摘要。第一阶段采用对比注意力机制训练模型,提高了模型的泛化能力和可解释性,提升了生成摘要的质量,可以用于生成多样化的摘要。第二阶段,接收用户的数据,再调用训练好的生成模型,生成可读性高的摘要。本发明可以提高摘要生成的性能,使得生成的摘要更加符合人类语言习惯,更具有可用性和实用性。

    一种基于知识提取的轻量型摘要生成方法

    公开(公告)号:CN116341541A

    公开(公告)日:2023-06-27

    申请号:CN202310330015.3

    申请日:2023-03-30

    摘要: 本发明公开了一种基于知识提取的轻量型摘要生成方法,包括文本模型的生成和文本模型的调用两个阶段。第一阶段包括文本数据的清洗与预处理;文本模型的创建;文本模型的训练与调优;文本模型的生成与获取。第二阶段包括:用户输入待生成摘要的长文本;提取用户输入长文本的特征;调用文本模型;生成用户输入的长文本的摘要。第一阶段采用机器学习的算法搭建文本模型,将提取的特征输入模型,对模型进行训练,自动优化训练参数,使模型更加准确。第二阶段,对用户输入的待生成摘要的长文本进行特征提取,调用第一阶段生成的模型,生成对应的文本摘要。本发明应用型强,应用范围广,尤其在新闻处理、文案处理等方面将会有很大的应用。

    基于音频驱动的数字人脸视频生成方法

    公开(公告)号:CN118864665A

    公开(公告)日:2024-10-29

    申请号:CN202410852086.4

    申请日:2024-06-28

    摘要: 本发明属于计算机视觉和语音处理领域,涉及了Wav2Lip模型、对抗生成网络等模型架构,具体是指一种基于音频驱动的数字人脸视频生成方法,包括优化Wav2Lip模型过程,并以优化后的Wav2Lip模型生成视频,其特征在于,优化Wav2Lip模型过程获得模型优化后的权重文件,将对使用梅尔频谱和MFCC融合的方式进行音频特征的提取,生成的视频帧不变,然后使用GAN网络学习音频‑图像对之间的映射关系,Wav2Lip模型中的生成器网络负责生成逼真的嘴唇动作,将得到的权重文件保存为最终的训练结果,作为Wav2Lip模型优化后的最终成果。该方法最终生成的视频不仅具有更高的视觉质量,也提升了用户体验,使得模型在实际应用中更具实用性和广泛的适用性。

    基于ConvNext-yolov7的建筑工地环境检测方法

    公开(公告)号:CN116342553A

    公开(公告)日:2023-06-27

    申请号:CN202310330005.X

    申请日:2023-03-30

    摘要: 本发明公开了一种基于ConvNext‑yolov7的建筑工地环境检测方法,包括如下步骤:1)采集建筑工地环境数据集:2)在YOLOv7网络中嵌入ConvNext结构,得到ConvNext‑yolov7网络模型,经过该网络模型将建筑工地中,不同特征的物体每一种的相对得分高的特征图和对应的权重打包成权重文件;3)通过权重对图像进行特征图分割,采用模糊均值聚类算法对X个特征对象生成图像特征初始聚类中心,再将初始聚类中心点传入K‑means算法,最后生成预测框;4)输出建筑工地环境检测结果。本发明方法可以识别多种不同的建筑工地内环境特征并且加以标注,修改过的网络模型提高了检测精度,相比于同类型的检测技术,其检测速度、精度均有进步,检测错误率大幅降低。