-
公开(公告)号:CN119831827A
公开(公告)日:2025-04-15
申请号:CN202411878042.5
申请日:2024-12-19
Applicant: 南京理工大学
Abstract: 本发明公开了一种目标风格化图像的AI生成方法,该方法首先引入一个神经排列网络来重新排列单个风格图像的特征图,使它们适应内容图像的特征图,产生不同风格的内容;利用内容结构、风格感知和艺术美学的指标衡量风格化内容的质量;通过将创造性风格化图像与传统风格迁移方法产生的输出进行比较;从随机排列矩阵生成的不同风格化图像中抽样高质量风格化的内容;使用高质量的风格化图像来训练PerNet。该方法根据原始内容图像和风格图像转化为更加具有创造性的风格迁移结果。
-
公开(公告)号:CN117710195A
公开(公告)日:2024-03-15
申请号:CN202311715556.4
申请日:2023-12-13
Applicant: 南京理工大学
IPC: G06T3/04 , G06V10/44 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种任意分辨率的图像风格迁移方法,当输入一张内容图像和一张艺术风格图像,本方法将艺术风格图像的风格信息加到内容图像上,得到一个具有连续性的风格化的神经场函数;之后,通过输入不同密度的坐标进入该神经场函数,就可以得到不同分辨率的图像,这些图像既有内容图像的语义内容,又具有风格图像的艺术风格。本发明提出的分布式模型利用了图像像素点坐标相互之间的独立性,通过将坐标的计算分散到一组小网络中,极大提升了模型训练和推断的速度。
-
公开(公告)号:CN117197291A
公开(公告)日:2023-12-08
申请号:CN202311203159.9
申请日:2023-09-18
Applicant: 南京理工大学
IPC: G06T11/60 , G06F40/126
Abstract: 本发明公开了一种文本融合的AI生图方法,当输入两个物体的文本名称时,本方法将针对两个物体的文本编码进行融合,并将融合后的文字编码输入到文本‑图像的生成式模型中,最终输出将是两个物体融合的惊艳创意物体图像,融合生成的物体不再与原始的两个物体有相同的种类,但是其结构、材质、纹理等内容却又与两个原始物体极为相似。本发明不再立足于现实中存在的物体进行操作,而是从原始提示词作为出发点,探索未知性的文本融合的图像生成;不需要对生成模型进行额外的训练或微调,可以直接将生成式模型作为黑盒进行文本融合的图像生成。
-
公开(公告)号:CN115906662A
公开(公告)日:2023-04-04
申请号:CN202211671911.8
申请日:2022-12-23
Applicant: 南京理工大学
Abstract: 本申请提供基于CGAN模型的MEMS传感器结构确定方法,方法包括:搭建两个独立的ANN网络模型,分别为生成网络G和判别网络D;将MEMS压阻式加速度传感器数据集进行划分;将训练集数据中MEMS压阻式加速度传感器性能参数与随机噪声相结合作为生成网络G的输入,输出预测的几何结构参数,将预测的几何结构参数与生成网络的输出参数结合,用于作为判别网络D标签的输入参数;将训练集数据中MEMS压阻式加速度传感器几何结构参数与性能参数结合,作为判别网络D标签为真的输入参数;重复步骤,直到生成网络到达预期的预测能力。本申请避免了复杂的物理参数计算。
-
公开(公告)号:CN115442824A
公开(公告)日:2022-12-06
申请号:CN202210986935.6
申请日:2022-08-17
Applicant: 南京理工大学
Abstract: 本发明提出了一种基于无人机和智能反射面的隐蔽通信方法,包括:获取通信参数;计算各个信道的信道增益;计算用户的平均速率和窃听者的最佳检测错误概率;通过智能反射面相移约束、窃听者的最佳检测错误概率约束以及无人机飞行轨迹约束得到优化问题;通过逐次凸逼近交替迭代算法解决提出的优化问题,获得最优无人机轨迹和智能反射面相移;基站以最大发射功率发射,根据最优无人机轨迹和智能反射面相移,使无人机携带智能反射面按照最优飞行轨迹与用户通信。本发明采用噪声不确定模型,在窃听者已知所有用户位置的情况下,站在窃听者的角度推导出了窃听者的最优检测错误概率。
-
公开(公告)号:CN119887502A
公开(公告)日:2025-04-25
申请号:CN202510363898.7
申请日:2025-03-26
Applicant: 南京理工大学
IPC: G06T3/04 , G06N3/0455 , G06T11/60 , G06V40/16
Abstract: 本发明公开了一种基于光流引导和文本驱动的视频人像一致性编辑方法,包括:首先利用人脸关键点提取方法、深度估计方法分别提取输入视频每一帧的面部关键点和深度图,确保编辑后的人像和源图像面部表情的一致性;然后使用扩散控制网络对以人脸深度图、关键点和用户输入文本描述为条件来进行编辑生成,并通过注意力机制的潜在编码对齐和光流变化的引导,实现多视角编辑的一致性;接着,利用帧间光流变化和深度图变化构建时间一致的扩散模型。通过以上步骤,本发明解决了在视频编辑中多视角和时间一致性的问题,实现了高质量的视频人像编辑。
-
公开(公告)号:CN119831826A
公开(公告)日:2025-04-15
申请号:CN202411701484.2
申请日:2024-11-26
Applicant: 南京理工大学
IPC: G06T3/04 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于跨空间调节的文本驱动的风格迁移方法,包括:利用预训练的深度卷积神经网络VGG‑19从任意一张给定的照片中提取内容特征;利用预训练的CLIP文本编码器从任意一个给定的文本提示中提取风格特征;构造跨空间调节模块,用于弥合VGG特征空间和CLIP特征空间之间的差异;构造内容损失函数、定向CLIP损失函数、块对块CLIP损失函数以及基于CLIP的风格对比损失函数,用于约束风格迁移网络的生成过程,最终得到与目标内容和目标风格相符的艺术图像。本发明能够将文本中所描述的艺术风格迁移到日常照片上,创造出新的艺术图像,提升了艺术图像创意生成的灵活性和创新性,在文化创意、影视制作、工业设计等诸多领域有着重要的科学意义和应用价值。
-
公开(公告)号:CN119295318A
公开(公告)日:2025-01-10
申请号:CN202411399515.3
申请日:2024-10-09
Applicant: 南京理工大学
IPC: G06T3/4053 , G06T3/4046 , G06T5/80 , G06T5/60 , G06N3/042 , G06N3/0464 , G06N3/0985
Abstract: 本发明公开了一种用于数字服装仿真细节增强的动态几何超分辨率方法,以低分辨率服装仿真序列为输入,实现高分辨率、高频几何细节增强,生成褶皱细节生动细腻的高保真数字服装形变序列。该方法结合布料物理动力特征、服装与身体的相互作用信息,基于有监督的深度学习,实现在非规则网格体几何表面提取超分特征,通过超参数网络使用超分特征来构造服装动态几何细节上采样隐式函数,生成高分辨率几何细节。该方法在生成高分辨率几何细节的同时矫正低分辨率网格体几何形变,使得所生成的服装细节质量大幅提升。该发明提供了一种轻量化的、高效的服装细节增强方法,有助于将高保真服装实时仿真应用于低预算、普惠性应用场景。
-
公开(公告)号:CN114913093A
公开(公告)日:2022-08-16
申请号:CN202210565008.7
申请日:2022-05-23
Applicant: 南京理工大学
Abstract: 本发明公开了一种真实场景的AI去烟雾方法,为真实烟雾场景提供更清晰的视野,该方法利用非对齐的清晰图像设计损失函数监督训练去烟雾网络,并且重新定义了大气光的均值‑方差描述方式和传输介质图的三通道方式,提出相应的神经网络结构更好的学习大气光和传输介质图,使得重构损失函数有效地训练去烟雾网络。本发明降低了传统监督模型对数据的严格对齐需求,使得模型能够在真实场景下完成训练,避免了合成数据训练与真实数据测试的不一致性导致的不好效果;重新定义了大气光和传输介质图,使得更符合真实场景,从而提升真实场景下的去烟雾效果。
-
公开(公告)号:CN114627646A
公开(公告)日:2022-06-14
申请号:CN202210216986.0
申请日:2022-03-06
Applicant: 南京理工大学
Abstract: 本发明公开了一种基于车牌识别数据的路段交通流模式识别方法及系统,确定基础研究路段,统计每辆车的出行链;基于路段的实时流量、驶入场所的车流量、驶出场所的车流量以及区域流量,将全天划分为不同时段并构建特征数据集;利用主成分分析法对特征数据集进行降维;将降维后的数据集分别传入不同的聚类算法,利用轮廓系数和Davies‑Bouldin指数评判出最优算法、最优模式类别数,以及基础研究路段的模式识别结果;利用不同的分类学习器对已经带有标签的基础研究路段进行学习,获得最优分类器,用于新增路段的交通流模式识别。本发明通过交通流模式识别结果能够找出明显地释放或者吸引车辆的路段,这对于整体路网的交通控制都是非常有用的。
-
-
-
-
-
-
-
-
-