-
公开(公告)号:CN112991458B
公开(公告)日:2023-02-24
申请号:CN202110257170.8
申请日:2021-03-09
Applicant: 武汉大学
Abstract: 本发明涉及一种基于体素的快速三维建模方法及系统。通过在置物平台周围依次间隔摆放数目大于1的N个RGBD摄像机对目标物体进行拍摄,再通过设置的图像处理单元、体素裁剪单元、体素融合单元、体素填补单元、网格抽取单元和纹理生成单元。得到目标物体的逼真的三维重建模型。解决了在有限视角下对目标物体进行三维重建时信息不足的问题,同时实现了对目标物体进行快速的三维重建。既快速又准确。
-
公开(公告)号:CN112991450B
公开(公告)日:2022-11-01
申请号:CN202110321996.6
申请日:2021-03-25
Applicant: 武汉大学
Abstract: 本发明涉及一种基于视频的无监督深度估计方法,将视频中的某一帧图像输入到深度网络中得到对应的深度图,同时将该帧与相邻的一帧输入到位姿网络中得到相机位姿,同时将图像的小波分解出的高频整合到网络中增强深度细节的信息。本实施例还利用光流估计辨别并处理遮挡区域。训练阶段利用深度图和相机位姿以及原图合成目标帧,通过合成帧与原帧之间计算损失来监督网络的训练。本发明解决了目前深度估计中对于深度图的边界扭曲以及细节的丢失的问题,能很好地从单目视图中估计出对应的深度图。
-
公开(公告)号:CN113379821B
公开(公告)日:2022-10-11
申请号:CN202110695235.7
申请日:2021-06-23
Applicant: 武汉大学
Abstract: 本发明提供了一种基于深度学习稳定的单目视频深度估计方法,利用卷积神经网络强大的拟合能力,通过对大量二维RGB图片数据的学习,结合设计好的损失函数,最终学习出二维RGB图片对应的深度图。本方法完全利用单目视频序列对提出的模型进行训练,训练过程中不需要深度图或者相机位姿的GroundTruth进行监督,是一种完全无监督的方法。相比于现有的基于单目视频的深度估计,其特点是能保证在连续视频帧上估计出来的深度结果是稳定的,帧与帧之间的深度估计结果不会存在较大的不一致的现象。另外对于深度估计中的难点,运动物体的深度估计,也提出了解决的方法。
-
公开(公告)号:CN114298946B
公开(公告)日:2022-06-14
申请号:CN202210229519.1
申请日:2022-03-10
Applicant: 武汉大学
Abstract: 本发明公开了一种基于框架细节增强的深度学习点云补全方法,通过充分利用形状框架和细节之间的相互联系来更好地进行点云补全。该网络包含了一个框架‑细节Transformer模块,其中包含交叉注意力层和自注意力层,以充分探索从局部细节到全局形状的相关性,并利用它来增强整体形状框架。本发明不仅能够增强点云补全的细节和整体的准确度。
-
公开(公告)号:CN114332288A
公开(公告)日:2022-04-12
申请号:CN202210250078.3
申请日:2022-03-15
Applicant: 武汉大学
Abstract: 本发明公开了一种基于短语驱动生成对抗网络的文本生成图像的方法及网络。利用一种基于Transformer的文本编码器将输入文本编码成单词特征矩阵和句子特征向量,并得到一种基于文本相关性分析的短语特征矩阵。同时,建立了一个基于图卷积网络的文本生成图像相似度模型。该模型可以评估文本与生成的场景图像之间的细粒度短语物体相似度,并建模不同物体之间的相对位置约束。此外,通过设计的短语物体判别器来判断生成的物体的真实性,并检查短语和物体之间的一致性。实验结果表明我们所提出的方法能够比目前最先进的方法生成更好的场景图像。
-
公开(公告)号:CN113888694A
公开(公告)日:2022-01-04
申请号:CN202111050357.7
申请日:2021-09-08
Applicant: 武汉大学
Abstract: 本发明提供了一种基于SDF场可微渲染的透明物体重建的方法及系统。通过拍摄全景图和需要标定的内含透明物体的照片,利用全景图和内含透明物体照片的相机标定技术获得旋转矩阵,通过空间雕刻算法获得透明物体的初始形状。通过SDF(Signed Distance Fields)表示初始形状,提出可微的光线追踪算法渲染透明物体三维模型的在任意视角和环境图中图像,通过最小化输入图像和渲染图像的损失函数,逐渐优化透明物体的三维模型。在合成和真实数据集上验证提出的方法,结果表明此方法可以重建更准确的模型与输入图像几乎相同的外观。
-
公开(公告)号:CN112991450A
公开(公告)日:2021-06-18
申请号:CN202110321996.6
申请日:2021-03-25
Applicant: 武汉大学
Abstract: 本发明涉及一种基于视频的无监督深度估计方法,将视频中的某一帧图像输入到深度网络中得到对应的深度图,同时将该帧与相邻的一帧输入到位姿网络中得到相机位姿,同时将图像的小波分解出的高频整合到网络中增强深度细节的信息。本实施例还利用光流估计辨别并处理遮挡区域。训练阶段利用深度图和相机位姿以及原图合成目标帧,通过合成帧与原帧之间计算损失来监督网络的训练。本发明解决了目前深度估计中对于深度图的边界扭曲以及细节的丢失的问题,能很好地从单目视图中估计出对应的深度图。
-
公开(公告)号:CN119941949A
公开(公告)日:2025-05-06
申请号:CN202411951382.6
申请日:2024-12-27
Applicant: 武汉大学
Abstract: 本发明基于神经辐射场渲染和逆渲染联合优化的思想设计了一种从未知光照下捕获的多视图图像中估计人体几何、光照和材质的方法及系统,主要分为几何预训练阶段和联合优化阶段,首先对人体几何进行预训练以获得良好的初始化结果,然后估计光照和材质并对几何初始化结果进行微调。在估计材质时,本发明使用各向异性材质模型对复杂的人体材质进行建模。在估计光照时,本发明没有使用额外的训练阶段来建模间接光照,而是将间接反射点的出射辐射度视为间接光照,并估计光照可见性以区分直接光照和间接光照。本发明解决了人体复杂材质估计不准确的问题,并能有效从人体多视图图像中解耦几何、光照和材质,提升了人体重光照结果的真实感。
-
公开(公告)号:CN118570366A
公开(公告)日:2024-08-30
申请号:CN202410218674.2
申请日:2024-02-28
Applicant: 武汉大学
Abstract: 本发明涉及公开了一种基于扩散模型的单张人体图像三维重构方法及装置,包括背面图像估计和几何估计两个模块。在背面图像估计模块中,从输入图像中预测背面图像,并在预测的背面图像和输入图像之间引入了一个风格一致性约束。在几何估计模块中,提出了基于小波的条件扩散模型来估计傅里叶占有场。将傅里叶占有场转换为3D Mesh网格,根据光栅化原理将2D颜色图投影到3D Mesh生成带纹理的三维人体。该方法能够重建宽松的衣服,并在不可见区域重建更多合理的细节信息。
-
公开(公告)号:CN116554356B
公开(公告)日:2024-01-23
申请号:CN202310547760.3
申请日:2023-05-16
Applicant: 武汉大学
Abstract: 本发明公开了一种hyperIL‑15与sCD4及Fc的融合蛋白及其应用,融合蛋白具有治疗HIV或制备治疗HIV药物的应用。所述融合蛋白的hyperIL‑15由IL‑15和IL15‑Rαsushi结构域融合而成,sCD4为CD4分子胞外区D1D2结构域,Fc为免疫球蛋白的Fc区。所述融合蛋白具有激活HIV潜伏病毒库的作用,并通过sCD4靶向病毒库细胞;所述融合蛋白能增强HIV特异性CD8+T细胞和NK细胞的效应功能,从而介导对病毒库细胞的杀伤和清除;所述融合蛋白可中和HIV游离病毒进而阻断新的感染,从而使治疗艾滋病作用最大
-
-
-
-
-
-
-
-
-