隔离型双有源桥直流变换器的预测控制方法及其控制装置

    公开(公告)号:CN114679067A

    公开(公告)日:2022-06-28

    申请号:CN202210589936.7

    申请日:2022-05-27

    申请人: 浙江大学

    IPC分类号: H02M3/335 G05B13/04

    摘要: 本申请提供一种隔离型双有源桥直流变换器的预测控制方法,包括以下步骤:采集第k周期的输入端电压、输出端电压和负载电流,并计算第k周期的输出端电流和输出端电压差;构建数据驱动模型,包括第k周期对应的第一待定系统参数以及对应的第二待定系统参数;通过计算第k周期对应的第一待定系统参数和第二待定系统参数;预测第k+1周期对应的第一待定系统参数和第二待定系统参数;以第k周期时的移相比为中心确定移动离散控制集;采用两步预测算法,预测得到第k+2周期的输出端电压以补偿数字控制延时带来的误差;对预测的第k+2周期的输出端电压进行评价,根据评价结果选择一个待评估移相比作为最优移相比,并根据最优移相比产生控制信号。

    一种遮挡鲁棒的人脸关键点定位方法

    公开(公告)号:CN109886121B

    公开(公告)日:2021-04-06

    申请号:CN201910061018.5

    申请日:2019-01-23

    申请人: 浙江大学

    IPC分类号: G06K9/00 G06K9/62

    摘要: 本发明公开了一种遮挡鲁棒的人脸关键点定位方法,属于人脸关键点定位领域。该方法步骤如下:S1:收集经过关键点标记的人脸图像作为训练数据集和测试数据集;S2:对于S1中的训练数据集和测试数据集,首先用人脸检测算法MTCNN进行人脸检测和5点关键点定位,然后用普氏分析变换T转正人脸,获得转正后的人脸样本,形成训练样本和测试样本;将转正后的人脸样本作为S3阶段的输入;S3:通过卷积网络对S2中的训练样本进行学习;S4:卷积网络完成S3的训练后,将S2中的测试样本输入该卷积网络中,获得图像中人脸关键点的位置。本发明对遮挡情况下的人脸关键点定位具有鲁棒性,测试结果和对应图片的定性定位结果也证明了本发明方法的有效性。

    一种基于混合摄像机的室内场景定位方法

    公开(公告)号:CN104517289B

    公开(公告)日:2017-08-08

    申请号:CN201410766903.0

    申请日:2014-12-12

    申请人: 浙江大学

    IPC分类号: G06T7/50 G06T7/73

    摘要: 本发明公开了一种基于混合摄像机的室内场景定位方法,包括:(1)混合相机拍摄室内场景的深度图和彩色图;(2)追踪相机位置;(3)利用标准贪婪森林算法对拍摄的室内场景的深度图和彩色图进行训练,构建回归森林;(4)进行室内场景定位时,只需利用混合摄像机拍摄的当前帧的深度图和彩色图以及训练好的回归森林便可计算出当前摄像机对应的世界坐标,完成定位。本发明采用混合摄像机拍摄,采用回归森林算法来训练一个已知场景中的每个像素点,不需要使用稀疏特征点或者稠密特征点来进行场景定位;节省了特征点检测、描述、匹配的时间,使摄像机定位与状态无关;进而不必承受摄像机追踪的累积误差,有效提高场景定位的精度和效率。

    一种基于视觉和惯性信息的姿态与位置估计方法

    公开(公告)号:CN104501814B

    公开(公告)日:2017-05-10

    申请号:CN201410765687.8

    申请日:2014-12-12

    申请人: 浙江大学

    IPC分类号: G01C21/20

    摘要: 本发明公开了一种基于视觉和惯性信息的姿态与位置估计方法,该方法通过融合图像视觉和惯性信息,使用扩展的卡尔曼滤波器保存和更新运动状态信息,以计算得到设备当前准确的姿态和位置,并能获得一段持续时间内设备的运动轨迹。本发明能够灵活地使用图像和传感器的信息,并通过信息的相互补充达到较好的鲁棒性,不会出现追踪丢失的情况。本发明采用的扩展卡尔曼滤波器是基于迭代的形式计算的,与批计算的方法相比,它不需要所有的观测量都获得才开始计算,同时其计算量相对较小,可以适应终端设备计算资源较少的条件,能够较好地达到实时性的要求。

    一种可见光及近红外波段硅基光波导集成光电探测器

    公开(公告)号:CN106158998A

    公开(公告)日:2016-11-23

    申请号:CN201610529820.9

    申请日:2016-06-30

    申请人: 浙江大学

    发明人: 戴道锌 张明

    摘要: 本发明公开了一种可见光及近红外波段硅基光波导集成光电探测器。无源输入光波导包括第一硅衬底以及上下层叠的无源区波导下包层、芯层条形型波导和无源区波导上包层,无源区波导上包层包覆芯层条形型波导;有源光吸收区域包括第二硅衬底,上下层叠的覆于第二硅衬底上的衍射层叠结构、覆于衍射层叠结构上的金属反射镜面以及覆于衍射层叠结构两侧的第二硅衬底上的金属电极,衍射层叠结构包括有源区波导下包层、衍射光栅和有源区波导上包层。本发明仅需要简单的光波导结构,便于与其他集成光波导器件集成,有利于实现集成化、小型化、便携式、低成本的光电探测接收系统。

    一种基于视频序列背景建模的虚拟视点绘制方法

    公开(公告)号:CN101771893B

    公开(公告)日:2012-08-08

    申请号:CN201010039539.X

    申请日:2010-01-05

    申请人: 浙江大学

    IPC分类号: H04N13/00 G06T7/00

    摘要: 本发明公开了一种基于视频序列背景建模的虚拟视点绘制方法,包括如下步骤:(1)对参考视点二维视频和深度视频建立统计背景模型,得到背景二维图像和背景深度图像;(2)对每帧深度图像做中值滤波;(3)将背景深度图像和参考视点深度图像投射至视差空间,得到背景图像的视差和参考图像的视差;(4)平移背景二维图像像素,得到目标视点背景图像;(5)平移参考视点二维图像像素,得到目标视点初始图像;(6)融合目标视点初始图像和背景图像,填补空洞,得到最终目标视点图像。本发明结合视频序列时间上的相关性,提取出背景信息,将背景图像和当前参考图像同时绘制至虚拟视点,利用背景来填补空洞,提高了虚拟视点图像的质量。

    一种基于光流与图像分割的深度表示方法

    公开(公告)号:CN101765022B

    公开(公告)日:2011-08-24

    申请号:CN201010101197.X

    申请日:2010-01-22

    申请人: 浙江大学

    IPC分类号: H04N13/00

    摘要: 本发明公开了一种基于光流与图像分割的深度表示方法,包括如下步骤:(1)对原始二维视频中的每一帧图像,参考其在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图;(2)对原始二维视频中的每一帧图像进行图像分割,得到分割图;(3)结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图,用于三维视频的表达。本发明利用光流分析的方法提取二维视频中的运动信息,与窗口匹配的方法相比更精确;同时结合图像分割的方法,产生用于三维视频表达的深度图,有效地平滑了噪声,修饰了物体边缘轮廓。

    一种基于视频序列背景建模的虚拟视点绘制方法

    公开(公告)号:CN101771893A

    公开(公告)日:2010-07-07

    申请号:CN201010039539.X

    申请日:2010-01-05

    申请人: 浙江大学

    IPC分类号: H04N13/00 G06T7/00

    摘要: 本发明公开了一种基于视频序列背景建模的虚拟视点绘制方法,包括如下步骤:(1)对参考视点二维视频和深度视频建立统计背景模型,得到背景二维图像和背景深度图像;(2)对每帧深度图像做中值滤波;(3)将背景深度图像和参考视点深度图像投射至视差空间,得到背景图像的视差和参考图像的视差;(4)平移背景二维图像像素,得到目标视点背景图像;(5)平移参考视点二维图像像素,得到目标视点初始图像;(6)融合目标视点初始图像和背景图像,填补空洞,得到最终目标视点图像。本发明结合视频序列时间上的相关性,提取出背景信息,将背景图像和当前参考图像同时绘制至虚拟视点,利用背景来填补空洞,提高了虚拟视点图像的质量。

    一种基于光流与图像分割的深度表示方法

    公开(公告)号:CN101765022A

    公开(公告)日:2010-06-30

    申请号:CN201010101197.X

    申请日:2010-01-22

    申请人: 浙江大学

    IPC分类号: H04N13/00

    摘要: 本发明公开了一种基于光流与图像分割的深度表示方法,包括如下步骤:(1)对原始二维视频中的每一帧图像,参考其在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图;(2)对原始二维视频中的每一帧图像进行图像分割,得到分割图;(3)结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图,用于三维视频的表达。本发明利用光流分析的方法提取二维视频中的运动信息,与窗口匹配的方法相比更精确;同时结合图像分割的方法,产生用于三维视频表达的深度图,有效地平滑了噪声,修饰了物体边缘轮廓。