VIDEO PROCESSING AND ENCODING
    2.
    发明申请

    公开(公告)号:WO2018187622A1

    公开(公告)日:2018-10-11

    申请号:PCT/US2018/026327

    申请日:2018-04-05

    Inventor: RATNER, Edward

    Abstract: Embodiments of the present disclosure relate to image processing. In at least one embodiment, a video processing device comprises a processor and one or more computerreadable media having computer-executable instructions embodied thereon. When executed by the processor, the computer-executable instructions cause the processor to instantiate a plurality of components that comprise a segmenter and an object analyzer. The segmenter is configured to (1) receive video information, the video information comprising a plurality of video frames, and (2) segment at least one video frame to generate segmentation information. The object analyzer is configured to (1) receive, from the segmenter, the segmentation information, (2) identify, based on the segmentation information, the presence of at least one object in the video information, wherein the object analyzer identifies the presence of the at least one object in the video information by performing a max-flow/min-cut clustering technique.

    FUSION OF PANORAMIC BACKGROUND IMAGES USING COLOR AND DEPTH DATA
    4.
    发明申请
    FUSION OF PANORAMIC BACKGROUND IMAGES USING COLOR AND DEPTH DATA 审中-公开
    使用颜色和深度数据融合全景背景图像

    公开(公告)号:WO2017078847A1

    公开(公告)日:2017-05-11

    申请号:PCT/US2016/051008

    申请日:2016-09-09

    Abstract: Techniques are provided for fusion of image frames to generate panoramic background images using color and depth data provided from a 3D camera. An example system may include a partitioning circuit configured to partition an image frame into segments and objects, the segments comprising a group of pixels sharing common features associated with the color and depth data, the objects comprising one or more related segments. The system may also include an object consistency circuit configured to assign either 2D or 3D transformation types to each of the segments and objects to transform them to a co-ordinate system of a reference image frame. The system may further include a segment recombination circuit to combine the transformed objects and segments into a transformed image frame and an integration circuit to integrate the transformed image frame with the reference image frame to generate the panoramic image.

    Abstract translation: 提供了用于使用3D相机提供的颜色和深度数据来融合图像帧以生成全景背景图像的技术。 示例系统可以包括配置成将图像帧分割成片段和对象的分割电路,所述片段包括与颜色和深度数据相关联的共享共同特征的一组像素,所述对象包括一个或多个相关片段。 该系统还可以包括对象一致性电路,该对象一致性电路被配置成将2D或3D变换类型分配给每个段和对象以将它们变换为参考图像帧的坐标系统。 该系统还可以包括分段重组电路,用于将变换的对象和分段组合成变换的图像帧和积分电路,以将变换的图像帧与参考图像帧合并以产生全景图像。

    AUTOMATED GENERATION OF PANNING SHOTS
    5.
    发明申请
    AUTOMATED GENERATION OF PANNING SHOTS 审中-公开
    自动生成舞台

    公开(公告)号:WO2016164166A1

    公开(公告)日:2016-10-13

    申请号:PCT/US2016/023581

    申请日:2016-03-22

    Abstract: Generally described, aspects of the present disclosure relate to generation of an image representing a panned shot of an object by an image capture device. In one embodiment, a panned shot may be performed on a series of images of a scene. The series of images may include at least subject object moving within the scene. Motion data of the subject object may be captured by comparing the subject object in a second image of the series of images to the subject object in a first image of the series of images. A background image is generated by implementing a blur process using the first image and the second image based on the motion data. A final image is generated by including the image of the subject object in the background image.

    Abstract translation: 一般地描述,本公开的方面涉及通过图像捕获装置生成表示对象的平移拍摄的图像。 在一个实施例中,可以对场景的一系列图像执行平移拍摄。 该系列图像可以至少包括在场景内移动的被摄物体。 可以通过将一系列图像的第二图像中的被摄体对象与该系列图像的第一图像中的被摄对象进行比较来捕获被摄体的运动数据。 通过基于运动数据实现使用第一图像和第二图像的模糊处理来生成背景图像。 通过将主体对象的图像包括在背景图像中来生成最终图像。

    画像処理装置
    7.
    发明申请
    画像処理装置 审中-公开
    图像处理装置

    公开(公告)号:WO2016135777A1

    公开(公告)日:2016-09-01

    申请号:PCT/JP2015/000999

    申请日:2015-02-26

    Inventor: 西辻 崇

    Abstract:  画像の符号化過程で算出される動きベクトルを活用したエッジ検出の実現を目的とする画像処理装置を得るため、符号化画像信号に含まれる動きベクトルからフレーム間の動きに関する情報をマクロブロックごとに計算する動きベクトル処理部と、このうち予め定められた情報を持つ動きベクトルを通過する動きベクトルフィルタと、動きベクトル処理部に入力される符号化画像信号のフレーム数のカウント数が予め定められたフレーム数に達したとき、カウント終了信号を出力するフレームカウンタと、動きベクトルフィルタで通過した動きベクトルの頻度を、予め定められたフレーム数にわたってマクロブロックごとに積算する頻度カウンタと、カウント終了信号を受信したとき、頻度カウンタでマクロブロックごとに積算された頻度が閾値を超えているか否かを判定し、超えていた場合に当該マクロブロックをエッジと判断するエッジ判定器と、を備えた。

    Abstract translation: 一种图像处理装置,其目的是利用在图像编码处理中计算出的运动矢量来实现边缘检测,包括:运动矢量处理单元,针对多个宏块中的每一个,计算与帧之间的运动有关的信息, 编码图像信号中包含的运动矢量; 运动矢量滤波器,其通过具有预定信息的那些运动矢量; 当输入到运动矢量处理单元的编码图像信号的帧数计算达到预定帧数时,输出计数终止信号的帧计数器; 频率计数器,对于预定数量的帧上的每个宏块,对通过运动矢量滤波器的运动矢量的频率进行积分; 以及边缘确定器,其在接收到所述计数结束信号时确定每个宏块的频率计数器积分的频率是否超过阈值,并且如果所述宏块的积分频率超过所述宏块的频率超过阈值则确定宏块是边缘 阈值。

    MOVING OBJECT DETECTION IN VIDEOS
    8.
    发明申请
    MOVING OBJECT DETECTION IN VIDEOS 审中-公开
    在视频中移动物体检测

    公开(公告)号:WO2016106595A1

    公开(公告)日:2016-07-07

    申请号:PCT/CN2014/095643

    申请日:2014-12-30

    Inventor: LI, Xiaoli

    Abstract: The present disclosure relates to moving object detection in videos. In one embodiment, a plurality of frames in a video are transformed to a high dimensional image space in a non-linear way. Then the background of the plurality of frames can be modeled in the high dimensional image space. The foreground or moving object can be detected in the plurality of frames based on the modeling of the background in the high dimensional image space. By use of the non-linear model which is more powerful for describing complex factors such as changing background, changing background, illumination variation, camera motion, noise and the like, embodiments of the present invention is more robust and accurate to detect moving objects under the complex situations.

    Abstract translation: 本公开涉及视频中的移动物体检测。 在一个实施例中,将视频中的多个帧以非线性方式转换为高维度图像空间。 然后可以在高维图像空间中建模多个帧的背景。 可以基于高维图像空间中的背景的建模,在多个帧中检测前景或移动对象。 通过使用更强大的用于描述背景变化,背景变化,照明变化,相机运动,噪声等复杂因素的非线性模型,本发明的实施例更加鲁棒和准确地检测下面的移动物体 复杂的情况。

    TEMPORAL SALIENCY MAP
    9.
    发明申请
    TEMPORAL SALIENCY MAP 审中-公开
    时间平均图

    公开(公告)号:WO2016029395A1

    公开(公告)日:2016-03-03

    申请号:PCT/CN2014/085366

    申请日:2014-08-28

    Abstract: A method of generating a temporal saliency map is disclosed. In a particular embodiment, the method includes receiving an object bounding box from an object tracker. The method includes cropping a video frame based at least in part on the object bounding box to generate a cropped image. The method further includes performing spatial dual segmentation on the cropped image to generate an initial mask and performing temporal mask refinement on the initial mask to generate a refined mask. The method also includes generating a temporal saliency map based at least in part on the refined mask.

    Abstract translation: 公开了一种产生时间显着图的方法。 在特定实施例中,该方法包括从对象跟踪器接收对象边界框。 该方法包括至少部分地基于对象边界框裁剪视频帧以生成裁剪的图像。 该方法还包括对裁剪的图像执行空间双分割以生成初始掩码,并对初始掩码执行时间掩模细化以生成精细掩模。 该方法还包括至少部分地基于精细掩模生成时间显着图。

    車載用表示装置、車載用表示装置の制御方法、プログラム
    10.
    发明申请
    車載用表示装置、車載用表示装置の制御方法、プログラム 审中-公开
    车载显示设备,车载显示设备控制方法和程序

    公开(公告)号:WO2015174093A1

    公开(公告)日:2015-11-19

    申请号:PCT/JP2015/002445

    申请日:2015-05-14

    Inventor: 仲井 渉

    Abstract:  車載用表示装置は、画像取得部と、位置予測部と、画像変換部とを有する。画像取得部は、自車両に設置したカメラから自車両の周囲に存在する物体を撮像した画像を取得する。位置予測部は、画像取得部が取得した画像と、その撮像時刻に基づき、時刻T1における自車両に対する上記物体の第1位置関係を算出するとともに、時刻T1より後の時刻T2における自車両と上記物体との第2位置関係を算出する。そして、第1位置関係と第2位置関係とから、時刻T2より後の時刻T3における自車両と物体との第3位置関係を予測する。画像変換部は、自車両と上記物体との位置関係が、位置予測部が予測した第3位置関係となるように画像取得部が取得した画像を変換する。

    Abstract translation: 该车载显示装置包括图像获取单元,位置预测单元和图像转换单元。 图像获取单元获取从安装在车辆周边的物体的车辆的照相机拍摄的图像。 位置预测单元基于从图像获取单元获取的图像及其捕获时间,导出对象在时间(T1)的车辆的第一位置关系,以及第二位置关系 在时间(T1)之后的时间(T2)对车辆。 根据第一位置关系和第二位置关系来预测在时间(T2)之后的时间(T3)的对象和车辆的第三位置关系。 图像转换单元转换由图像获取单元获取的图像,使得车辆和对象的位置关系是由位置预测单元预测的第三位置关系。

Patent Agency Ranking