AUTHENTICATING USER BY CORRELATING SPEECH AND CORRESPONDING LIP SHAPE
    81.
    发明申请
    AUTHENTICATING USER BY CORRELATING SPEECH AND CORRESPONDING LIP SHAPE 审中-公开
    通过相关语音和相关的LIP形状来认证用户

    公开(公告)号:WO2014207752A1

    公开(公告)日:2014-12-31

    申请号:PCT/IN2013/000397

    申请日:2013-06-27

    Abstract: Provided is a method of authenticating a user by correlating speech and corresponding lip shape. An audiovisual of a user requesting authentication is captured. The audiovisual is processed to generate a speech vector quantization sequence and a corresponding lip vector quantization sequence of the user. A likelihood of the speech vector quantization sequence and the corresponding lip vector quantization sequence with probability distributions of speech vector quantization code words corresponding to different lip shape vector quantization code words of the user requesting authentication weighed by probabilities of speech and lip vector quantization indices of the user requesting authentication is evaluated. If upon evaluation, a likelihood of the user requesting authentication being an authentic user is more than a predefined threshold, the user is authenticated.

    Abstract translation: 提供了通过将语音和对应的唇形状相关联来认证用户的方法。 捕获请求认证的用户的视听。 视听被处理以产生用户的语音矢量量化序列和相应的唇矢量量化序列。 语音矢量量化序列的可能性和对应于用户请求认证的不同唇形矢量量化码字的语音矢量量化码字的概率分布的相应唇矢量量化序列被语音和嘴唇矢量量化索引的概率加权 评估用户请求认证。 如果在评估时,用户请求认证是可信用户的可能性大于预定阈值,则认证用户。

    MULTIMODAL SEGMENTATION IN INTRAVASCULAR IMAGES
    82.
    发明申请
    MULTIMODAL SEGMENTATION IN INTRAVASCULAR IMAGES 审中-公开
    血管内皮细胞多形态分型

    公开(公告)号:WO2014138555A1

    公开(公告)日:2014-09-12

    申请号:PCT/US2014/021659

    申请日:2014-03-07

    Inventor: STURM, Bernhard

    Abstract: The invention provides methods for detecting features of interest in cardiovascular images by receiving information from a first modality and transforming information from the first modality into a first coordinate space, receiving information from a second modality and transforming information from the second modality into a second coordinate space. The first coordinate space is aligned to the second coordinate space to combine information from the first modality and the second modality into a combined data set. The method can also involve detecting the feature of interest in a vascular image based on the combined data set.

    Abstract translation: 本发明提供了通过从第一模态接收信息并将信息从第一模态转换成第一坐标空间来检测心血管图像中感兴趣特征的方法,从第二模态接收信息并将信息从第二模态变换为第二坐标空间 。 第一坐标空间与第二坐标空间对准,以将来自第一模态和第二模态的信息组合成组合数据集。 该方法还可以涉及基于组合的数据集检测血管图像中的感兴趣特征。

    PROCEDE DE CLASSIFICATION D'UN OBJET MULTIMODAL
    83.
    发明申请
    PROCEDE DE CLASSIFICATION D'UN OBJET MULTIMODAL 审中-公开
    分类多目标对象的方法

    公开(公告)号:WO2014056819A1

    公开(公告)日:2014-04-17

    申请号:PCT/EP2013/070776

    申请日:2013-10-07

    Abstract: Procédé de classification d'un objet de test multimodal décrit selon au moins une première et une deuxième modalités, comprenant une étape de construction hors-ligne par classification d'un dictionnaire multimédia (W m ), défini par une pluralité K m de mots multimédia, à partir d'une matrice de recodage (X) des représentants de la première modalité formant un dictionnaire de la première modalité comprenant une pluralité K T de mots de la première modalité, la matrice de recodage (X) étant construite de manière à exprimer la fréquence de chaque mot de la deuxième modalité d'un dictionnaire de la deuxième modalité comprenant une pluralité K V de mots de la deuxième modalité, pour chaque mot de la première modalité, la classification d'un objet multimodal de test (133, 533) étant réalisée en ligne au moyen d'une étape de recodage (413) de chaque représentant de la première modalité relatif à l'objet multimédia considéré sur la base du dictionnaire multimédia (W m ), suivie d'une étape d'agrégation (415) des représentants de la première modalité codés à l'étape de recodage en un unique vecteur (BoMW) représentatif de l'objet multimodal considéré.

    Abstract translation: 根据至少一个第一和第二模式描述的对多模态测试对象进行分类的方法,包括基于由多个多媒体单词定义的多媒体词典(Wm)的分类来离线构建的步骤,基于 用于对形成第一模态的字典的第一模态的代表进行重新编码的再编码矩阵(X),包括第一模态的多个KT个字,所述记录矩阵(X)以表示频率 第二模式的字典的第二模式的每个单词包括第二模式的单词的多个KV,对于第一模态的每个单词,通过装置在线执行的多模态测试对象(133,533)的分类 重新编码与基于多媒体词典(Wm)所考虑的多媒体对象相关的第一模态的每个代表的步骤(413),随后是聚合步骤 将在编码步骤中编码的第一模态的代表转换为考虑的多模态对象的单个向量(BoMW)代表。

    METHOD AND SYSTEM FOR THE AUTOMATIC ANALYSIS OF AN IMAGE OF A BIOLOGICAL SAMPLE
    84.
    发明申请
    METHOD AND SYSTEM FOR THE AUTOMATIC ANALYSIS OF AN IMAGE OF A BIOLOGICAL SAMPLE 审中-公开
    用于生物样本图像自动分析的方法和系统

    公开(公告)号:WO2013037983A1

    公开(公告)日:2013-03-21

    申请号:PCT/EP2012/068176

    申请日:2012-09-14

    Abstract: Method for the automatic analysis of an image (1, 11, 12, 13) of a biological sample with respect to a pathological relevance, wherein fj local features of the image (1, 1.1, 12, 13) are aggregated to a global feature of the image (1, 11, 12, 13) using a bag of visual word approach, g) step a) is repeated at least two times using different methods resulting in at least two bag of word feature datasets,, h) computation of at least two similarity measures using the bag of word features obtained from a training image dataset and bag of word features from the image (1, 1 1, 1 2, 13) i) the image training dataset comprising a set of visual words, classifier parameters, including kernel weights and bag of word features from the training images, j) the computation of the at least two similarity measures is subject: to an adaptive computation of kernel normalization parameters and / or kernel width parameters, f) for each image (1, 11, 12, 13) one score is computed depending on the classifier parameters and kernel weights and the at least two similarity measures, the at least one score being a measure of the certainty of one pathological category compared to the image training dataset, g) for each pixel of the image (1, 11, 12, 13) a pixel-wise score is computed using the classifier parameters, the kernel weights, the at least two similarity measures, the bag of word features of the image (1, 11, 12, 13), all the local features used in the computation of the bag of word features of the image (1, 11, 12, 13) and the pixels used in the computations of the local features, h) the pixel-wise score is stored as a heatmap dataset linking the pixels of the image (1, 11, 12, 13) to the pixel-wise scores.

    Abstract translation: 用于自动分析生物样品相对于病理相关性的图像(1,11,12,13)的方法,其中fj图像(1,1,1,12,13)的局部特征被聚合到全局特征 的图像(1,11,12,13),使用视觉词方法袋,g)步骤a)使用不同的方法重复至少两次,得到至少两个单词特征数据集,h)计算 使用从训练图像数据集获得的单词特征袋和来自图像(1,1,1,2,13)的单词特征的袋子的至少两个相似性度量i)图像训练数据集包括一组视觉词,分类器 参数,包括来自训练图像的核心权重和单词特征的包,j)至少两个相似性度量的计算是对于内核归一化参数和/或内核宽度参数的自适应计算,f)对于每个图像( 1,11,12,13)根据分类器计算一个分数 参数和核权重以及至少两个相似性度量,所述至少一个得分是与图像训练数据集相比的一个病理类别的确定性的量度,g)对于图像的每个像素(1,11,12,13 )使用分类器参数,核权重,至少两个相似性度量,图像的词特征包(1,11,12,13),计算中使用的所有局部特征来计算像素平分 图像(1,11,12,13)的单词特征袋和用于局部特征的计算中使用的像素的袋子,h)像素级得分被存储为连接图像的像素的热图数据集( 1,11,12,13)的像素点分数。

    生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム
    86.
    发明申请
    生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム 审中-公开
    生物加工设备,生物加工处理方法和生物加工计算机程序

    公开(公告)号:WO2011042950A1

    公开(公告)日:2011-04-14

    申请号:PCT/JP2009/067361

    申请日:2009-10-05

    Abstract:  生体情報処理装置は、利用者の生体情報を取得して、その生体情報を表す入力生体データを生成する生体情報取得部と、処理部とを有する。その処理部は、入力生体データに表された入力生体情報から、生体情報の特徴を表す特徴量を抽出する特徴量抽出機能と、抽出された特徴量に基づいて、入力生体データに表された入力生体情報を、同じ特徴を持つ生体情報ごとにカテゴライズされた複数のクラスのうちの少なくとも一つに分類し、かつ、入力生体情報が分類されたクラスに対する信頼度を算出する分類機能と、信頼度のうちの最大値が、複数のクラスのうちの信頼度の最大値に対応するクラスに設定された閾値よりも高いか否か判定する良否判定機能と、信頼度の最大値が閾値以下である場合、生体情報取得部に利用者の生体情報を再取得させることを利用者に促すガイダンス機能とを実現する。

    Abstract translation: 生物信息处理装置包括生物信息获取单元,其获取用户的生物信息并生成表示所述生物信息的输入生物数据,以及处理单元。 处理单元实施特征量提取功能,其从输入生物数据中表示的输入生物信息中提取表示生物信息特征的特征量,将在输入生物数据中表示的输入生物信息分类为分类的多个类别中的至少一个的分类函数 通过基于所提取的特征量具有相同特征的生物信息,并且计算关于分类类别的输入生物信息的可靠度,接受/拒绝决定功能,其确定可靠度中的最大值是否高于 为多个等级中建立的对应于最大可靠性值的类建立的阈值,以及当最大可靠性值为最大可靠性值时提示用户重新获得与生物信息获取单元的生物信息的引导功能 小于阈值。

    AUTOMATED MEASUREMENT OF BRAIN INJURY INDICES USING BRAIN CT IMAGES, INJURY DATA, AND MACHINE LEARNING
    88.
    发明申请
    AUTOMATED MEASUREMENT OF BRAIN INJURY INDICES USING BRAIN CT IMAGES, INJURY DATA, AND MACHINE LEARNING 审中-公开
    使用脑CT图像,伤害数据和机器学习自动测量脑损伤指标

    公开(公告)号:WO2010117573A3

    公开(公告)日:2011-01-13

    申请号:PCT/US2010027584

    申请日:2010-03-17

    Abstract: A decision-support system and computer implemented method automatically measures fee midline shift in a patient's brain using Computed Tomography (CT) images. The decision-support system and computer implemented method applies machine learning methods to features extracted from multiple sources, including midline shift, blood amount, texture pattern and other injury data, to provide a physician an estimate of intracranial pressure (ICP) levels. A hierarchical segmentation method, based on Gaussian Mixture Mode! (GMM), is used. In this approach, first an Magnetic Resonance Image (MRl) ventricle template, as prior knowledge, is used to estimate the region for each ventricle. Then, by matching the ventricle shape in CT images to fee MRl ventricle template set, the corresponding MRl slice is selected. Prom the shape matching result, the feature points for midline estimation in CT slices, such as the center edge points of the lateral ventricles, are detected. The amount of shift, along with other information such as brain tissue texture features, volume of blood accumulated in the brain, patient demographics, injury information, and features extracted from physiological signals, are used to train a machine learning method to predict a variety of important clinical factors, such as intracranial pressure (ICP), likelihood of success a particular treatment, and the need and/or dosage of particular drugs.

    Abstract translation: 决策支持系统和计算机实现的方法使用计算机断层扫描(CT)图像自动测量患者大脑中的费用中线位移。 决策支持系统和计算机实现方法将机器学习方法应用于从多个来源提取的特征,包括中线移位,血量,纹理模式和其他伤害数据,为医师提供颅内压(ICP)水平的估计。 基于高斯混合模式的分层分割方法! (GMM)。 在这种方法中,首先使用磁共振图像(MRI)心室模板作为现有知识来估计每个心室的区域。 然后,通过将CT图像中的心室形状与MR1心室模板集合进行匹配,选择相应的MR1切片。 调整形状匹配结果,检测CT切片中线估计的特征点,如侧脑室的中心边缘点。 移动量与脑组织纹理特征,脑中蓄积的血量,患者人口统计学,损伤信息以及从生理信号中提取的特征等其他信息一起用于训练机器学习方法,以预测各种 重要的临床因素,如颅内压(ICP),特定治疗成功的可能性,以及特定药物的需要和/或剂量。

    ROBUST BIOMETRIC FEATURE EXTRACTION WITH AND WITHOUT REFERENCE POINT
    89.
    发明申请
    ROBUST BIOMETRIC FEATURE EXTRACTION WITH AND WITHOUT REFERENCE POINT 审中-公开
    具有和没有参考点的稳定的生物特征提取

    公开(公告)号:WO2010150146A2

    公开(公告)日:2010-12-29

    申请号:PCT/IB2010052724

    申请日:2010-06-17

    Abstract: A basic idea of the present invention is to selectively employ one of at least two different feature extraction processes when generating a biometric template of an individual. An individual offers a physiological property, such as a fingerprint, an iris, an ear, a face, etc., from which biometric data can be derived, to a sensor of an enrolment authority. In the following, the property to be discussed will be fingerprints, even though any suitable biometric property may be used. From the fingerprint, a positional reference point of the biometric data is derived. The derivation of the positional reference point may be accomplished using any appropriate method out of a number of known methods. Such a reference point could be the location of a core, a delta, a weighted average of minutiae coordinates, or alike. Typically, the reference point includes a core of a fingerprint expressed as a three-dimensional coordinate denoted by means of xr, yr, and angle ar. A contribution indicator is calculated for the derived positional reference point, and it is determined whether the derived positional reference point can be considered reliable. Depending on the reliability of the derived reference point, one of the two different feature extraction processes is selected; either the first feature set is extracted using a method which is invariant of the derived reference point, or a method is used taking into account the derived reference point. The better the estimation of the reference point is, the more reliable the reference point- dependent extraction method is. Finally, the biometric template is generated using the extracted first feature set.

    Abstract translation: 本发明的基本思想是当生成个体的生物特征模板时,选择性地采用至少两种不同的特征提取过程中的一种。 个体向生物特征提供生物特征,例如指纹,虹膜,耳朵,面部等,从中可以将生物特征数据导出到注册机构的传感器。 在下文中,要讨论的属性将是指纹,即使可以使用任何合适的生物特征属性。 从指纹,导出生物特征数据的位置参考点。 可以使用多种已知方法中的任何适当的方法来实现位置参考点的推导。 这样的参考点可以是核心的位置,三角形,细节坐标的加权平均值,或类似的。 通常,参考点包括表示为由xr,yr和角度ar表示的三维坐标的指纹核心。 针对导出的位置参考点计算贡献指标,并且确定导出的位置参考点是否可以被认为是可靠的。 根据导出的参考点的可靠性,选择两个不同特征提取过程之一; 使用导出的参考点不变的方法提取第一特征集,或者使用考虑到导出的参考点的方法。 参考点的估计越好,参考点相关提取方法越可靠。 最后,使用提取的第一特征集生成生物特征模板。

    AUTOMATED MEASUREMENT OF BRAIN INJURY INDICES USING BRAIN CT IMAGES, INJURY DATA, AND MACHINE LEARNING
    90.
    发明申请
    AUTOMATED MEASUREMENT OF BRAIN INJURY INDICES USING BRAIN CT IMAGES, INJURY DATA, AND MACHINE LEARNING 审中-公开
    使用脑CT图像,伤害数据和机器学习自动测量脑损伤指标

    公开(公告)号:WO2010117573A2

    公开(公告)日:2010-10-14

    申请号:PCT/US2010/027584

    申请日:2010-03-17

    Abstract: A decision-support system and computer implemented method automatically measures fee midline shift in a patient's brain using Computed Tomography (CT) images. The decision-support system and computer implemented method applies machine learning methods to features extracted from multiple sources, including midline shift, blood amount, texture pattern and other injury data, to provide a physician an estimate of intracranial pressure (ICP) levels. A hierarchical segmentation method, based on Gaussian Mixture Mode! (GMM), is used. In this approach, first an Magnetic Resonance Image (MRl) ventricle template, as prior knowledge, is used to estimate the region for each ventricle. Then, by matching the ventricle shape in CT images to fee MRl ventricle template set, the corresponding MRl slice is selected. Prom the shape matching result, the feature points for midline estimation in CT slices, such as the center edge points of the lateral ventricles, are detected. The amount of shift, along with other information such as brain tissue texture features, volume of blood accumulated in the brain, patient demographics, injury information, and features extracted from physiological signals, are used to train a machine learning method to predict a variety of important clinical factors, such as intracranial pressure (ICP), likelihood of success a particular treatment, and the need and/or dosage of particular drugs.

    Abstract translation: 决策支持系统和计算机实现的方法使用计算机断层扫描(CT)图像自动测量患者大脑中的费用中线位移。 决策支持系统和计算机实现方法将机器学习方法应用于从多个来源提取的特征,包括中线移位,血量,纹理模式和其他伤害数据,为医师提供颅内压(ICP)水平的估计。 基于高斯混合模式的分层分割方法! (GMM)。 在这种方法中,首先使用磁共振图像(MRI)心室模板作为现有知识来估计每个心室的区域。 然后,通过将CT图像中的心室形状与MR1心室模板集合进行匹配,选择相应的MR1切片。 调整形状匹配结果,检测CT切片中线估计的特征点,如侧脑室的中心边缘点。 移动量与脑组织纹理特征,脑中蓄积的血量,患者人口统计学,损伤信息以及从生理信号中提取的特征等其他信息一起用于训练机器学习方法,以预测各种 重要的临床因素,如颅内压(ICP),特定治疗成功的可能性,以及特定药物的需要和/或剂量。

Patent Agency Ranking