Abstract:
A method for audio processing includes training a computerized classifier (56, 58) to recognize respective audio outputs of a predefined set of musical instruments (30, 32, 34). Upon receiving audio data, the classifier outputs a vector (92) of respective scores (94) for the musical instruments, indicating a likelihood that each musical instrument played in the audio data. An audio segment is input to the classifier, which outputs the vector of the respective scores for the audio segment. Different, respective threshold values are set for the different musical instruments. The respective scores of the musical instruments for the audio segment are compared to the respective threshold values, and one or more of the musical instruments for which the respective scores are no less than the respective threshold values are identified as having played in the audio segment.
Abstract:
전자기기가 개시된다. 본 발명의 실시 예에 따른 전자기기는, 음원으로부터, 예령어 및 명령어를 포함하는 음성 입력을 수신하는 입력부, 하나 이상의 다른 전자기기와 통신하는 통신부, 및, 상기 전자기기에서의 상기 예령어의 인식도를 획득하고, 상기 하나 이상의 다른 전자기기 각각에서의 상기 예령어의 인식도를 수신하고, 상기 전자기기에서의 상기 예령어의 인식도 및 상기 하나 이상의 다른 전자기기 각각에서의 상기 예령어의 인식도에 기초하여 상기 전자기기가 최우선 순위이면 상기 명령어에 대응하는 기능을 수행하는 인공지능부를 포함하고, 상기 전자기기에서의 상기 예령어의 인식도는, 상기 전자기기에서의, 상기 예령어의 스코어 및 상기 음원의 위치 정보 중 적어도 하나에 기초하여 획득된다.
Abstract:
본 개시는 딥러닝 등의 기계 학습 알고리즘을 활용하는 인공지능(AI) 시스템 및 그 응용에 관련된 것이다. 특히, 본 개시의 전자 장치의 제어 방법은, 사용자 음성을 입력받고, 사용자 음성으로부터 텍스트 데이터를 획득하며, 획득된 텍스트 데이터로부터 목표 성분 및 파라미터 성분을 결정하고, 목표 성분 및 상기 파라미터 성분을 바탕으로 사용자 음성에 대응되는 동작을 결정하며, 결정된 동작의 수행이 불가능하다고 판단된 경우, 목표 성분 및 파라미터 성분 중 적어도 하나를 바탕으로 결정된 동작을 대체하기 위한 대체 동작을 결정하고, 대체 동작을 안내하기 위한 메시지를 제공한다.
Abstract:
The technology disclosed provides a so-called "joint many-task neural network model" to solve a variety of increasingly complex natural language processing (NLP) tasks using growing depth of layers in a single end-to-end model. The model is successively trained by considering linguistic hierarchies, directly connecting word representations to all model layers, explicitly using predictions in lower tasks, and applying a so-called "successive regularization" technique to prevent catastrophic forgetting. Three examples of lower level model layers are part-of-speech (POS) tagging layer, chunking layer, and dependency parsing layer. Two examples of higher level model layers are semantic relatedness layer and textual entailment layer. The model achieves the state-of-the-art results on chunking, dependency parsing, semantic relatedness and textual entailment.
Abstract:
The technology disclosed provides a quasi-recurrent neural network (QRNN) that alternates convolutional layers, which apply in parallel across timesteps, and minimalist recurrent pooling layers that apply in parallel across feature dimensions.
Abstract:
The technology disclosed provides a quasi-recurrent neural network (QRNN) that alternates convolutional layers, which apply in parallel across timesteps, and minimalist recurrent pooling layers that apply in parallel across feature dimensions.
Abstract:
A method for providing information to a user, the method including: receiving an input signal from a sensing device associated with a sensory modality of the user; generating a preprocessed signal upon preprocessing the input signal with a set of preprocessing operations; extracting a set of features from the preprocessed signal; processing the set of features with a neural network system; mapping outputs of the neural network system to a device domain associated with a device including a distribution of haptic actuators in proximity to the user; and at the distribution of haptic actuators, cooperatively producing a haptic output representative of at least a portion of the input signal, thereby providing information to the user.