Abstract:
Die vorliegende Erfindung betrifft ein Verfahren zum Rückmeiden eines Betriebszustands eines Datenverarbeitungssystems bei einem Dialog eines Nutzers mit dem Datenverarbeitungssystem, wobei das Datenverarbeitungssystem mit mindestens einem auf einer Anzeigeeinheit darzustellenden Zustandsindikator in Wirkkontakt steht, der sich in Abhängigkeit eines aktuellen Betriebszustands des Datenverarbeitungssystem und/oder einer Eingabe des Nutzers dynamisch ändert und dadurch eine Rückmeldung an den Nutzer bereitstellt. Ferner betrifft die vorliegende Erfindung ein Datenverarbeitungssystem zur Ausführung des vorgestellten Verfahrens.
Abstract:
An electronic measuring device captures a plurality of audio samples, wherein each audio sample corresponds to a different string of a musical instrument. The device further identifies a plurality of frequency components of each of the plurality of audio samples, calculates an optimal tuning curve based on the plurality of frequency components of each of the plurality of audio samples, and determines a deviation of the plurality of frequency components of each of the plurality of audio samples from the optimal tuning curve.
Abstract:
Данное изобретение относится к технологиям распознавания речи, т.е. перевода звукового сигнала, содержащего речь, в транскрипционное представление, состоящую из символов отдельных звуков, транскрипции слов, предложений и их метаданных, визуализацию физических характеристик речевого сигнала создающих ощущение звуков речи, оценку правильности произношения, входящих в произносительный словарь системы обучения произношению речи. Производят прием и предварительную обработку речевого сигнала, далее преобразуют речевой сигнал группой цифровых фильтров в частотные зоны, превышение относительной энергии в которых во времени создает ощущение звуков языка, затем нормализуют полученные частотные зоны с учетом характеристик чувствительности улитки уха по частоте, амплитуде и времени, после чего определяют акустические признаки речевого сигнала и типы звуков, в конечном итоге нормализуют временные параметры и отображают обработанный речевой сигнал.
Abstract:
Systems and methods for rendering motion-audio visualizations to a display are described. More specifically, video data and audio data is obtained. A position of a target object in each of one or more video frames of the video data is determined. Additionally, a video data comprising one or more video frames is determined. Audio visualizations for the predetermined time period are determined based on the frequency spectrum. A rendered video is generated by applying the audio visualizations at the position of the target object in the one or more video frames for the predetermined time period.
Abstract:
A messaging system that extracts accompaniment portions from songs. Methods of accompaniment extraction from songs includes receiving an input song that includes a vocal portion and an accompaniment portion, transforming the input song to an input image, where the input image represents the frequencies and intensities of the input song, processing the input image using a convolutional neural network (CNN) to generate an output image, and transforming the output image to an output accompaniment, where the output accompaniment includes the accompaniment of the input song.
Abstract:
Methods, systems and apparatuses for computer-generated visualization of speech are described herein. An example method of computer-generated visualization of speech including at least one segment includes: generating a graphical representation of an object corresponding to a segment of the speech; and displaying the graphical representation of the object on a screen of a computing device. Generating the graphical representation includes: representing a duration of the respective segment by a length of the object and representing intensity of the respective segment by a width of the object; and placing, in the graphical representation, a space between adjacent objects.