基于眼电信号的人机交互系统

    公开(公告)号:CN101598973B

    公开(公告)日:2011-01-05

    申请号:CN200910117156.7

    申请日:2009-06-26

    Applicant: 安徽大学

    Abstract: 基于眼电信号的人机交互系统,其特征是眼电信号采集与放大模块通过眼电信号传感器获取眼电信号,并对其进行放大;在线眼电信号处理模块实现对来自眼电信号采集与放大模块的信号进行在线模式识别,实时判断出操作者的眼部动作;以受控单元实现眼动模式的编码及受控命令的生成。本发明应用性强、测量精度高、识别速度快、操作简单方便,实现了基于眼电的特殊人机交互。本发明可以帮助肢体残疾人象正常人一样实现操控计算机、书写文本、浏览网页等操作或实现对其他电子设备,如对家电的无线控制等人机交互动作;同时还可以用于正常人不便用手操作计算机的场合,比如:矿井、营救手术、航天器、水下等条件苛刻或狭窄的环境中。

    基于语音识别和无线传感网的智能家电控制系统

    公开(公告)号:CN101452290A

    公开(公告)日:2009-06-10

    申请号:CN200810194811.4

    申请日:2008-10-21

    Applicant: 安徽大学

    CPC classification number: Y02D70/10

    Abstract: 基于语音识别技术和无线传感网的智能家电控制系统,其特征是所述系统组成包括语音识别模块和基于Zigbee网络的无线传输模块;语音识别模块具有与PC机相连的无线音频输入设备和语音识别单元,通过音频输入设备接收使用者音频输入数据;在语音识别单元中对使用者的音频输入数据进行处理,并将其转换成相应的控制指令;无线传输模块采用Zigbee通讯协议,包括串口通信电路、网络协调器、各子节点及工作状态转换电路;来自使用者的控制指令经串口通信电路的数据处理,用于控制各子节点相应工作状态;网络中各子节点的数据信息在PC机中显示。本发明工作安全可靠、安装便利、使用简单方便、系统功耗低,实现了家电控制的智能化。

    一种非电费收入业财票协同管理方法及系统

    公开(公告)号:CN119809544A

    公开(公告)日:2025-04-11

    申请号:CN202411858351.6

    申请日:2024-12-17

    Abstract: 本发明公开了一种非电费收入业财票协同管理方法及系统,该方法包括接收业务部门提交的业务项目合同信息及文件;接收业务部门提交的开票申请;基于开票申请信息调用开票系统进行开票;接收财务部门的过账申请,针对用户选择的待过账发票进行过账,形成过账记录并生成应收凭证;接收财务部门的对账申请,对于非电费收入的银行流水进行对账核销,形成对账核销记录并生成收款凭证;接收业务部门提交的开票查询申请,所述查询申请包括查询发票开具情况、应收凭证制证情况、款项回收情况。本发明以业务管理基础,发票管理为主线,实现非电费收入业财票深度融合。

    一种基于神经谱信息跨电极表征学习的大脑年龄预测方法

    公开(公告)号:CN119302672B

    公开(公告)日:2025-04-04

    申请号:CN202411852205.2

    申请日:2024-12-16

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于神经谱信息跨电极表征学习的大脑年龄预测方法,包括:对被试的多电极通道中的每一电极通道的EEG数据进行预处理,得到1‑20Hz频率下的功率谱密度PSD;利用1‑20Hz频率下的PSD计算每一电极通道的脑电神经谱特征,包括非周期参数AF、周期参数PF、功率比PR、相对能量RE和峰度KUR;将每一电极通道的上述脑电神经谱特征作为单电极自身独立表征的频谱信息,通过稀疏线性回归方法刻画出所有电极神经谱特征的跨电极互相表征的相似性关系矩阵;最后,构建全连接多层神经网络,学习被试的单电极神经谱特征和电极间神经谱特征表征的相似性矩阵与大脑年龄之间的映射关系,根据上述跨电极神经谱特征和神经网络预测被试的大脑年龄。

    融合声音和脑电信号的目标人物语音提取方法、装置

    公开(公告)号:CN119049495B

    公开(公告)日:2025-01-28

    申请号:CN202411518863.8

    申请日:2024-10-29

    Applicant: 安徽大学

    Abstract: 本发明属于语音处理技术领域,具体涉及一种融合声音和脑电信号的目标人物语音提取方法、系统和设备。该方法设计了一个包含脑电编码器、语音编码器、分离网络和语音解码器的语音分离模型,并利用训练好的语音分离模型执行目标人物的语音提取任务。其中,脑电编码器中包括一维卷积层和基于KAN的注意力层。语音编码器中包括一维卷积层和双向Mamba层。分离网络采用交叉注意力模块对提取出的语音特征和脑电特征进行特征融合,并对得到的融合特征进行解析得到目标人物语音的特征掩码。语音解码器利用特征掩码和语音特征重建出目标人物的纯净语音。本发明解决现有方案难以有效捕捉深层脑电特征和全局语音特征,重建出的目标人物语音的精度较差的问题。

    结合声学特征和状态空间模型的语音分离方法及系统

    公开(公告)号:CN119360878A

    公开(公告)日:2025-01-24

    申请号:CN202411897514.1

    申请日:2024-12-23

    Applicant: 安徽大学

    Abstract: 本发明涉及语音分离技术领域,具体涉及结合声学特征和状态空间模型的语音分离方法及系统。本发明为了实现语音分离提供了一种语音分离模型,其首先通过音频编码部对混合语音Voicemix进行编码以得到N种不同分辨率的音频特征{F1~FN},接着通过声学特征提取部基于{F1~FN}提取出多尺度语音特征G'm,然后通过状态空间网络部对G'm进行长期建模以得到长时特征IT,out,最后通过音频解码部结合{F1~FN}与IT,out解码重构出{Voice1,…,VoiceN}。本发明解决了现有语音分离方法面对长序列音频会出现建模局限而影响语音分离性能的问题。

    融合声音和脑电信号的目标人物语音提取方法、装置

    公开(公告)号:CN119049495A

    公开(公告)日:2024-11-29

    申请号:CN202411518863.8

    申请日:2024-10-29

    Applicant: 安徽大学

    Abstract: 本发明属于语音处理技术领域,具体涉及一种融合声音和脑电信号的目标人物语音提取方法、系统和设备。该方法设计了一个包含脑电编码器、语音编码器、分离网络和语音解码器的语音分离模型,并利用训练好的语音分离模型执行目标人物的语音提取任务。其中,脑电编码器中包括一维卷积层和基于KAN的注意力层。语音编码器中包括一维卷积层和双向Mamba层。分离网络采用交叉注意力模块对提取出的语音特征和脑电特征进行特征融合,并对得到的融合特征进行解析得到目标人物语音的特征掩码。语音解码器利用特征掩码和语音特征重建出目标人物的纯净语音。本发明解决现有方案难以有效捕捉深层脑电特征和全局语音特征,重建出的目标人物语音的精度较差的问题。

    语音分离模型的训练方法和装置、语音分离方法

    公开(公告)号:CN118230752B

    公开(公告)日:2024-10-25

    申请号:CN202410139135.X

    申请日:2024-01-31

    Applicant: 安徽大学

    Abstract: 本申请涉及一种语音分离模型的训练方法和装置、语音分离方法,语音分离模型包括教师模型和学生模型。其中,该语音分离模型的训练方法包括:获取相对应的样本音频数据和样本视频数据;通过样本音频数据和样本视频数据对教师模型进行监督训练;通过样本音频数据对学生模型进行监督训练,并在训练过程中通过训练后的教师模型对学生模型进行训练指导。通过上述语音分离模型的训练方法,最终得到高性能的学生模型。训练后的学生模型应用在实际语音分离场景中,可以准确地对单独的音频数据进行分离,而不需要相对应的视频数据进行辅助。因此,解决了现有的语音分离技术难以准确地对无同步视频数据的音频数据进行语音分离的问题。

Patent Agency Ranking