-
公开(公告)号:WO2023085457A1
公开(公告)日:2023-05-19
申请号:PCT/KR2021/016376
申请日:2021-11-11
Applicant: 한국전자기술연구원
Abstract: 효율적인 딥러닝 학습을 위한 메모리 구조 및 제어 방법이 제공된다. 본 발명의 실시예에 따른 딥러닝 모델 학습 방법은, 동일 클래스에 해당하는 학습 데이터들을 선별하여 저장하고, 저장된 학습 데이터들을 해당 클래스에 매핑된 양자화 파라미터로 양자화 하며, 저장된 학습 데이터들을 이용하여 딥러닝 모델을 학습시킨다. 이에 의해, 추가학습이나 재학습을 위한 학습 데이터에 대해 클래스 별로 구별되는 양자화를 적용하고, 표현형 변경과 압축을 통해 학습 데이터의 용량을 최소화할 수 있어, 메모리 자원이 제한적인 모바일 디바이스에서 딥러닝 모델의 추가학습과 재학습이 용이해지며, 학습 데이터의 보안도 강화할 수 있게 된다.
-
公开(公告)号:WO2023085443A1
公开(公告)日:2023-05-19
申请号:PCT/KR2021/016179
申请日:2021-11-09
Applicant: 한국전자기술연구원
Abstract: 딥러닝 경량 가속장치가 제공된다. 본 발명의 실시예에 따른 풀링 장치는, 입력 데이터를 구성하는 라인들이 하나씩 순차적으로 저장되는 라인 메모리, 라인 메모리에 현재 저장된 데이터들 중 윈도우가 위치한 데이터들과 메모리로부터 인가되는 이전 특정 값을 비교하여 특정 값을 선택하는 비교기 및 비교기에서 이전에 선택되었던 특정 값인 이전 특정 값이 저장되는 메모리를 포함한다. 이에 의해, 딥러닝 가속기에서 내부 메모리의 입출력을 최소화할 수 있어, 연산시간을 줄일 수 있고 하드웨어 리소스 사용량을 줄여 저전력 동작을 가능하게 한다.
-
公开(公告)号:WO2021118285A1
公开(公告)日:2021-06-17
申请号:PCT/KR2020/018140
申请日:2020-12-11
Applicant: 한국전자기술연구원 , 한국항공대학교산학협력단
Abstract: 본 발명은 심층 신경망 부호화/복호화 방법 및 장치에 관한 것이다. 본 발명의 실시예에 따르면, 심층 신경망을 복호화 하는 방법은 심층 신경망의 복수의 계층에 있어서, 현재 계층에 대한 양자화 정보를 엔트로피 복호화 하는 단계 상기 현재 계층에 대해 역양자화를 수행하는 단계 및 상기 심층 신경망의 복수의 계층을 획득하는 단계를 포함하되 상기 현재 계층에 전역 양자화 및 지역 양자화 중에서 적어도 하나 이상을 수행하는 것을 특징으로 할 수 있다.
-
公开(公告)号:WO2022107927A1
公开(公告)日:2022-05-27
申请号:PCT/KR2020/016467
申请日:2020-11-20
Applicant: 한국전자기술연구원
Abstract: 고속 후처리가 가능한 객체 검출 장치 및 방법이 제공된다. 본 발명의 실시예에 따른 객체 검출 방법은 영상에서 객체들을 BB들로 검출하고, 검출된 BB들을 Soft-NMS 연산하여 최종 BB들을 결정하며, 결정된 최종 BB들을 최종 객체 검출 결과로 출력하고, 대상 BB들의 스코어들을 계산하여 최종 BB들을 결정하되, 스코어 계산시 특정 조건을 만족하는 대상 BB에 대해서는 스코어 계산을 중단한다. 이에 의해, 검출 객체들에 대한 Soft-NMS 연산을 통한 후처리 과정에서 최종 BB로 결정될 가능성이 없는 BB들에 대한 갱신 연산을 조기 종료 시킴으로써, 객체 검출의 고속화가 가능해진다.
-
公开(公告)号:WO2023080292A1
公开(公告)日:2023-05-11
申请号:PCT/KR2021/016094
申请日:2021-11-08
Applicant: 한국전자기술연구원
Abstract: 딥러닝 가속장치를 위한 적응적 파라미터 생성 장치 및 방법이 제공된다. 본 발명의 실시예에 따른 딥러닝 모델 처리 방법은, 데이터들의 푸아송 분포를 산출하고, 산출된 푸아송 분포를 기초로 양자화 파라미터를 계산하며, 계산된 양자화 파라미터로 데이터들과 딥러닝 모델 파라미터들을 양자화하고, 양자화된 데이터들과 딥러닝 모델 파라미터들을 이용하여 딥러닝 모델을 학습시킨다. 이에 의해, 딥러닝 모델에 이용할 데이터들과 딥러닝 모델 파라미터에 대한 양자화 파라미터를 푸아송 분포를 기초로 산출함으로써, 학습 데이터들을 배제하고 테스트 데이터들만을 이용하여 재학습하는 경우에도 최소 손실을 갖는 성능을 확보할 수 있게 된다.
-
公开(公告)号:WO2022107951A1
公开(公告)日:2022-05-27
申请号:PCT/KR2020/016635
申请日:2020-11-24
Applicant: 한국전자기술연구원
Abstract: 초경량 딥러닝 네트워크 학습/양자화 방법이 제공된다. 본 발명의 실시예에 따른 네트워크 학습/양자화 방법은, LSN의 파라마터들을 양자화하고, 양자화를 수행하는 과정에 생성되는 양자화 지식 정보를 SSN로 전파하며, 전파된 양자화 지식 정보를 이용하여 SSN의 파라미터들을 양자화한다. 이에 의해, 복잡도가 낮은 베이스 네트워크를 초경량으로 양자화하기 위한 학습이 가능해진다.
-
公开(公告)号:WO2022107929A1
公开(公告)日:2022-05-27
申请号:PCT/KR2020/016473
申请日:2020-11-20
Applicant: 한국전자기술연구원
Abstract: 가변 데이터 압축/복원기를 포함하는 딥러닝 가속 장치가 제공된다. 본 발명의 실시예에 따른 딥러닝 가속 장치는, 외부 메모리에 직접 접근하여 외부 메모리로부터 딥러닝 연산을 위한 데이터를 읽어들이는 RDMA, RDMA에서 읽어들인 데이터를 복원하는 복원기, 복원기에서 복원된 데이터가 저장되는 입력 버퍼, 입력 버퍼에 저장된 데이터로 딥러닝 연산을 수행하는 연산기, RDMA와 입력 버퍼의 상황을 파악하고 파악된 상황을 기초로 복원기의 복원 동작을 제어하는 제어기를 포함한다. DMA와 버퍼 상태에 따라 압축/복원기를 제어할 수 있어, 딥러닝 가속기의 출력을 최대한으로 유지시킬 수 있게 된다.
-
公开(公告)号:WO2022107909A1
公开(公告)日:2022-05-27
申请号:PCT/KR2020/016306
申请日:2020-11-19
Applicant: 한국전자기술연구원
IPC: H04N19/129 , H04N19/423 , H04N19/176 , G06T9/40 , G06N3/08
Abstract: 적응형 딥러닝 데이터 압축 처리 장치 및 방법이 제공된다. 본 발명의 실시예에 따른 적응적 딥러닝 데이터 압축 방법은, 다채널 딥러닝 데이터를 입력받아 데이터의 분포를 분석하고, 분석된 분포 특성을 기초로 데이터들을 다수의 블록들로 블록화한 후블록들 각각을 적응적으로 압축한다. 이에 의해, 데이터 분포를 분석하여 적응형으로 압축을 적용하되, 데이터 값이 가우시안 분포를 보이는 딥러닝 데이터에 대해서는 채널 방향으로 먼저 스캔을 함으로써, 딥러닝 성능 열화 없이도 압축률을 향상시킬 수 있게 된다.
-
公开(公告)号:WO2021118140A1
公开(公告)日:2021-06-17
申请号:PCT/KR2020/017270
申请日:2020-11-30
Applicant: 한국전자기술연구원
IPC: H04N19/30 , H04N19/70 , H04N19/433 , G06N3/08 , G06N3/04
Abstract: 본 발명은 딥러닝 네트워크 부호화/복호화 방법 및 장치에 관한 것이다. 본 발명의 실시예에 따르면, 딥러닝 네트워크를 복호화 하는 방법은 딥러닝 네트워크에 관한 네트워크 헤더 정보를 복호화 하는 단계, 상기 딥러닝 네트워크에 포함된 복수개의 레이어에 관한 레이어 헤더 정보를 복호화 하는 단계, 상기 복수개의 레이어의 구체적인 정보에 관한 레이어 데이터 정보를 복호화 하는 단계; 및 상기 딥러닝 네트워크와 상기 딥러닝 네트워크에 포함된 복수개의 레이어를 획득하는 단계를 포함하되, 상기 레이어 헤더 정보는 상기 복수개의 레이어를 구분하는 것에 관한 레이어 구분 정보를 포함하는 것을 특징으로 할 수 있다.
-
公开(公告)号:WO2023085442A1
公开(公告)日:2023-05-19
申请号:PCT/KR2021/016178
申请日:2021-11-09
Applicant: 한국전자기술연구원
Abstract: 고정확도 딥러닝 연산 장치가 제공된다. 본 발명의 실시예에 따른 Adder Tree 연산 장치는, 제1 데이터를 입력받는 제1 레지스터, 제2 데이터를 입력받는 제2 레지스터, 제1 데이터의 exponent와 제2 데이터의 exponent를 비교하는 비교기, 비교기의 비교 결과를 기초로 제1 데이터와 제2 데이터 중 하나는 변환기로 전달하고 다른 하나는 버퍼로 전달하는 스위치, 전달되는 데이터의 exponent를 변환하는 변환기, 전달되는 데이터를 저장하였다가 그대로 출력하는 버퍼 및 변환기에서 출력되는 데이터와 버퍼에서 출력되는 데이터를 덧셈하는 덧셈기를 포함한다. 이에 의해, Adder Tree 연산에서 덧셈할 두 데이터의 exponent를 더 작은 exponent로 변환하여 덧셈함으로써, 연산에 필요한 메모리를 획기적으로 줄여, 리소스에 제한이 있는 디바이스의 딥너링 가속장치에서도 문제 없는 Adder Tree 연산을 가능하게 한다.
-
-
-
-
-
-
-
-
-