효율적인 딥러닝 학습을 위한 메모리 구조 및 제어 방법

    公开(公告)号:WO2023085457A1

    公开(公告)日:2023-05-19

    申请号:PCT/KR2021/016376

    申请日:2021-11-11

    Abstract: 효율적인 딥러닝 학습을 위한 메모리 구조 및 제어 방법이 제공된다. 본 발명의 실시예에 따른 딥러닝 모델 학습 방법은, 동일 클래스에 해당하는 학습 데이터들을 선별하여 저장하고, 저장된 학습 데이터들을 해당 클래스에 매핑된 양자화 파라미터로 양자화 하며, 저장된 학습 데이터들을 이용하여 딥러닝 모델을 학습시킨다. 이에 의해, 추가학습이나 재학습을 위한 학습 데이터에 대해 클래스 별로 구별되는 양자화를 적용하고, 표현형 변경과 압축을 통해 학습 데이터의 용량을 최소화할 수 있어, 메모리 자원이 제한적인 모바일 디바이스에서 딥러닝 모델의 추가학습과 재학습이 용이해지며, 학습 데이터의 보안도 강화할 수 있게 된다.

    딥러닝 경량 가속장치
    2.
    发明申请

    公开(公告)号:WO2023085443A1

    公开(公告)日:2023-05-19

    申请号:PCT/KR2021/016179

    申请日:2021-11-09

    Abstract: 딥러닝 경량 가속장치가 제공된다. 본 발명의 실시예에 따른 풀링 장치는, 입력 데이터를 구성하는 라인들이 하나씩 순차적으로 저장되는 라인 메모리, 라인 메모리에 현재 저장된 데이터들 중 윈도우가 위치한 데이터들과 메모리로부터 인가되는 이전 특정 값을 비교하여 특정 값을 선택하는 비교기 및 비교기에서 이전에 선택되었던 특정 값인 이전 특정 값이 저장되는 메모리를 포함한다. 이에 의해, 딥러닝 가속기에서 내부 메모리의 입출력을 최소화할 수 있어, 연산시간을 줄일 수 있고 하드웨어 리소스 사용량을 줄여 저전력 동작을 가능하게 한다.

    고속 후처리가 가능한 딥러닝 장치

    公开(公告)号:WO2022107927A1

    公开(公告)日:2022-05-27

    申请号:PCT/KR2020/016467

    申请日:2020-11-20

    Abstract: 고속 후처리가 가능한 객체 검출 장치 및 방법이 제공된다. 본 발명의 실시예에 따른 객체 검출 방법은 영상에서 객체들을 BB들로 검출하고, 검출된 BB들을 Soft-NMS 연산하여 최종 BB들을 결정하며, 결정된 최종 BB들을 최종 객체 검출 결과로 출력하고, 대상 BB들의 스코어들을 계산하여 최종 BB들을 결정하되, 스코어 계산시 특정 조건을 만족하는 대상 BB에 대해서는 스코어 계산을 중단한다. 이에 의해, 검출 객체들에 대한 Soft-NMS 연산을 통한 후처리 과정에서 최종 BB로 결정될 가능성이 없는 BB들에 대한 갱신 연산을 조기 종료 시킴으로써, 객체 검출의 고속화가 가능해진다.

    딥러닝 가속장치를 위한 적응적 파라미터 생성 장치 및 방법

    公开(公告)号:WO2023080292A1

    公开(公告)日:2023-05-11

    申请号:PCT/KR2021/016094

    申请日:2021-11-08

    Abstract: 딥러닝 가속장치를 위한 적응적 파라미터 생성 장치 및 방법이 제공된다. 본 발명의 실시예에 따른 딥러닝 모델 처리 방법은, 데이터들의 푸아송 분포를 산출하고, 산출된 푸아송 분포를 기초로 양자화 파라미터를 계산하며, 계산된 양자화 파라미터로 데이터들과 딥러닝 모델 파라미터들을 양자화하고, 양자화된 데이터들과 딥러닝 모델 파라미터들을 이용하여 딥러닝 모델을 학습시킨다. 이에 의해, 딥러닝 모델에 이용할 데이터들과 딥러닝 모델 파라미터에 대한 양자화 파라미터를 푸아송 분포를 기초로 산출함으로써, 학습 데이터들을 배제하고 테스트 데이터들만을 이용하여 재학습하는 경우에도 최소 손실을 갖는 성능을 확보할 수 있게 된다.

    초경량 딥러닝 네트워크 학습 방법

    公开(公告)号:WO2022107951A1

    公开(公告)日:2022-05-27

    申请号:PCT/KR2020/016635

    申请日:2020-11-24

    Abstract: 초경량 딥러닝 네트워크 학습/양자화 방법이 제공된다. 본 발명의 실시예에 따른 네트워크 학습/양자화 방법은, LSN의 파라마터들을 양자화하고, 양자화를 수행하는 과정에 생성되는 양자화 지식 정보를 SSN로 전파하며, 전파된 양자화 지식 정보를 이용하여 SSN의 파라미터들을 양자화한다. 이에 의해, 복잡도가 낮은 베이스 네트워크를 초경량으로 양자화하기 위한 학습이 가능해진다.

    가변 데이터 압축/복원기를 포함하는 딥러닝 가속 장치

    公开(公告)号:WO2022107929A1

    公开(公告)日:2022-05-27

    申请号:PCT/KR2020/016473

    申请日:2020-11-20

    Abstract: 가변 데이터 압축/복원기를 포함하는 딥러닝 가속 장치가 제공된다. 본 발명의 실시예에 따른 딥러닝 가속 장치는, 외부 메모리에 직접 접근하여 외부 메모리로부터 딥러닝 연산을 위한 데이터를 읽어들이는 RDMA, RDMA에서 읽어들인 데이터를 복원하는 복원기, 복원기에서 복원된 데이터가 저장되는 입력 버퍼, 입력 버퍼에 저장된 데이터로 딥러닝 연산을 수행하는 연산기, RDMA와 입력 버퍼의 상황을 파악하고 파악된 상황을 기초로 복원기의 복원 동작을 제어하는 제어기를 포함한다. DMA와 버퍼 상태에 따라 압축/복원기를 제어할 수 있어, 딥러닝 가속기의 출력을 최대한으로 유지시킬 수 있게 된다.

    적응형 딥러닝 데이터 압축 처리 장치 및 방법

    公开(公告)号:WO2022107909A1

    公开(公告)日:2022-05-27

    申请号:PCT/KR2020/016306

    申请日:2020-11-19

    Abstract: 적응형 딥러닝 데이터 압축 처리 장치 및 방법이 제공된다. 본 발명의 실시예에 따른 적응적 딥러닝 데이터 압축 방법은, 다채널 딥러닝 데이터를 입력받아 데이터의 분포를 분석하고, 분석된 분포 특성을 기초로 데이터들을 다수의 블록들로 블록화한 후블록들 각각을 적응적으로 압축한다. 이에 의해, 데이터 분포를 분석하여 적응형으로 압축을 적용하되, 데이터 값이 가우시안 분포를 보이는 딥러닝 데이터에 대해서는 채널 방향으로 먼저 스캔을 함으로써, 딥러닝 성능 열화 없이도 압축률을 향상시킬 수 있게 된다.

    딥러닝 네트워크 부호화/복호화 방법 및 장치

    公开(公告)号:WO2021118140A1

    公开(公告)日:2021-06-17

    申请号:PCT/KR2020/017270

    申请日:2020-11-30

    Abstract: 본 발명은 딥러닝 네트워크 부호화/복호화 방법 및 장치에 관한 것이다. 본 발명의 실시예에 따르면, 딥러닝 네트워크를 복호화 하는 방법은 딥러닝 네트워크에 관한 네트워크 헤더 정보를 복호화 하는 단계, 상기 딥러닝 네트워크에 포함된 복수개의 레이어에 관한 레이어 헤더 정보를 복호화 하는 단계, 상기 복수개의 레이어의 구체적인 정보에 관한 레이어 데이터 정보를 복호화 하는 단계; 및 상기 딥러닝 네트워크와 상기 딥러닝 네트워크에 포함된 복수개의 레이어를 획득하는 단계를 포함하되, 상기 레이어 헤더 정보는 상기 복수개의 레이어를 구분하는 것에 관한 레이어 구분 정보를 포함하는 것을 특징으로 할 수 있다.

    고정확도 딥러닝 연산 장치
    10.
    发明申请

    公开(公告)号:WO2023085442A1

    公开(公告)日:2023-05-19

    申请号:PCT/KR2021/016178

    申请日:2021-11-09

    Abstract: 고정확도 딥러닝 연산 장치가 제공된다. 본 발명의 실시예에 따른 Adder Tree 연산 장치는, 제1 데이터를 입력받는 제1 레지스터, 제2 데이터를 입력받는 제2 레지스터, 제1 데이터의 exponent와 제2 데이터의 exponent를 비교하는 비교기, 비교기의 비교 결과를 기초로 제1 데이터와 제2 데이터 중 하나는 변환기로 전달하고 다른 하나는 버퍼로 전달하는 스위치, 전달되는 데이터의 exponent를 변환하는 변환기, 전달되는 데이터를 저장하였다가 그대로 출력하는 버퍼 및 변환기에서 출력되는 데이터와 버퍼에서 출력되는 데이터를 덧셈하는 덧셈기를 포함한다. 이에 의해, Adder Tree 연산에서 덧셈할 두 데이터의 exponent를 더 작은 exponent로 변환하여 덧셈함으로써, 연산에 필요한 메모리를 획기적으로 줄여, 리소스에 제한이 있는 디바이스의 딥너링 가속장치에서도 문제 없는 Adder Tree 연산을 가능하게 한다.

Patent Agency Ranking