오늘의 인기 글
최근 글
최근 댓글
Today
Total
05-02 05:05
관리 메뉴

우노

[DL] TVM 이란? 본문

AI/Deep Learning

[DL] TVM 이란?

운호(Noah) 2022. 1. 12. 19:52

들어가기 앞서,

  • 딥러닝 모델을 특정 디바이스 상에서 효율적으로 동작시키기 위해서는,
  • 동작시킬 딥러닝 모델을, 타겟 디바이스에서 최적의 속도와 정확도를 낼 수 있는 머신 코드로 변환해야합니다.
  • 이러한 코드 변환 작업을 자동으로 지원해주는 도구를, ‘딥러닝 컴파일러’라고 합니다.

딥러닝 컴파일러 개념도

  • 딥러닝 컴파일러는, 다양한 딥러닝 플랫폼에서 학습된 딥러닝 모델을 입력으로 받아,
  • 특정 하드웨어에서 동작 가능한 머신 코드(또는, 백엔드 코드)를 자동으로 생성합니다.
  • 최근 제안된 XLA, TVM, Glow 와 같은 딥러닝 컴파일러들은,
  • TensorFlow, Pytorch, MxNet, ONNX 등의 프레임워크로 작성된 모델을 입력으로 하여,
  • CPU 및 GPU 용 백엔드 코드를 생성하고 있습니다.
    • CPU 용 백엔드 코드 : llvm
    • GPU 용 백엔드 코드 : CUDA, OpenCL, Metal 등

딥러닝 컴파일러 구조

  • 계산 그래프 생성기

    • 계산 그래프 생성기는, 다양한 딥러닝 플랫폼에서 생성된 딥러닝 모델을 로딩하여, 그래프 구조로 재구성한 뒤,
    • 모델에서 명시한 연산자들을, 프리미티브 연산자로 변환하여, 계산 그래프를 생성합니다.
    • 이후, 불필요한 노드 제거, 연산자 결합(Operator Fusion), 양자화(Quantization), 상수 폴딩(constant-folding)과 같은, 그래프 최적화를 기법들을 적용하여,
    • 최종적으로 최적화 된 계산 그래프를 생성합니다.
  • IR 생성기

    • 계산 그래프 생성기로부터 생성된 그래프는, 하드웨어에 독립적인 정보만 표현 할 수 있습니다.
      • ex) 연산자 간 입출력 관계, 연산자의 입출력 데이터 값, etc
    • 그러나 컴파일러는, 딥러닝 모델의 실행 성능을 높이기 위해,
    • 모델이 동작할 하드웨어의 아키텍처를 고려한, ‘하드웨어 의존적 최적화’를 필수적으로 수행해야합니다.
    • 따라서, 계산 그래프를 ‘하드웨어 의존적 최적화’에 적용 가능한 형태인,
    • 중간 표현 (IR: Intermediate Representation)으로 변환하는 과정이 필요합니다.
      • 참고로, IR 은 입출력 변수(또는 Tensor)들에 대한 선언과,
      • 변수들을 사용하는 연산식에 대한 정보를 포함하고 있습니다.
    • 컴파일러는, 생성된 IR 을 바탕으로 메모리 할당, 병렬화, 연산식 실행 순서 결정 등의 ‘하드웨어 의존적 최적화’ 작업을 수행한 뒤, 코드를 생성합니다.
    • 요약하면, IR 생성기는 컴파일러가 하드웨어 의존적 최적화를 용이하게 수행하도록, 계산 그래프를 IR 로 변환하는 역할을 합니다.
  • 백엔드 코드 생성기

    • 백엔드 코드 생성기는, IR 을 기반으로, 딥러닝 모델 워크로드가 배치될 타겟 하드웨어(CPU, GPU, TPU 등)의 아키텍처에 최적화 된 백엔드 코드를 생성합니다.
    • 즉, 타겟 하드웨어 별로, 병렬로 처리 가능한 데이터의 크기, 캐시 크기, 효율적으로 수행 가능한 딥러닝 오퍼레이터의 타입, 실행 순서 등을 참조하여,
    • 스케쥴 정보를 생성한 뒤, 해당 하드웨어에 최적화 된 백엔드 코드를 생성합니다.

TVM 실행 흐름

  • DL framework로부터 생성한 모델을 import 한 뒤, relay 를 통해, 해당 모델을 TVM 의 IRModule 로 변환합니다.
    • IRModule에는 모델을 나타낼 수 있는 다양한 함수들이 포함되어 있습니다.
  • IRModule 을 점점 Lowering 하는 Transformation 과정을 거칩니다.
    • IRModule 이 원하는 하드웨어(메모리 구조, 데이터 타입 등)에 알맞게 최적화될 수 있도록 Tensorize 시킵니다.
    • 이를 위해 Quantization, Graph-Packing 등, 다양한 작업들이 포함되며,
    • 이때, AutoTVM 이 사용됩니다.
  • 타깃 하드웨어에서 잘 작동하는 코드를 생성하기 위해, Translation 과정을 거칩니다.
    • 예를 들어, 타깃 하드웨어가 GPU 라면 [CUDA/OpenCL/Metal 등], CPU라면 [llvm] 코드를 생성합니다.
    • 이는, TVM 의 runtime.Module 에 encapsulate 되어있고,
    • 이를 통해, 타깃 하드웨어에 쉽게 export / load / execute 시킬 수 있습니다.
  • runtime.Module 를 로드하여, 타깃 하드웨어에서 최적화 된 모델을 동작시킵니다.

TFLite, TensorRT, TVM 의 차이

  • TFLite
    • TensorFlow(Keras)의 모델만 최적화가 가능합니다.
    • 여러 하드웨어에서 추론이 가능합니다.
    • 타겟 하드웨어에 따른 추가적인 최적화는 없습니다.
  • TensorRT
    • 다양한 프레임워크의 모델 최적화가 가능합니다.
    • NVIDIA GPU 만 추론 하드웨어로 사용 가능합니다.
    • 추론에 사용하려는 NVIDIA GPU 종류에 따라 추가적으로 최적화할 수 있습니다.
  • TVM
    • 다양한 프레임워크의 모델 최적화가 가능합니다.
    • 여러 하드웨어서 추론이 가능합니다.
    • 추론에 사용하려는 하드웨어 종류에 따라 추가적으로 최적화할 수 있습니다.

추가

참고

'AI > Deep Learning' 카테고리의 다른 글

[DL] ONNX 란?  (0) 2022.01.24
[DL] Hugging Face란?  (0) 2022.01.20
[DL] TFLite 와 TensorRT 간단 비교  (2) 2022.01.12
[DL] 양자화(Quantization)란?  (0) 2022.01.10
[DL] Tensorflow version 확인  (0) 2021.11.04
Comments