Study: Artificial Intelligence(AI)
[LW] 네트워크 경량화: Knowledge Distillation 다양한 방법들(feat. RepDistiller)
💡 본 문서는 '[DL] Knowledge Distillation 다양한 방법들(feat. RepDistiller)'에 대해 정리해놓은 글입니다.Knowledge Distillation은 2014년에 제시된 방법론으로 딥러닝 분야치고는 꽤나 오래된 방법론이지만, 현재까지도 모델을 경량화하는데 많이 사용되고 있습니다. 이 Knowledge Distillation에서 파생된 방법론들에 대해 코드레벨로 정리하였으니 참고하시기 바랍니다.1. Knowledge Distillation?Knowledge Distillation 이란?딥러닝에서 Knowledge Distillation은 큰 모델(Teacher Network)로부터 증류한 지식을 작은 모델(Student Network)로 transfer하는 일련의 과..
[Vision] EXR Extended Dynamic Range Image File Format (feat. OpenEXR, 무손실 고해상도 데이터 저장)
💡 본 문서는 '[Vision] EXR Extended Dynamic Range Image File Format (feat. OpenEXR)'에 대해 정리해놓은 글입니다. 무손실 고해상도 데이터 저장을 위해 사용하는 포멧인 Extended Dynamic Range(EXR) Image File Format에 대한 내용을 정리하였으니 참고하시기 바랍니다. 1. What is EXR File format Overview of the OpenEXR File Format Industrial Light + Magic implemented its own extended dynamic range file format in Summer 2000. The existing 8-bit file format used at th..