모두의연구소 LAB
/
DeepLAB논문반
/
딥랩논문반 시즌2 - 1기 발표순서
/
MINILM: Deep Self-Attention Distillation for Task-Agnostic Compression of Pre-Trained Transformers
Search
Duplicate
MINILM: Deep Self-Attention Distillation for Task-Agnostic Compression of Pre-Trained Transformers
발표예정일
2020/10/26
발표자
최태균
첨부파일
Tags