///
Search
Duplicate

MINILM: Deep Self-Attention Distillation for Task-Agnostic Compression of Pre-Trained Transformers

발표예정일
2020/10/26
발표자
최태균
첨부파일
Tags