https://github.com/modulabs/beyondBERT/issues/20
FastBERT: a Self-distilling BERT with Adaptive Inference Time · Issue #20 · modulabs/beyondBERT
어떤 내용의 논문인가요? 👋 간략하게 어떤 내용의 논문인지 작성해 주세요! (짧게 1-2줄 이어도 좋아요!) Distillation 방법과 Adaptive Inference 기술을 사용하여, 적은 accuracy loss로도 추론의 속도를 컨
github.com
728x90
반응형
'Study > NLP (Natural language processing)' 카테고리의 다른 글
[NLP] Attention과 Transformer (1) | 2020.10.21 |
---|---|
[NLP] LSTM, GRU의 한계와 Attention 등장(201015) (0) | 2020.10.15 |
GPT- 한국어 적용 (0) | 2020.08.13 |
코드 해석하는 AI (0) | 2020.08.07 |
GPT3 (0) | 2020.08.07 |
댓글