본문 바로가기 메뉴 바로가기

Let IT Begin

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Let IT Begin

검색하기 폼
  • 분류 전체보기 (445) N
    • Music (14)
      • Review (10)
      • Guide (4)
    • 결산 (37)
      • 2020's (7)
      • 2010's (10)
      • 2000's (10)
      • 1990's (10)
    • Paper (360) N
      • TTS (135)
      • SVS (19)
      • ASR (6)
      • Vocoder (65)
      • Conversion (43) N
      • Neural Codec (23)
      • Language Model (20)
      • Representation (17) N
      • Verification (1)
      • Separation (6)
      • Signal Processing (6)
      • NAS (12)
      • ETC (7)
    • Algorithm (34)
      • Basic (34)
  • 방명록

2025/05/08 (1)
반응형
[Paper 리뷰] FitHuBERT: Going Thinner and Deeper for Knowledge Distillation of Speech Self-Supervised Learning

FitHuBERT: Going Thinner and Deeper for Knowledge Distillation of Speech Self-Supervised LearningSelf-supervised learning은 computational cost 측면에서 한계가 있음FitHuBERTTime-Reduction layer를 사용하여 inference time을 개선Hint-based Distillation을 통해 performance degradation을 방지논문 (INTERSPEECH 2022) : Paper Link1. IntroductionLarge-scale speech Self-Supervised Learning (SSL)은 speech-only data를 pre-training에 활용할 ..

Paper/Representation 2025. 5. 8. 17:45
반응형
이전 1 다음
이전 다음
최근에 올라온 글
최근에 달린 댓글
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Total
Today
Yesterday

Blog is powered by Tistory / Designed by Tistory

티스토리툴바