본문 바로가기 메뉴 바로가기

Let IT Begin

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Let IT Begin

검색하기 폼
  • 분류 전체보기 (631) N
    • Music (20)
      • 이달슈 (3)
      • Review (11)
      • Guide (6)
    • 결산 (39)
      • 2020's (9)
      • 2010's (10)
      • 2000's (10)
      • 1990's (10)
    • Paper (538) N
      • TTS (186) N
      • SVS (25)
      • ASR (12)
      • Vocoder (73)
      • Conversion (62)
      • Neural Codec (56) N
      • Language Model (36) N
      • Representation (50)
      • Verification (6)
      • Separation (6)
      • ETC (26)
    • Algorithm (34)
  • 방명록

fithubert (1)
반응형
[Paper 리뷰] FitHuBERT: Going Thinner and Deeper for Knowledge Distillation of Speech Self-Supervised Learning

FitHuBERT: Going Thinner and Deeper for Knowledge Distillation of Speech Self-Supervised LearningSelf-supervised learning은 computational cost 측면에서 한계가 있음FitHuBERTTime-Reduction layer를 사용하여 inference time을 개선Hint-based Distillation을 통해 performance degradation을 방지논문 (INTERSPEECH 2022) : Paper Link1. IntroductionLarge-scale speech Self-Supervised Learning (SSL)은 speech-only data를 pre-training에 활용할 ..

Paper/Representation 2025. 5. 8. 17:45
반응형
이전 1 다음
이전 다음
최근에 올라온 글
최근에 달린 댓글
«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30
Total
Today
Yesterday

Blog is powered by Tistory / Designed by Tistory

티스토리툴바