본문 바로가기 메뉴 바로가기

Let IT Begin

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Let IT Begin

검색하기 폼
  • 분류 전체보기 (509) N
    • Music (14)
      • Review (10)
      • Guide (4)
    • 결산 (38)
      • 2020's (8)
      • 2010's (10)
      • 2000's (10)
      • 1990's (10)
    • Paper (423) N
      • TTS (157) N
      • SVS (24)
      • ASR (8)
      • Vocoder (66)
      • Conversion (49)
      • Neural Codec (30) N
      • Language Model (23)
      • Representation (33) N
      • Verification (2)
      • Separation (6)
      • Signal Processing (6)
      • NAS (12)
      • ETC (7)
    • Algorithm (34)
      • Basic (34)
  • 방명록

2025/04/17 (1)
반응형
[Paper 리뷰] DistilHuBERT: Speech Representation Learning by Layer-Wise Distillation of Hidden-Unit BERT

DistilHuBERT: Speech Representation Learning by Layer-Wise Distillation of Hidden-Unit BERT기존 self-supervised speech representation learning method는 large memory와 high pre-training cost가 요구됨DistilHuBERTHuBERT에서 hidden representation을 directly distill 하는 multi-task learning framework이를 통해 HuBERT size를 75% 절감논문 (ICASSP 2022) : Paper Link1. IntroductionWav2Vec과 같은 speech representation에 대한 Self-Sup..

Paper/Representation 2025. 4. 17. 20:15
반응형
이전 1 다음
이전 다음
최근에 올라온 글
최근에 달린 댓글
«   2025/04   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30
Total
Today
Yesterday

Blog is powered by Tistory / Designed by Tistory

티스토리툴바