HyunMaru Self_Study

  • 홈
  • 태그
  • 방명록

지식증류 2

Class-aware Information for Logit-based Knowledge Distillation 논문 리뷰

논문 제목 : Class-aware Information for Logit-based Knowledge Distillation 컨퍼런스 : ?? 저자 : Shuoxi Zhang, Hanpeng Liu 대학 : School of Computer Science and Technology Wuhan 초록 지금까지의 logit-based distillation은 instance level에서 다루었다면, 논문은 다른 의미적인 정보들을 간과했던 것들을 관찰해보려고함 논문은 간과점 문제를 다루기 위해 Class aware Logit KD(CLKD)를 제안함. 이는 instance-level과 class-level을 동시에 logit distillation하기 위한 모듈임 CLKD는 distillation perfo..

논문 리뷰 2024.03.08

Decoupled Knowledge Distillation 논문 리뷰

논문 제목 : Decoupled Knowledge Distillation Contribution 기존 KD를 TCKD(Target Class Knowledge Distillation), NCKD(Non-Target Class Knowledge Distllation) 로 나누어 logit distllation의 insight 제공 한쌍의 공식으로 되어있는 기존 KD Loss의 한계점을 드러냄. Teacher의 Confidence Score와의 Coupling NCKD로 지식 전이의 효과가 억압됨. 그리고 TCKD와 NCKD의 결합은 두 부분의 균형 유연성을 제한시킴 효과적인 logit Distillation DKD를 제안 Feature-based Distillation 방법과 비교해서 DKD의 featur..

논문 리뷰 2024.02.23
이전
1
다음
더보기
프로필사진

연세대학교 일반대학원 석사과정 Yonsei Univ. AISLAB

  • 분류 전체보기 (28)
    • 밑바닥부터 시작하는 딥러닝 (2)
    • 앱개발 with Flutter (4)
    • 논문 리뷰 (7)
    • 백준에 대가리 깨지는중 (15)
    • Network Coding With Python (0)

Tag

Distillation from logits, Distilling Knowledge via Knowledge Review, 2021 CVPR, Spatial Convolution, 지식 증류, 가장 가까운 세 사람의 심리적 거리, 실버1, Graph Fourier Transform, Class-aware Information for Logit-based Knowledge Distillation, 딥러닝, 백준, 지식증류, Logit-based Distillation, Laplacian Matrix, 출력값에 대한 지식증류, Knowledge Distillation, Decoupled Knowledge Distillation, Spectral Convolution, 경량화, Chebyshev Polynomials,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바