HyunMaru Self_Study

  • 홈
  • 태그
  • 방명록

Logit-based Distillation 1

Class-aware Information for Logit-based Knowledge Distillation 논문 리뷰

논문 제목 : Class-aware Information for Logit-based Knowledge Distillation 컨퍼런스 : ?? 저자 : Shuoxi Zhang, Hanpeng Liu 대학 : School of Computer Science and Technology Wuhan 초록 지금까지의 logit-based distillation은 instance level에서 다루었다면, 논문은 다른 의미적인 정보들을 간과했던 것들을 관찰해보려고함 논문은 간과점 문제를 다루기 위해 Class aware Logit KD(CLKD)를 제안함. 이는 instance-level과 class-level을 동시에 logit distillation하기 위한 모듈임 CLKD는 distillation perfo..

논문 리뷰 2024.03.08
이전
1
다음
더보기
프로필사진

연세대학교 일반대학원 석사과정 Yonsei Univ. AISLAB

  • 분류 전체보기 (28)
    • 밑바닥부터 시작하는 딥러닝 (2)
    • 앱개발 with Flutter (4)
    • 논문 리뷰 (7)
    • 백준에 대가리 깨지는중 (15)
    • Network Coding With Python (0)

Tag

2021 CVPR, 백준, Distilling Knowledge via Knowledge Review, Knowledge Distillation, Decoupled Knowledge Distillation, Spectral Convolution, Spatial Convolution, 딥러닝, Distillation from logits, 지식 증류, Chebyshev Polynomials, 경량화, 출력값에 대한 지식증류, 가장 가까운 세 사람의 심리적 거리, 지식증류, Logit-based Distillation, Laplacian Matrix, Class-aware Information for Logit-based Knowledge Distillation, 실버1, Graph Fourier Transform,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바