HyunMaru Self_Study

  • 홈
  • 태그
  • 방명록

Logit-based Distillation 1

Class-aware Information for Logit-based Knowledge Distillation 논문 리뷰

논문 제목 : Class-aware Information for Logit-based Knowledge Distillation 컨퍼런스 : ?? 저자 : Shuoxi Zhang, Hanpeng Liu 대학 : School of Computer Science and Technology Wuhan 초록 지금까지의 logit-based distillation은 instance level에서 다루었다면, 논문은 다른 의미적인 정보들을 간과했던 것들을 관찰해보려고함 논문은 간과점 문제를 다루기 위해 Class aware Logit KD(CLKD)를 제안함. 이는 instance-level과 class-level을 동시에 logit distillation하기 위한 모듈임 CLKD는 distillation perfo..

논문 리뷰 2024.03.08
이전
1
다음
더보기
프로필사진

연세대학교 일반대학원 석사과정 Yonsei Univ. AISLAB

  • 분류 전체보기 (28)
    • 밑바닥부터 시작하는 딥러닝 (2)
    • 앱개발 with Flutter (4)
    • 논문 리뷰 (7)
    • 백준에 대가리 깨지는중 (15)
    • Network Coding With Python (0)

Tag

가장 가까운 세 사람의 심리적 거리, Distilling Knowledge via Knowledge Review, 백준, 딥러닝, Spatial Convolution, 경량화, Spectral Convolution, Chebyshev Polynomials, Knowledge Distillation, Distillation from logits, 출력값에 대한 지식증류, 실버1, Class-aware Information for Logit-based Knowledge Distillation, Decoupled Knowledge Distillation, 2021 CVPR, Graph Fourier Transform, 지식 증류, Laplacian Matrix, 지식증류, Logit-based Distillation,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바