HyunMaru Self_Study

  • 홈
  • 태그
  • 방명록

CVPR 1

Distilling Knowledge via Knowledge Review 논문 리뷰

논문 제목 : Distilling Knowledge via Knowledge Review 컨퍼런스 : 2021 CVPR 저자 : Pengguang Chen et al 대학 : The Chinese Univ. of HongKong 영단어 negligible : 너무 작아서 신경쓰지 않아도될 것 intriguingly : interestingly 와 같은 의미로 흥미롭게도 consecutive : 연속적인 초록 지금까지는 feature transformation 및 loss function에 초점을 맞췄다면, 본 논문은 connection path cross levels의 factor에 대해 연구하려고 함. KD의 첫걸음으로 cross-stage connection path가 제안됨. 우리의 새로운 revi..

논문 리뷰 2024.02.29
이전
1
다음
더보기
프로필사진

연세대학교 일반대학원 석사과정 Yonsei Univ. AISLAB

  • 분류 전체보기 (28)
    • 밑바닥부터 시작하는 딥러닝 (2)
    • 앱개발 with Flutter (4)
    • 논문 리뷰 (7)
    • 백준에 대가리 깨지는중 (15)
    • Network Coding With Python (0)

Tag

Class-aware Information for Logit-based Knowledge Distillation, Distilling Knowledge via Knowledge Review, 백준, Logit-based Distillation, Knowledge Distillation, 실버1, 출력값에 대한 지식증류, Laplacian Matrix, 지식 증류, Spatial Convolution, Graph Fourier Transform, Chebyshev Polynomials, 딥러닝, 경량화, 지식증류, 2021 CVPR, 가장 가까운 세 사람의 심리적 거리, Distillation from logits, Spectral Convolution, Decoupled Knowledge Distillation,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바