HyunMaru Self_Study

  • 홈
  • 태그
  • 방명록

지식 증류 1

Distilling Knowledge via Knowledge Review 논문 리뷰

논문 제목 : Distilling Knowledge via Knowledge Review 컨퍼런스 : 2021 CVPR 저자 : Pengguang Chen et al 대학 : The Chinese Univ. of HongKong 영단어 negligible : 너무 작아서 신경쓰지 않아도될 것 intriguingly : interestingly 와 같은 의미로 흥미롭게도 consecutive : 연속적인 초록 지금까지는 feature transformation 및 loss function에 초점을 맞췄다면, 본 논문은 connection path cross levels의 factor에 대해 연구하려고 함. KD의 첫걸음으로 cross-stage connection path가 제안됨. 우리의 새로운 revi..

논문 리뷰 2024.02.29
이전
1
다음
더보기
프로필사진

연세대학교 일반대학원 석사과정 Yonsei Univ. AISLAB

  • 분류 전체보기 (28)
    • 밑바닥부터 시작하는 딥러닝 (2)
    • 앱개발 with Flutter (4)
    • 논문 리뷰 (7)
    • 백준에 대가리 깨지는중 (15)
    • Network Coding With Python (0)

Tag

2021 CVPR, Logit-based Distillation, Laplacian Matrix, Decoupled Knowledge Distillation, 백준, 딥러닝, 출력값에 대한 지식증류, 경량화, 가장 가까운 세 사람의 심리적 거리, 실버1, Graph Fourier Transform, Spectral Convolution, Spatial Convolution, Knowledge Distillation, Chebyshev Polynomials, Distillation from logits, Class-aware Information for Logit-based Knowledge Distillation, 지식 증류, Distilling Knowledge via Knowledge Review, 지식증류,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바