본문 바로가기

논문 리뷰46

[GoogLeNet] 24.01.23 스터디 (논문) GoogLeNet은 2014년 ILSVRC에서 VGGNet을 제치고 우승을 차지한 모델이다.이름에서 알 수 있듯이 구글이 해당 모델 개발에 참여했다. 해당 논문을 통해 GoogLeNet의 구조와 특징을 알아보고 VGGNet과의 차별점을 알아보고자 한다. Introduction지난 3년간(2012~2015) CNN 분야 놀라운 속도로 발전이는 하드웨어 발전, 더 큰 데이터세트 뿐만 아니라 새로운 알고리즘에 대한 아이디어의 결과GoogLeNet은 AlexNet보다 12배 적은 매개변수 사용, but 더 정확(딥 아키텍처와 고전적인 컴퓨터비전의 시너지효과)GoogLeNet은 순수한 학문적 호기심을 넘어 알고리즘의 효율성(전력 및 메모리 사용량) 중요시 여김 이를 통해 Mobile 및 Embedded 환경에 적.. 2024. 1. 23.
[VGG] 24.01.23 스터디 (논문) VGGNet은 ILSVRC 2014 대회에서 2등을 차지한 CNN 모델로 네트워크의 깊이가 모델의 정확도 향상에 중요한 역할을 한다는 것을 보여줬다. VGGNet의 주요 특징은 아래와 같다.3X3 크기의 Conv 필터 고정적으로 사용16~19개 weight layers 사용(네트워크 깊이)Architecture1) Input data는 고정된 크기의 224 x 224 RGB 이미지유일한 사전 처리 작업은 train set에서 평균 RGB 값을 각 픽셀에서 빼는 것2) 3x3 크기의 Conv 필터 고정적으로 사용왼쪽/오른쪽, 위/아래, 중앙의 개념을 포착할 수 있는 가장 작은 크기stride= 1, padding= 11x1 Conv 필터도 사용 ->  layer 증가에 따른 비선형 함수 사용 빈도도 증가로.. 2024. 1. 21.
[LeNet] 24.01.19 스터디 (논문) II Convolutional Neural Networks for Isolated Character Recognition다층 신경망은 수많은 예제로부터 복잡하고 고차원의 비선형 매핑을 학습하기 위해 경사하강법을 사용전통적인 패턴 인식모델은 fully-connected 신경망을 분류기로 사용합니다. 일반적인 fuuly-connected network를 사용하여  문자 인식에 대해 일부 성공적으로 수행될 수 있지만 몇가지 문제점 존재 전형적인 2D 이미지는 크기가 크며 수 백개의 픽셀을 가지고 있어 fully-connected로 학습시키면 너무 많은 학습량, 학습시간, 많은 weight를 저장해야 할 hardware적인 요소가 필요fully-connected layer에 input을 할 시 3차원 데이터를 .. 2024. 1. 19.
[AlexNet] 24.01.16 스터디 (논문) AlexNet은 2012년 이미지 분류 대회에서 우승을 차지한 모델입니다.(해당 모델을 제안한 Alex Krizhevsky의 이름에서 따온 것)CNN을 사용한 딥러닝 구조에서 어떻게 많은 120만 개의 고해상도 이미지를 그 당시 기술로 처리를 하였고, 파라미터 수가 많은데 과적합 문제를 어떻게 해결했는지 알아볼 수 있는 논문입니다. 3. Architecture  3.1 ~ 3.4는 중요도 평가에 따라 정렬되어, 가장 중요한 것부터 설명합니다. 3.1 ReLU Nonlinearity일반적으로, 뉴런의 출력은 tanh나 sigmoid 활성화 함수를 거치곤 합니다.하지만, 이런 saturating nonlinearities를 사용하는 것보다 non-saturating nonlinearities 인 ReLU를 .. 2024. 1. 15.