=삭제
과제 탐색의 방식
=삭제
합성곱 신경망 (CNN) 구조
=몇 개의 합성곱 + 풀링 + 합성곱 + 풀링 단계를 거친다
=이미지의 크기는 줄어들고 논리는 깊어진다
CNN이 DNN보다 우수한점
=연속된 층이 부분적으로 연결되어 있는 많은 가중치를 재사용하기 때문에 DNN보다 적은 Parameter 를 가짐
=속도는 빠르고 과대 적합 위험이 적고 적은 훈련 data가 필요하다
=어떤 특성을 감지하는 커널 학습시 이미지의 어느 위치에 있어도 감지가 된다
=이미지는 보통 패턴이 반복되기 때문에 이미지 처리 작업에 적은수의 샘플로 dnn보다 높은 일반화 성능을 보인다
CNN – LeNet-5
=CNN을 처음 개발한 연구팀이 개발한 알고리즘
=Input, 3개의 convolution layer c1,c3,c5 2개의 서브 샘플링 레이어 s2,s4 1층의 full connected 레이어 f6 아웃풋 레이어로 구성 되어있음
각 Layer 설명
AlexNet
특징각 Layer 설명
C1 |
입력영상을 6개의 5*5 필터와 컨볼루션 연산을 해준다, 6장의 28*28 특성 맵을 얻게 된다 |
S2 |
6장의 28*28 특성맵에 서브샘플링 진행, 14*14사이즈의 특성맵으로 축소됨 2*2 필터를 STRIDE 2로 설정해주기 때문, 서브샘플링 방법은 Average pooling 진행 |
C3 |
6장의 14*14 특성맵에 컨볼루션 연상을 수행해서 16장,6+6+3+1 의 10*10특성맵 산출 |
S4 |
16장의 10*10특성맵에 대해 서브샘플링을 진행 5*5 특성맵으로 축소 |
C5 |
16장이 5*5 특성맵을 120개 5*5*16사이즈의 필터와 컨볼루션 해준다 |
F6 |
84개의 유닛을 가진 피드포워드 신경망, c5결과를 84개 유닛에 연결시킴 |
OUTPUT |
10개의 RBF 유닛, 최종적으로 이미지가 속한 클래스를 알려준다 |
Parameter |
LeNet-5 가동의 총 파라미터는 156+12+1516+32+48120+10164=60000개가 된다 |
AlexNet
=시간이 지날수록 에러율이 떨어진다
=Full color 환경에서 작동된다
=병렬연산을 하기 때문에 later에도 층이 있다
=GPU를 사용한다
=Parameter가 6000만개로 LeNet-5보다 1000배가 많이 있다
댓글 없음:
댓글 쓰기