SRGAN 관련된 튜토리얼을 번역하다가, ReLU에 비해 익숙하지 않을 PReLU에 대한 짧은 설명이 있으면 좋을 것이라 생각했다.
그 전에 어떤 activation function이 있었는지 아래의 이미지를 보면서 짧게 살펴보자.
다양한 activation function이 있고 각각의 조건을 통해 다음 레이어로 넘어갈 값들을 결정한다고 생각하면 된다.
ReLU의 경우에는 입력값이 음수이면 (x < 0) : 0, 양수이면 그 값: x 을 출력한다. PReLU는 어떨까?
PReLU는 입력값이 음수이면 (x < 0) α를 곱해주고 : αx, 양수이면 그 값: x 을 출력한다. 이미지로 본다면 아래와 같다.
Parameter로 사용되는 α를 학습시킨다. α는 상수가 아닌 미지수이므로 계속 바뀐다.
상수가 아니므로 각 레이어마다 알맞는 α를 학습시킬 수 있는 장점이 있다.
'DL|ML' 카테고리의 다른 글
케라스에서 fit(), fit_generator(), train_on_batch()의 차이점 (0) | 2020.06.12 |
---|---|
Checkerboard Artifacts 체커보드 아티팩트 (0) | 2020.05.28 |
트와이스 사나 Twitter 데이터 크롤해서 일본어 데이터 시각화하기 (2) | 2020.04.10 |
NLP에서 Downstream task 란 무엇일까? (0) | 2020.02.03 |
KoNLPy, mecab 설치하기 (ubuntu 16.04) (8) | 2019.12.11 |