AI/DeepLearning
[밑바닥부터 시작하는 딥러닝1] 밑딥 스터디 CH3 정리
메이데이!
2024. 7. 24. 23:26
반응형
활성화함수
시그모이드 함수
- $h(x) = 1/1+exp(-x)$
- 시그모이드와 계단함수의 차이점 : 매끄러움. 계단함수는 0 or 1의 값을 돌려주지만, 시그모이드 함수는 0과 1 사이의 연속적인 값을 가지고 있음.
ReLU 함수
- Rectified linear Unit
- 입력이 0 이상이면 값을 그대로 사용, 0 이하면 0을 출력
def relu(x):
return np.maximum(0, x)
*배열의 차원 수 : np.ndim() 함수로 확인 가능
반응형