loss fucntion 손실 함수.
- 신경망의 성능의 "나쁨"을 나타냄.
- 보통 loss 함수, cost 함수라고 불림.
평균 제곱 오차 mean squared error, MSE
- y = 신경망 출력 값.
- t = 정답 레이블.
- k = 데이터 차원의 수.
def mean_squared_error(y, t):
return 0.5 * np.sum((y-t)**2)
교차 엔트로피 오차 cross entopy error, CEE
- log = 밑이 e 인 자연로그.
- y = 신경망 출력 값.
- t = 정답 레이블
def cross_entropy_error(y,t):
delta = 1e - 7
return -np.sum(t * np.log(y + delta))
'Study > Deep Learning' 카테고리의 다른 글
Softmax fuction 소프트맥스 함수 (0) | 2018.08.08 |
---|---|
Gradient Descent Optimiztion (0) | 2018.07.18 |
CNN MNIST Example Tensorflow (0) | 2018.07.04 |
Batch Normalization Tensorflow (4) | 2018.07.03 |
NIN tensorflow cifar-10 (0) | 2018.07.02 |