loss fucntion 손실 함수.

  • 신경망의 성능의 "나쁨"을 나타냄.
  • 보통 loss 함수, cost 함수라고 불림.

평균 제곱 오차 mean squared error, MSE

  • y = 신경망 출력 값.
  • t = 정답 레이블.
  • k = 데이터 차원의 수.
def mean_squared_error(y, t):
   return 0.5 * np.sum((y-t)**2)


교차 엔트로피 오차 cross entopy error, CEE

  • log = 밑이 e 인 자연로그.
  • y  = 신경망 출력 값.
  • t = 정답 레이블

def cross_entropy_error(y,t):

delta = 1e - 7

return -np.sum(t * np.log(y + delta))


'Study > Deep Learning' 카테고리의 다른 글

Softmax fuction 소프트맥스 함수  (0) 2018.08.08
Gradient Descent Optimiztion  (0) 2018.07.18
CNN MNIST Example Tensorflow  (0) 2018.07.04
Batch Normalization Tensorflow  (4) 2018.07.03
NIN tensorflow cifar-10  (0) 2018.07.02

+ Recent posts