[딥러닝 실습] Loss function
좋은 신경망이란 무엇일까? loss function이 작은것도 하나의 답이 될 수 있을것같다. 1. MSE(평균 제곱 오차) 2. 교차 엔트로피 오차 에 대해서 공부했다. 수식은 생략하겠다. import numpy as np #평균 제곱 오차 MSE def mean_squared_error(y,t): return 0.5 * np.sum((y-t)**2) #y는 나의 예측값 t는 실제값이라고 볼 수 있다. t = [0,0,1,0,0,0,0,0,0,0] y = [0.1,0.05,0.1,0.1,0.1,0.1,0.1,0.1,0.0,0.5] ans = mean_squared_error(np.array(y),np.array(t)) print(ans) #0.56125 #교차 엔트로피 오차 cross entropy e..
2020. 4. 24.
[딥러닝 실습] 활성화 함수 연습(step, sigmoid ,relu function)
#활성화 항수(step fuction, sigmoid 그려보기) import numpy as np import matplotlib.pyplot as plt def step_function(x): y = x>0 return y.astype(np.int) #astype(np.xx)는 xx형태로 타입을 바꿔주는것 def sigmoid(x): return 1/(1 + np.exp(-x)) def rulu(x): return np.maximum(0,x) x = np.arange(-5.0,5.0,0.01) y1 = step_function(x) y2 = sigmoid(x) plt.plot(x,y1,"r",label ="step function") plt.plot(x,y2,"b",label ="sigmoid func..
2020. 4. 14.