def numerical_gradient(f,x):
h = 1e-4
grad = np.zeros_like(x)
it = np.nditer(x, flags = ['multi_index'],op_flag= ['readwrite'])
while not it.finished:
idx = it.multi_index
tem_val = x[idx]
x[idx] = float(tmp_val)+h
fxh1 = f(x)
x[idx] = tem_val -h
fxh2 = f(x)
grad[idx] (fxh1 = fxh2) / (2*h)
x[idx] = tmp_val
it.iternext()
return grad
'Data Science > 머신러닝&딥러닝 기초 이론' 카테고리의 다른 글
[머신러닝] Linear Regression, Lasso, Ridge with python,sklearn (0) | 2021.04.19 |
---|---|
[딥러닝 실습] MNIST backpropagation 최고 성능 찾아보기 (learning rate, epoch 편) (0) | 2020.07.04 |
[딥러닝 실습] Loss function (0) | 2020.04.24 |
[딥러닝 실습] MNIST 손글씨 인식 실습하기 (0) | 2020.04.18 |
[딥러닝 실습] 활성화함수 Softmax 함수 (0) | 2020.04.14 |
댓글