딥러닝최적화

· TIL
model.compile(loss='mse', optimizer='adam') 딥러닝을 최적화 하여 훈련 시킬때에 사용되는 optimizer 알고리즘을 알아봅니다. Optimizer 딥러닝 모델을 학습 시키면서 어떻게 최적값을 찾을까요. 최적화에 사용되는 알고리즘들을 알아 보고 왜 adam 을 자주 사용하는 지 알아봅니다. 1. Gradient Descent (GD) : 기울기의 최솟값을 찾는다 딥러닝 학습을 한다는거 쉽게 생각하면 미분을 계속해서 최적의 가중치와 편향값을 찾아내는것입니다. Gradient Descent는 이런 미분하는 과정에서 함수의 기울기(즉, gradient)를 이용하여 x의 값을 어디로 옮겼을 때 함수가 최소값을 찾는지 알아보는 방법입니다. 이 방법에는 문제점이 있습니다. 1. 극..
엥이게되네
'딥러닝최적화' 태그의 글 목록