개발학습일지
[AI] 딥러닝 미분 기울기의 이동 보폭 optimizer learning rate 셋팅 본문
텐서플로우 옵티마이저 런닝레이트(학습률) 셋팅하기
: learning rate란 미분 기울기의 이동 보폭(step) 이다
: 숫자가 적을수록 파라미터의 오차를 줄이는 숫자가 조금씩 내려간다
: 에포크 와 마찬가지로 Learning rate의 값이 적합하지 않을 경우, Overflow가 발생할 수 있다
- 모델 컴파일 할때 원래는 옵티마이져를 문자열로 불러왔지만,
함수로 불러오면 런닝레이트 파라미터를 직접 지정 할 수 있다
런닝레이트 파라미터의 디폴트 값은 0.001이다
def build_model() :
model = Sequential()
model.add(Dense(64, 'relu', input_shape=(X_train.shape[1],)))
model.add(Dense(64, 'relu'))
model.add(Dense(1, 'linear'))
# learning_rate을 셋팅하고 싶다면 문자열말고 tf.keras.optimizers.로 옵티마이저를 불러와 설정
model.compile( optimizer= tf.keras.optimizers.Adam(learning_rate=0.001), loss= 'mse', metrics= [ 'mae' ])
return model
'AI > Deep Learning' 카테고리의 다른 글
[AI] 딥러닝 인공지능 학습 중에 평가하기 validation (0) | 2024.04.17 |
---|---|
[AI] 딥러닝 epochs history 모델의 훈련 과정 시각화 _차트 (0) | 2024.04.17 |
[AI] 딥러닝 ANN 수치 예측 TensorFlow Regression 문제 모델링 (0) | 2024.04.17 |
[AI] 딥러닝 최적의 하이퍼 파라미터 찾기 _TensorFlow GridSearch (0) | 2024.04.17 |
[AI] 딥러닝 인공지능 학습시킬 때 에포크(epoch)와 배치사이즈(batch_size) 설정 (0) | 2024.04.17 |