에포크(epoch)와 배치사이즈(batch_size)
batch_size= n
- n 자리에 한번 학습할때 몇개의 데이터를 넣어 학습할지 값을 입력
- 메모리의 한계와 속도 저하 때문에 대부분의 경우에는 한 번의 epoch에서 모든 데이터를 한번에 집어넣을 수 없다
그래서 데이터를 나누어 주는데 이때 몇 번 나누어 주는가를 iteration이라고 부르며,
각 iteration마다 주는 데이터 사이즈를 batch size라고함
epochs= n
- n 자리에 해당 데이터를 몇번 반복해서 학습할지 값을 입력
- 한 번의 epoch는 신경망에서 전체 데이터 셋에 대해 forward pass(->)/backward pass(<-)과정을 거친 것을 말한다
즉, 에포크 한번은 전체 데이터 셋에 대해 한 번 학습을 완료한 상태이다
인공지능 model 을 학습(fit) 해보자
# 데이터를 10개씩 나눠서 20번을 반복한다
model.fit(X_train, y_train, batch_size= 10, epochs= 20)
'MACHINE | DEEP LEARNING > Deep Learning Project' 카테고리의 다른 글
[AI] 딥러닝 ANN 수치 예측 TensorFlow Regression 문제 모델링 (0) | 2024.04.17 |
---|---|
[AI] 딥러닝 최적의 하이퍼 파라미터 찾기 _TensorFlow GridSearch (0) | 2024.04.17 |
[AI] 딥러닝 더미 베리어블 트랩 (Dummy variable trap) (0) | 2024.04.17 |
[AI] 딥러닝 분류의 문제 ANN TensorFlow 모델링 (0) | 2024.04.17 |
[AI] 딥러닝 Oprimizer 종류 (0) | 2024.04.16 |