개발학습일지

[AI] 딥러닝 인공지능 학습시킬 때 에포크(epoch)와 배치사이즈(batch_size) 설정 본문

AI/Deep Learning

[AI] 딥러닝 인공지능 학습시킬 때 에포크(epoch)와 배치사이즈(batch_size) 설정

처카푸 2024. 4. 17. 17:45

에포크(epoch)와 배치사이즈(batch_size)

 

batch_size= n

- n 자리에 한번 학습할때 몇개의 데이터를 넣어 학습할지 값을 입력

- 메모리의 한계와 속도 저하 때문에 대부분의 경우에는 한 번의 epoch에서 모든 데이터를 한번에 집어넣을 수 없다

  그래서 데이터를 나누어 주는데 이때 몇 번 나누어 주는가를 iteration이라고 부르며,

  각 iteration마다 주는 데이터 사이즈를 batch size라고함

 

epochs= n

- n 자리에 해당 데이터를 몇번 반복해서 학습할지 값을 입력

- 한 번의 epoch는 신경망에서 전체 데이터 셋에 대해 forward pass(->)/backward pass(<-)과정을 거친 것을 말한다

  즉, 에포크 한번은 전체 데이터 셋에 대해 한 번 학습을 완료한 상태이다

 

인공지능 model 을 학습(fit) 해보자

# 데이터를 10개씩 나눠서 20번을 반복한다
model.fit(X_train, y_train, batch_size= 10, epochs= 20)

model.fit(X_train, y_train, batch_size= 10, epochs= 20)