오버피팅 : 학습 오차가 일반화 오차에 비해 현격하게 낮아지는 현상
언더피팅 : 모델이 충분히 데이터를 학습하지 못해 학습 오차가 충분히 낮지 않은 현상

: 모델의 최적화가 잘 진행된다면 언더피팅 → 오버피팅으로 가게 됨.
→ 즉, 초반에는 데이터의 중요한 피쳐들을 배우다가 나중엔 불필요한 피쳐까지 배우게 됨.
→ 오버피팅으로 전환되기 전에 학습을 멈춰야 함
→ 그러기 위해 검증 데이터셋을 도입

→ Valid set으로는 학습을 하지 않음!!!
→ Valid set에는 어떤 편향도 있어선 안됨!