→ 시그모이드함수는 학습을 위한 가중치 파라미터는 없으므로, 가중치 파라미터의 크기는 선형회귀 모델과 같다.

→ 활성함수(시그모이드함수)는 0~1사이 값 반환

→ 그러면 대충 0.5를 기준으로 크면 예스 작으면 노라고 결정지어도 되겠지.(이런 프로세스)

Untitled

로지스틱 회귀 모델의 학습

Untitled

  1. n차원의 벡터 N개를 모델에 통과시킴
  2. N개의 m차원 벡터가 출력됨
  3. N개의 정답과 출력벡터를 비교해 손실값 계산

→ 이때는 MSE를 안쓰고 다른거 씀

  1. 아무튼, 선형회귀와 마찬가지로 이 손실값을 작게 만들기 위해 가중치 파라미터로 미분하는 경사하강법을 수행할 수 있게됨
  2. 점진적으로 손실이 작아지면 구하고자 하는 함수 $f$에 근사하는 함수를 알 수 있게 됨

로지스틱 회귀의 의미