- 선형회귀는 n차원의 벡터를 입력받아 m차원의 벡터를 반환할 때
- Ex. 키와 몸무게의 관계
- 로지스틱 회귀는 n차원의 벡터를 입력받아 m개의 불리언(참/거짓)을 반환할 때
- Ex. 키 몸무게 등의 신상 정보가 주어졌을 때, 그 사람은 남자인가?라는 물음에 답을 구하기 위함
- 선형함수와 거의 차이가 없지만 시그모이드함수(활성함수)를 넣는다는 점에서 좀 다름
→ 시그모이드함수는 학습을 위한 가중치 파라미터는 없으므로, 가중치 파라미터의 크기는 선형회귀 모델과 같다.
→ 활성함수(시그모이드함수)는 0~1사이 값 반환
→ 그러면 대충 0.5를 기준으로 크면 예스 작으면 노라고 결정지어도 되겠지.(이런 프로세스)

로지스틱 회귀 모델의 학습

- n차원의 벡터 N개를 모델에 통과시킴
- N개의 m차원 벡터가 출력됨
- N개의 정답과 출력벡터를 비교해 손실값 계산
→ 이때는 MSE를 안쓰고 다른거 씀
- 아무튼, 선형회귀와 마찬가지로 이 손실값을 작게 만들기 위해 가중치 파라미터로 미분하는 경사하강법을 수행할 수 있게됨
- 점진적으로 손실이 작아지면 구하고자 하는 함수 $f$에 근사하는 함수를 알 수 있게 됨
로지스틱 회귀의 의미