어느덧 벌써 4장을 공부하고 있는 3주차가 되었다.
만날 일요일 밤에 벼락치기하고 있는 불량한 참가자 신세이지만....
이렇게라도 공부하려하는 스스로를 기특해 해야지 !!!!! 쓰담~ 쓰담~
04-1 로지스틱 회귀 (Logistic Regression)
- 분류 (Classifier) 모델
- vs. KNeighborClassifier
- 이진 분류 : 시그모이드(Sigmoid)
- 다중 분류 : 소프트맥스(Softmax), parameter C
04-2 확률적 경사 하강법 (Stochastic Gradient Descent)
- 점진적 학습 → 확률적 경사 하강법
- 손실함수 (loss function)
- 로지스틱 손실 함수 (logistic loss function, Binary Cross-Entropy loss function)
- partial_fit()
가제트 형사를 그려주신 것 같은데... MZ(GenZ?) 분들은 아시려나!? ㅋㅋㅋ
Homework
[기본 숙제]
- ① 시그모이드 함수(Sigmoid Function)
→ 기본적으로 선형 함수만 사용하는 경우 결과값이 너무 커지거나 너무 작아질 수 있으므로
비선형 함수를 이용하여 값을 수렴하게 만드는 것이 계산하기에 용이해진다.
이 때, 로지스틱 회귀에서 이진 분류를 사용하는 경우 시그모이드 함수를 이용하면
0에서 1사이의 값으로 변환이 되며, 0.5를 기준으로 0과 1로 결과를 판단하기에 적합하다.
[추가 숙제]
반응형
'Books' 카테고리의 다른 글
[혼공머신] 5주차 - CH.06 비지도 학습 (0) | 2024.08.16 |
---|---|
[혼공머신] 4주차 - CH05. 트리 알고리즘 (0) | 2024.07.30 |
[혼공머신] 2주차 - CH03. 회귀 알고리즘과 모델 규제 (0) | 2024.07.14 |
[혼공머신] 1주차 - CH02. 데이터 다루기 (0) | 2024.07.07 |
[혼공머신] 1주차 - CH01. 나의 첫 머신러닝 (0) | 2024.07.07 |