고작 2주차인데, 뭔가 많다!
그런데, 여기서 끝이 아니라 뒤에 좀 더 있다!!!
다시 한 번 느꼈지만, 이 책은 절대 초보자를 위한 책이 아니다 !!!
03-1. K-최근접 이웃 회귀 (K-NN Regression)
- n_neighbors 파라미터를 이용하여 최근접 이웃과의 거리 평균을 이용하여 회귀
- 과대적합 vs. 과소적합
- n_neighbors 값 변경을 통해 과대적합, 과소적합 이슈 해결
03-2. 선형 회귀 (Linear Regression)
- coef_, intercept_
- 과대/과소 적합 이슈 → 다항 회귀
03-3. 특성공학과 규제
- 다항 특성 만들기 : PolynomialFeatures
- 규제 전에 표준화 : StadardScaler
- Ridge & Lasso
기본 숙제
동영상 강의에 얼추 나와있는 내용이라 어렵지 않다 ^^
n_neioghbors 값을 바꿔가면서 예측하고, 이것을 그래프로 표현하면 된다.
눈으로 봐도 얼추 5값이 적당하지 싶다~
추가 숙제
[ 모델 파라미터에 대해 설명하기 ]
파라미터는 머신러닝 및 딥러닝 모델의 핵심 요소로써,
모델이 데이터를 통해 학습하고 예측을 수행하는 데 필요한 내부 변수들을 의미한다.
이 값들을 적절히 조정하게 되면 모델은 주어진 문제를 효과적으로 해결할 수 있게 된다.
K-최근접 이웃 회귀(K-NN Regression) 챕터에서 n_neighbors 값을 조정하면서
과대적합이나 과소적합 문제를 완화하는 과정을 앞에서 살펴보았는데
여기에서 n_neighbors가 바로 모델 파라미터 중 하나이다.
반응형
'Books' 카테고리의 다른 글
[혼공머신] 4주차 - CH05. 트리 알고리즘 (0) | 2024.07.30 |
---|---|
[혼공머신] 3주차 - CH04. 다양한 분류 알고리즘 (0) | 2024.07.22 |
[혼공머신] 1주차 - CH02. 데이터 다루기 (0) | 2024.07.07 |
[혼공머신] 1주차 - CH01. 나의 첫 머신러닝 (0) | 2024.07.07 |
[혼공데분] 6주차_복잡한 데이터 표현하기 (0) | 2024.02.09 |