2024. 1. 22. 16:56ㆍ인공지능/머신러닝 이론
단순 선형 회귀
단순 선형 회귀(Simple Linear Regression)는 하나의 특성과 연속적인 타깃 사이의 관계를 모델링한다. 이를 수식으로 나타내면 위와 같다. 흔히 보던 일차방정식의 수식과 다를 것이 없다. 즉 특성과 타깃의 관계를 가장 잘 나타내는 직선 그리와 같다. 위 수식을 굳이 풀어쓰자면, b는 y 절편을 뜻하고 w1은 가중치를 뜻한다. 쉽게 생각하여, 단순 선형 회귀의 목적은 타깃을 가장 잘 예측하는 적절한 w와 b 값을 찾는 것이다.
단순 선형 회귀 모델의 학습
위 그림 1.A에서 세가지 직선 A, B, C 중에서 어느 직선이 타깃을 가장 잘 예측한다고 생각하는가. 샘플들의 중간을 가로지르는 B가 특성과 타깃 사이의 관계를 가장 잘 나타낸다고 여길 것이다. 어림짐작이 아닌, 수식으로 이러한 직선을 구하는 방법으로는 무엇이 있는가.
선형 회귀 직선 모델의 파라미터를 추정하는 방법을 최소 제곱법(Ordinary Least Squares, OLS)이나 선형 최소 제곱법(Linear Least Squares)등으로 이야기한다. 최소 제곱법의 손실함수로 MSE, 최적화 함수로 경사하강법을 사용한다. 이렇게 단순 선형 회귀 모델은 오차(Offset, Residual 등으로 부름)의 제곱의 합이 최소가 되는 방향으로 가중치를 학습한다.
'인공지능 > 머신러닝 이론' 카테고리의 다른 글
비전데이터 딥러닝 - Image Classification, Linear Classification (1) | 2024.11.11 |
---|---|
머신러닝 - 11. 랜덤 포레스트(Random Forest) (1) | 2024.01.17 |
머신러닝 - 10. 결정 트리 (Decision Tree) (0) | 2024.01.16 |
머신러닝 - 9. K-최근접 이웃 알고리즘(K-Nearest Neighbor, KNN) (0) | 2024.01.15 |
머신러닝 - 8. 서포트 벡터 머신(Support Vector Machine, SVM) (0) | 2024.01.15 |