pca (2) 썸네일형 리스트형 [선형대수학] 선형대수와 머신 러닝 2 [주성분 분석과 차원 축소] 주성분 분석$($PCA$)$는 데이터의 차원을 축소하여 데이터를 간결하고 효율적으로 표현하는 데에 사용되는 중요한 머신 러닝 알고리즘입니다. 이번 포스팅에서는 PCA의 개념과 선형대수학의 기법인 고유값 분해$($Eigenvalue Decomposition$)$와 특이값 분해$($SVD$)$를 활용하여 데이터를 차원 축소하는 방법을 자세히 알아보겠습니다. 1. PCA의 개념: PCA는 고차원의 데이터를 새로운 축$($주성분$)$으로 변환하여 데이터의 분산을 최대한 보존하는 차원 축소 기법입니다. 주성분은 데이터의 분산이 가장 큰 방향 벡터로, 데이터를 가장 잘 설명하는 축입니다. PCA는 데이터의 차원을 줄이면서도 원본 데이터의 중요한 특성을 최대한 유지하여 노이즈를 감소시키고, 데이터를 시각화하거나 머신.. [선형대수학] 선형대수와 머신 러닝 0 수학적 토대로 더 나은 예측 모델 구축하기 선형대수학은 머신 러닝에 필수적인 수학적 토대 중 하나입니다. 이 블로그 포스트에서는 선형대수학이 머신 러닝에서 어떻게 활용되는지 다양한 예시와 함께 알아보겠습니다. 선형대수학이 제공하는 강력한 도구들은 머신 러닝 알고리즘의 개선과 데이터 분석의 효율성 증대에 큰 기여를 합니다. 1. 선형 회귀$($Linear Regression$)$: 선형 회귀는 입력 변수와 출력 변수 간의 선형 관계를 모델링하는 데에 자주 사용됩니다. 선형 회귀 모델은 선형대수학의 기본 개념을 활용하여 최적의 회귀선을 찾습니다. 특히, 최소제곱법$($Least Squares Method$)$은 잔차의 제곱합을 최소화하여 가장 잘 맞는 회귀선을 찾는데 사용됩니다. * 잔차$($residual.. 이전 1 다음