728x90
머신러닝에 필요한 기초적인 수학 공부를 하기 위해 "선형대수와 통계학으로 배우는 머신러닝 with 파이썬" 이라는 책을 읽고 블로그에 요약해보고자 합니다. 오직 제 개인적인 공부 공간으로 사용할 목적으로 포스팅을 할 예정이니 자세한 내용이 궁금하신 분들은 아래 표지 책을 구매하여 공부하시길 바랍니다.

이전 포스팅 >>>>> https://chaeso-coding.tistory.com/139
[ML 책] 스칼라, 벡터, 행렬, 텐서, 행렬 곱, 행렬 원소곱, 행렬식, 역행렬
머신러닝에 필요한 기초적인 수학 공부를 하기 위해 "선형대수와 통계학으로 배우는 머신러닝 with 파이썬" 이라는 책을 읽고 블로그에 요약해보고자 합니다. 오직 제 개인적인 공부 공간으로 사
chaeso-coding.tistory.com
[행렬간 닮음 similar]
- P−1AP=B를 만족하는 가역행렬 invertible matrix P가 존재할 때, 정사각 행렬 A,B는 서로 닮음 이라 함 (orthogonally similar)
[직교 대각화 orthogonal diagonalization]
- 대각 행렬 D에 대해 P−1AP=D를 만족하는 직교 행렬 P가 존재하는 경우, 직교 행렬 P는 A를 직교대각화한다고 함
- 또한, A는 직교 대각화 가능 orthogonally diagonalizable 하다 함
*직교 대각화의 조건*
- 행렬 A가 직교 대각화 가능하려면 A는 반드시 대칭행렬이어야 함
- A=AT
- 우리가 아는 유명한 대칭 행렬은 공분산 행렬이 있음
[고유값 eigen value]
- 특성 값을 말함
- 선형 변환 이후 변환된 크기
[고유벡터 eigen bector]
- 특성 벡터를 말함
[고유값 분해 eigen value decomposition]
- 직교대각화 한 종류로, 행렬을 고유벡터, 고유값의 곱으로 분해하는 것을 고유값 분해라고 한다.
- P를 고유값 분해에서는 고유 벡터를 이용해 만든다.
- 고유값은 대각 행렬의 원소에 해당한다
(σ11σ12σ13σ21σ22σ23σ31σ32σ33)=(μ1μ2μ3)(λ1000λ2000λ3)(μT1μT2μT3)=PDPT
- λ1,λ2,λ3는 고유값
- μ1,μ2,μ3는 고유벡터
- n 차원으로 일반화 가능
[고유값과 고유벡터가 중요한 이유]
- 정방행렬 n×n인 A는 임의의 벡터 n×1인 x의 방향과 크기를 변화시킬 수 있으며 수 많은 벡터 x 중 어떤 벡터들은 A에 의해 선형 변환 되었을 때 원래 벡터와 평행하다.
- 이렇듯 Ax가 원래 x에 상수 λ를 곱한 것과 같을 때의 x를 고유벡터, λ를 고유값이라 한다.
- A는 선형변환
- Ax=λx
- 그림과 같이 x1는 A에 의해 변환되었음에도 x1과 평행하며 x1은 고유벡터이다.

- 고유값과 고유벡터를 통해 A를 고유값과 고유벡터로 분해하는 고유값 분해, 특이값 분해, 주성분분석에 활용되므로 중요하다.
728x90
'STUDY > 인공지능' 카테고리의 다른 글
[ML 책] 차원 축소, 차원의 저주 (0) | 2023.06.27 |
---|---|
[ML 책] 특이값 분해 (0) | 2023.06.27 |
[ML 책] 스칼라, 벡터, 행렬, 텐서, 행렬 곱, 행렬 원소곱, 행렬식, 역행렬 (0) | 2023.06.20 |
[ML 책] 지도 학습과 비지도 학습의 목적과 차이, 파라미터와 하이퍼 파라미터의 차이 (0) | 2023.06.20 |
[ML 책] 엔트로피, 크로스 엔트로피, KL Divergence, Negative log Likelihood (0) | 2023.06.19 |