Analytic Geometry 해석 기하학
- norm(놈) : 벡터의 시점과 종점 사이의 거리(벡터의 크기)
* notation : $\left\|\bullet\right\|$ ## $\left\|x\right\|$는 x의 norm. x가 (3,0)이면 3
- L1(맨해튼, 격자거리), L2(유클라디안, 직선거리 ex) 피타고라스 정리). 일반적으로 L2씀
- Inner Products(내적곱) : 벡터가 직교하는지 판단하는 것(얼마나 같은 곳을 보고 있는가). 같은 방향일수록 크고 직각일수록 작음=아예 안닯았다!(반대방향은 음의 방향으로 닮은 것!!)
## 내적 >= dot product(점곱) = inner product = scalar product(스칼라곱)
각 요소끼리 곱해서 더한 값 $a^{T}b$ = $\left\|a\right\|$$\left\|b\right\|$$\mathit{cos}\theta$ = 하나의 벡터에 정사영 내리고 곱한 것
벡터 a가 벡터 b방향의 값을 ~만큼 갖고있다
* 단위벡터(unit vector) : 크기가 1인 벡터(방향만 나타내는 벡터 a / $\sqrt{a^{T}a}$)
## $a^{T}b$ - 굳이 T를 붙인 이유는 그냥 쓰면 열벡터(column)를 나타내기때문에 행벡터임을 표기하기 위해
- 내적의 목적은 벡터가 서로 직교(orthogonal)하는지 ## 직각인지 = 서로 독립인지(충분조건. 필요조건X)
## independet >= orthogonal. 사실 indep만해도 vector space 확장 가능!!
- 쌍선형사상(Bilinear Mapping) : 선형인 2개의 벡터를 받아서 1개의 실수로 Mapping ## .... 뭔소리냐이게
-
'수학' 카테고리의 다른 글
| [MML] mathematics for machine learning 시작 (5) | 2024.11.18 |
|---|---|
| [MML] 2. Linear Algebra 80% ★★ (7) | 2024.11.18 |
| Machine Learning notation (8) | 2024.11.11 |