목차
Linear Algebra in Computer Vision
Image Understanding을 할 때 Image Description을 Vector로서 사용, Decision Making에서는 Fuction을 사용한다.
Vector
크기와 방향성을 가진 기하학적 object.
Vector Operations
Inner product (a.k.a. dot product): 두 개의 벡터 사이의 각도를 구함 $x^Ty$
Outer product: $R^{m*n}$
Norm
Vector의 length
p-norm: optimization 시, starcity를 보장해준다.
Linear Dependency
Basis
- Orthogonal
- Normalized: 본인과 본인을 곱할때 1이 나온다.
-> Basis Set
Matrix
special matrices
- square matrix
- identity matrix
Matrix Operations
행렬의 연산과, 그 연산들의 성질
- Addiition
- Subtraction
- Multiplication- 교환법칙이 성립하지 않는다.
- Transpose- matrix의 행과 열을 바꾼다.
Rank
행렬에서의 Basis(linearly independent rows와 columns)
Determinant
square matrix에 solution이 있는지 결정해주는 결정값
Inverse Matrix
행과 열이 같은 square matrix여야 하고, non-singular matrix이어야 한다.
Eigen Decomposition
eigenvector(x) eigenvalue($lamda$) : 고유행렬, 고유값
optimization problem에 대한 해를 구할 때 사용된다.
https://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf
'100일 챌린지 > 컴퓨터비전' 카테고리의 다른 글
Day 3 - PIL, pytorch-torchvision, logging-wandb (1) | 2024.11.19 |
---|---|
Day 2 - Probability, OpenCV_matplotlib (2) | 2024.11.13 |