728x90
반응형
* 이전 정리
https://kkuneeee.tistory.com/76
[Linear Algebra] Part1. 행렬과 벡터 그리고 선형대수학
1. 들어가며 딥러닝, 머신러닝 등 인공지능 분야에서는 주로 행렬, 벡터를 사용하는 알고리즘으로 선형대수학 개념이 중요하게 작용한다. 그러므로 선형대수학의 정리가 필수적이며, 단순하게
kkuneeee.tistory.com
1. 벡터의 방향과 크기
벡터에는 방향과 크기가 있다.
간단한 예시로
→A=[32]
x y 평면에 이러한 벡터 A가 있을때 크기와 방향은 다음과 같다.
크기=‖
벡터의 크기는 벡터의 길이를 의미하며,
벡터의 방향은 양의 x축과 이루는 각도를 말한다.
또 두 벡터가 있을때, 시작점의 위치가 달라도 크기와 방향이 같으면 같은 벡터이다.
추가)
크기와 방향이 주어지고, 벡터의 성분을 모를 때 성분을 계산하는 방법은 다음과 같다.
\vec{v} = (\left\| \vec{v} \right\| \cos{\theta}, \left\| \vec{v} \right\| \sin{\theta})
2. 벡터의 연산과 스칼라배
벡터의 덧셈, 뺄셈은 각각의 성분을 더하고 뺀다.
\vec{a} = \begin{bmatrix} -2 \\ 1 \end{bmatrix} \vec{b} = \begin{bmatrix} 3 \\ 2 \end{bmatrix} \\ 덧셈 : \vec{a}+\vec{b} = \begin{bmatrix} 1 \\ 3 \end{bmatrix} \\ 뺄셈 : \vec{a}-\vec{b} = \begin{bmatrix} -5 \\ -1 \end{bmatrix}
스칼라배는 벡터에 스칼라를 곱해준다.
\vec{a} = \begin{bmatrix} -2 \\ 1 \end{bmatrix} \vec{b} = \begin{bmatrix} 3 \\ 2 \end{bmatrix} \\ 2 \times \vec{a} = \begin{bmatrix} -4 \\ 2 \end{bmatrix}\\ 2 \times \vec{b} = \begin{bmatrix} 6 \\ 4 \end{bmatrix}
즉, 벡터의 연산과 스칼라배를 통해
2차원 평면의 모든 벡터를 표현할 수 있다.
a \times \begin{bmatrix} 1 \\ 0 \end{bmatrix} + b \times \begin{bmatrix} 0 \\ 1 \end{bmatrix} = \begin{bmatrix} a \\ b \end{bmatrix} \\
위의 표현식에서 a,b를 무엇으로 지정하냐에 따라 2차원 평면을 표현할 수 있다.
또, [1,0], [0,1] 벡터가 아닌 선형 독립(Linear Independent)적인 다른 벡터를 통해서도 2차원 평면을 표현할 수 있다.
선형독립에 대해서는 추후 정리해보도록 하자.
728x90
반응형
'DS | Data Science > Statistics & Math' 카테고리의 다른 글
[Linear Algebra] Part4. 선형결합과 벡터공간, 그리고 부분공간 (0) | 2024.01.02 |
---|---|
[Linear Algebra] Part3. 전치(Transpose) (0) | 2024.01.02 |
[Linear Algebra] Part1. 행렬과 벡터 그리고 선형대수학 (0) | 2024.01.02 |
[MLE] Maximum Likelihood Estimation : 최대가능도 추정법 (0) | 2022.09.22 |
[정리] 확률론 (0) | 2022.09.22 |