欲速不達

일을 급히 하고자 서두르면 도리어 이루지 못한다.

Fantastic AI, Fantastic World

DS | Data Science/Statistics & Math

[Linear Algebra] Part2. 벡터의 연산과 스칼라배

_껀이_ 2024. 1. 2. 11:57
728x90
반응형

* 이전 정리

https://kkuneeee.tistory.com/76

 

[Linear Algebra] Part1. 행렬과 벡터 그리고 선형대수학

1. 들어가며 딥러닝, 머신러닝 등 인공지능 분야에서는 주로 행렬, 벡터를 사용하는 알고리즘으로 선형대수학 개념이 중요하게 작용한다. 그러므로 선형대수학의 정리가 필수적이며, 단순하게

kkuneeee.tistory.com

 

1. 벡터의 방향과 크기

벡터에는 방향과 크기가 있다.

 

간단한 예시로 

 

$$ \vec{A} = \begin{bmatrix} 3\\ 2 \end{bmatrix} $$

 

x y 평면에 이러한 벡터 A가 있을때 크기와 방향은 다음과 같다.

 

$$ 크기 = \left\| \vec{A} \right\| = \sqrt{x^2+y^2} = \sqrt{3^2+2^2} \\ 방향 = \theta = tan^{-1}{\frac{y}{x}} = tan^{-1}{\frac{2}{3}} $$

 

벡터의 크기는 벡터의 길이를 의미하며,

벡터의 방향은 양의 x축과 이루는 각도를 말한다.

 

또 두 벡터가 있을때, 시작점의 위치가 달라도 크기와 방향이 같으면 같은 벡터이다.

 

추가)

크기와 방향이 주어지고, 벡터의 성분을 모를 때 성분을 계산하는 방법은 다음과 같다.

 

$$ \vec{v} = (\left\| \vec{v} \right\| \cos{\theta}, \left\| \vec{v} \right\| \sin{\theta}) $$

 

 


2. 벡터의 연산과 스칼라배

벡터의 덧셈, 뺄셈은 각각의 성분을 더하고 뺀다.

 

$$ \vec{a} = \begin{bmatrix} -2 \\ 1 \end{bmatrix} \vec{b} = \begin{bmatrix} 3 \\ 2 \end{bmatrix} \\ 덧셈 : \vec{a}+\vec{b} = \begin{bmatrix} 1 \\ 3 \end{bmatrix} \\ 뺄셈 : \vec{a}-\vec{b} = \begin{bmatrix} -5 \\ -1 \end{bmatrix} $$

 

스칼라배는 벡터에 스칼라를 곱해준다.

 

$$ \vec{a} = \begin{bmatrix} -2 \\ 1 \end{bmatrix} \vec{b} = \begin{bmatrix} 3 \\ 2 \end{bmatrix} \\ 2 \times \vec{a} = \begin{bmatrix} -4 \\ 2 \end{bmatrix}\\ 2 \times \vec{b} = \begin{bmatrix} 6 \\ 4 \end{bmatrix} $$

 


 

즉, 벡터의 연산과 스칼라배를 통해

2차원 평면의 모든 벡터를 표현할 수 있다.

 

$$ a \times \begin{bmatrix} 1 \\ 0 \end{bmatrix} + b \times \begin{bmatrix} 0 \\ 1 \end{bmatrix} = \begin{bmatrix} a \\ b \end{bmatrix} \\ $$

 

위의 표현식에서 a,b를 무엇으로 지정하냐에 따라 2차원 평면을 표현할 수 있다.

또, [1,0], [0,1] 벡터가 아닌 선형 독립(Linear Independent)적인 다른 벡터를 통해서도 2차원 평면을 표현할 수 있다.

 

선형독립에 대해서는 추후 정리해보도록 하자.

 

 

 

728x90
반응형