Linear Transformation
Contents
Linear Transformation✔
선형변환(linear transformation, 선형사상, linear map, 벡터공간 준동형사상, vector space homomorphism)
\(\mathbf{F}\)-벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 임의의 \(x, y \in \mathbf{V}\) 와 임의의 \(c \in \mathbf{F}\) 에 대하여 다음을 만족하는 함수 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 를 \(\mathbf{V}\) 에서 \(\mathbf{W}\) 로 가는 선형변환이라 한다.
-
\(\operatorname{T}(x + y) = \operatorname{T}(x) + \operatorname{T}(y)\)
-
\(\operatorname{T}(cx) = c\operatorname{T}(x)\)
-
지금까지 벡터공간을 살펴보았는데 이제 벡터공간의 구조를 보존하는 함수를 다룬다. 이런 함수를 선형변환이라고 한다.
미분연산자나 적분연산자가 선형변환의 대표적인 예시이다. 이런 연산자는 미분방정식과 적분방정식을 특정한 벡터공간에서 정의된 선형변환으로 이해할 수 있게 해준다. 기하학에서의 선형변환은 회전, 대칭, 사영 같은 것들이 있다.
\(x, y \in \mathbf{V} \implies x+y \in \mathbf{V}\) 인데 \(\operatorname{T}(x), \operatorname{T}(y) \in \mathbf{W} \implies \operatorname{T}(x+y) \in \mathbf{W}\) 이므로 \(\operatorname{T}\) 가 벡터공간의 구조를 보존한다고 하는 것이다. 스칼라곱에 대해서도 마찬가지.
-
\(\mathbf{F} = \Bbb{Q}\) 이면 2) 는 1) 에서 도출된다. 그러나 일반적으로 1) 과 2) 는 독립된 명제이다.
-
\(\operatorname{T}\) 가 선형변환이라는 것을 편의상 "\(\operatorname{T}\) 는 선형(linear) 이다" 라고 한다.
-
벡터공간의 준동형사상(vector space homomorphism) 이라는 정의는 준동형사상의 정의에 의하여 직관적을 알 수 있다.
선형변환의 성질
선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 는 다음 성질을 만족한다.
-
\(\operatorname{T}\) 가 선형이면 \(\operatorname{T}(0) = 0\) 이다.
-
\(\operatorname{T}\) 가 선형이기 위한 필요충분조건은 \(\forall x, y \in \mathbf{V} , \forall c \in \mathbf{F} : \operatorname{T}(cx + y) = c\operatorname{T}(x) + \operatorname{T}(y)\) 이다.
-
\(\operatorname{T}\) 가 선형이면 \(\forall x, y \in \mathbf{V} : \operatorname{T}(x -y) = \operatorname{T}(x) - \operatorname{T}(y)\) 이다.
-
\(\operatorname{T}\) 가 선형이기 위한 필요충분조건은 \(\forall x_1, \dots, x_n \in \mathbf{V}, \forall a_1, \dots, a_n \in \mathbf{F}\) 에 대하여 다음이 성립하는 것이다.
\[ \operatorname{T} \bigg (\sum_{i=1}^{n}a_ix_i\bigg ) = \sum_{i=1}^{n}a_i\operatorname{T}(x_i) \]
-
증명
1:
\(x = 0\) 으로 두면 다음이 성립한다.
\[\operatorname{T} (0 + y) = \operatorname{T} (0) + \operatorname{T} (y) \iff \operatorname{T} (y) = \operatorname{T} (0) + \operatorname{T} (y)\]\[0 = \operatorname{T} (0) \]2), 3), 4) 의 증명은 자명하다. ■
-
1) 의 \(0\) 은 영벡터이다.
-
어떤 함수가 선형임을 보일 때 주로 2) 를 사용한다.
-
예시
\(\operatorname{T}: \R ^{2} \to \R ^{2}\) 을 \(\operatorname{T}(a_1, a_2) = (2a_1 + a_2, a_1)\) 이라 정의하고 이것이 선형인지 확인하자.
\(c \in \R, x = (b_1, b_2), y = (d_1, d_2)\) 라 하면 \(cx + y = (cb_1 + d_1, cb_2 + d_2)\) 이므로
\[ \operatorname{T}(cx + y) = (2(cb_1 + d_1) + cb_2 + d_2, cb_1 + d_1) \]이고 \(c\operatorname{T}(x) + \operatorname{T}(y)\) 도
\[ c\operatorname{T}(x) + \operatorname{T}(y) = (2(cb_1 + d_1) + cb_2 + d_2, cb_1 + d_1) \]이다. 그러므로 \(\operatorname{T}\) 는 선형이다.
-
선형대수학은 기하학에서 널리 사용되는데, 이는 중요한 기하 변환들이 선형이기 때문이다.
-
예시
각 \(\theta\) 에 대하여 \(\operatorname{T} _{\theta }: \R ^{2} \to \R ^{2}\) 을
\[ \operatorname{T} _{\theta } (a_1, a_2) = \begin{cases} (a_1, a_2) \text{ 를 반시계 방향으로 } \theta \text{ 만큼 회전한 벡터} & (a_1, a_2) \neq (0, 0)\\ (0, 0) & (a_1, a_2) = (0, 0) \\ \end{cases} \]와 같이 정의하면 \(\operatorname{T} _{\theta}: \R ^{2} \to \R ^{2}\) 는 2차원 좌표평면의 벡터를 \(\theta\) 만큼 회전하는 선형변환이다. 참고로 \(\operatorname{T} _{\theta}\) 는 형식적으로
\[ \operatorname{T} _{\theta}(a_1, a_2) = (a_1 \cos \theta - a_2 \sin \theta, a_1 \sin \theta + a_2 \cos \theta) \]로 정의할 수 있다.
-
예시
\(\operatorname{T}: \R ^{2} \to \R ^{2} , (a_1, a_2) \mapsto (a_1, -a_2)\) 는 \(x\)축 대칭(reflection about x-axis)이라는 선형변환이다.
-
예시
\(\operatorname{T}: \R ^{2} \to \R ^{2} , (a_1, a_2) \mapsto (a_1, 0)\) 는 \(x\)축으로 사영(projection on the x-axis)이라는 선형변환이다.
-
예시
\(\operatorname{T}: \mathbf{F}^{m \times n} \to \mathbf{F}^{n \times m}, A \mapsto A ^{\top}\) 는 선형변환이다.
-
예시
무한번 미분가능한 함수 \(f: \R \to \R\) 의 집합 \(\mathbf{V}\) 을 정의하면 \(\mathbf{V}\) 는 \(\R\)-벡터공간이된다. 이때 \(\operatorname{T}: \mathbf{V} \to \mathbf{V} , f \mapsto f'\) 로 정의하면
\[ \operatorname{T}(ag+h) = (ag+h)' = ag'+h'=a\operatorname{T}(g) +\operatorname{T}(h) \]이므로 선형변환이다.
-
예시
\(\mathbf{V}\) 를 \(\R\) 에서 정의한 모든 연속함수 집합으로 정의하고, \(a, b \in \R, a < b\) 에 대하여 \(\operatorname{T}: \mathbf{V} \to \R, f \mapsto \int_{a}^{b}f(t)dt\) 로 정의하면 이는 선형변환이다. 왜냐하면
\[ \int_{a}^{b}\{pf(t) + qg(t)\}dt = p \int_{a}^{b}f(t)dt + q \int_{a}^{b}g(t)dt \]이기 때문이다.
Identity Transformation✔
항등변환(identity transformation)
\(\mathbf{F}\)-벡터공간 \(\mathbf{V}\) 에 대하여 \(\operatorname{I} _{\mathbf{V} }: \mathbf{V} \to \mathbf{V}, x \mapsto x\) 로 정의된 선형변환이다.
- 항등변환 \(\operatorname{I} _{\mathbf{V} }\) 을 편의상 \(\operatorname{I}\) 라 표기하기도 한다.
Zero Transformation✔
영변환(zero transformation)
\(\mathbf{F}\)-벡터공간 \(\mathbf{V} , \mathbf{W}\) 에 대하여 \(\operatorname{T} _{ 0}: \mathbf{V} \to \mathbf{W}, x \mapsto 0\) 로 정의된 선형변환이다.
Null Space, Range✔
영공간(null space, kernel)
벡터공간 \(\mathbf{V}, \mathbf{W}\) 와 선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 에 대하여 영공간은 다음과 같은 집합이다.
-
선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 의 영공간을 \(\operatorname{N}(\operatorname{T})\) 또는 \(\text{Null}(\operatorname{T})\) 또는 \(\ker(\operatorname{T})\) 로 표기한다.
-
예시
항등변환 \(\operatorname{I} : \mathbf{V} \to \mathbf{V}\) 에 대하여 \(\ker(\operatorname{I}) = \{0\}\) 이다.
영변환 \(\operatorname{T}_0 : \mathbf{V} \to \mathbf{W}\) 에 대하여 \(\ker(\operatorname{T}_0) = \mathbf{V}\) 이다.
상공간(range, image)
벡터공간 \(\mathbf{V}, \mathbf{W}\) 와 선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 에 대하여 상공간은 다음과 같은 집합이다.
-
선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 의 상공간을 \(\operatorname{R}(\operatorname{T})\) 또는 \(\operatorname{ran}(\operatorname{T})\) 또는 \(\operatorname{im}(\operatorname{T})\) 으로 표기한다.
-
예시
항등변환 \(\operatorname{I} : \mathbf{V} \to \mathbf{V}\) 에 대하여 \(\operatorname{im}(\operatorname{I}) = \mathbf{V}\) 이다.
영변환 \(\operatorname{T}_0 : \mathbf{V} \to \mathbf{W}\) 에 대하여 \(\operatorname{im}(\operatorname{T}_0) = \{0\}\) 이다.
정리 2.1
벡터공간 \(\mathbf{V} ,\mathbf{W}\) 와 선형변환 \(\operatorname{T}:\mathbf{V} \to \mathbf{W}\) 에 대하여 \(\ker(\operatorname{T}), \operatorname{im}(\operatorname{T})\) 는 각각 \(\mathbf{V} , \mathbf{W}\) 의 부분공간이다.
-
다음 그림과 같다.

-
증명
\(\mathbf{V} , \mathbf{W}\) 의 영벡터를 각각 \(0 _{\mathbf{V} },0 _{\mathbf{W} }\) 라 하자.
\(\operatorname{T}(0 _{\mathbf{V} }) = 0 _{\mathbf{W} }\) 이므로 \(0 _{\mathbf{V} } \in \ker(\operatorname{T})\) 이다. \(x, y \in \ker(\operatorname{T})\), \(c \in \mathbf{F}\) 에 대하여
\[ \begin{align}\begin{split} \operatorname{T}(x+y)&= \operatorname{T}(x)+\operatorname{T}(y)\\ &= 0 _{\mathbf{W} }+0 _{\mathbf{W} }\\ &=0 _{\mathbf{W} }, \enspace \operatorname{T}(cx) \\ &= c\operatorname{T}(x) = c 0 _{\mathbf{W} } = 0 _{\mathbf{W} } \\ \end{split}\end{align} \tag*{} \]이므로 \(x+y \in \ker(\operatorname{T}), cx \in \ker(\operatorname{T})\) 이다. 따라서 \(\ker(\operatorname{T})\) 은 \(\mathbf{V}\) 의 부분공간이다. ▲
\(\operatorname{T}(0 _{\mathbf{V} }) = 0 _{\mathbf{W} }\) 이므로 \(0 _{\mathbf{W} } \in \operatorname{im}(\operatorname{T})\) 이다. \(x, y \in \operatorname{im}(\operatorname{T}), c \in \mathbf{F}\) 에 대하여 다음을 만족하는 \(v, w \in \mathbf{V}\) 가 존재한다.
\[ \operatorname{T}(v) = x, \operatorname{T}(w) = y\]따라서
\[ \operatorname{T}(v+w) =\operatorname{T}(v) +\operatorname{T}(w) = x+y, \enspace \operatorname{T}(cv) = c\operatorname{T}(v) = cx \]이고, \(x+y \in \operatorname{im}(\operatorname{T}), cx \in \operatorname{im}(\operatorname{T})\) 이다. 그러므로 \(\operatorname{im}(\operatorname{T})\) 는 \(\mathbf{W}\) 의 부분공간이다. ■
정리 2.2
벡터공간 \(\mathbf{V} ,\mathbf{W}\) 와 선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 와 \(\mathbf{V}\) 의 기저 \(\beta = \{v_1, v_2, \dots, v_n\}\) 에 대하여 다음이 성립한다.
-
이 정리는 선형변환의 상공간을 생성하는 방법을 알려준다.
-
이 정리는 \(\beta\) 가 무한집합일 때도 성립한다. 즉, 다음이 성립한다.
\[ \operatorname{im}(\operatorname{T}) = \operatorname{span}(\{\operatorname{T}(v) : v \in \beta \}) \] -
증명
\(\operatorname{T}(\beta) \subset \operatorname{im}(\operatorname{T})\) 이고 \(\operatorname{im}(\operatorname{T})\) 가 부분공간이므로 정리 1.5 에 의하여
\[ \operatorname{span}(\{\operatorname{T}(v_1), \operatorname{T}(v_2), \dots, \operatorname{T}(v_n)\}) =\operatorname{span}(\operatorname{T}(\beta )) \subset \operatorname{im}(\operatorname{T}) \]이다. ▲
\(w \in \operatorname{im}(\operatorname{T})\) 이면 \(w = \operatorname{T}(v)\) 을 만족하는 \(v \in \mathbf{V}\) 가 존재하는데 \(\beta\) 가 \(\mathbf{V}\) 의 기저이므로 \(a_1, a_2, \dots, a_n \in \mathbf{F}\) 에 대하여
\[ v = \sum_{i=1}^{n}a_iv_i \]이다. \(\operatorname{T}\) 는 선형이므로
\[w = \operatorname{T}(v) = \operatorname{T} \bigg (\sum_{i=1}^{n}a_iv_i\bigg ) = \sum_{i=1}^{n}a_i\operatorname{T}(v_i) \in \operatorname{span}(\operatorname{T}(\beta ))\]이다. 이는 \(\forall w \in \operatorname{im}(\operatorname{T}) \implies w \in \operatorname{span}(\operatorname{T}(\beta ))\) 을 뜻하므로
\[ \operatorname{im}(\operatorname{T}) \subset \operatorname{span}(\operatorname{T}(\beta )) = \operatorname{span}(\{\operatorname{T}(v_1), \operatorname{T}(v_2), \dots, \operatorname{T}(v_n)\}) \]이 된다. ■
-
다음 예시는 이 정리를 사용하여 \(\operatorname{im}(\operatorname{T})\) 의 기저와 \(\ker(\operatorname{T})\) 의 기저를 쉽게 찾을 수 있다는 것을 말해준다.
-
예시
선형변환 \(\operatorname{T}: \mathbf{P} _2(\R) \to \R ^{2 \times 2}\) 을
선형변환 \(\operatorname{T}: \mathbf{P} _2(\R) \to \R ^{2 \times 2}\) 을
\[ \operatorname{T}(f(x)) = \begin{pmatrix} f(1)-f(2) & 0\\ 0 & f(0)\\ \end{pmatrix} \]와 같이 정의하자. \(\mathbf{P} _2(\R)\) 의 기저는 \(\beta = \{1,x,x ^{2}\}\) 이므로 이 정리를 사용하여 \(\operatorname{im}(\operatorname{T})\) 를 다음과 같이 나타낼 수 있다.
\[ \begin{align}\begin{split} \operatorname{im}(\operatorname{T}) &= \operatorname{span}(\operatorname{T}(\beta )) = \operatorname{span}(\{\operatorname{T}(1), \operatorname{T}(x), \operatorname{T}(x ^{2})\}) \\ &= \operatorname{span}\bigg (\bigg \{ \begin{pmatrix} 0 & 0\\ 0 & 1\\ \end{pmatrix}, \begin{pmatrix} -1 & 0\\ 0 & 0\\ \end{pmatrix}, \begin{pmatrix} -3 & 0\\ 0 & 0\\ \end{pmatrix} \bigg \}\bigg ) \\ &= \operatorname{span}\bigg (\bigg \{ \begin{pmatrix} 0 & 0\\ 0 & 1\\ \end{pmatrix}, \begin{pmatrix} -1 & 0\\ 0 & 0\\ \end{pmatrix} \bigg \}\bigg ) \end{split}\end{align}\tag*{} \]이로써 \(\operatorname{im}(\operatorname{T})\) 의 기저를 찾았고 \(\dim(\operatorname{im}(\operatorname{T})) = 2\) 임을 알 수 있다. ▲
이제 \(\ker(\operatorname{T})\) 의 기저를 찾아보자. \(2 \times 2\) 영행렬 \(O\) 에 대하여 \(f(x) \in \ker(\operatorname{T}) \iff \operatorname{T}(f(x)) = O\) 이므로
\[ f(x) \in \ker(\operatorname{T}) \iff \begin{pmatrix} f(1) - f(2) & 0\\ 0 & f(0)\\ \end{pmatrix} = \begin{pmatrix} 0&0\\ 0&0\\ \end{pmatrix} \]이다. \(f(x) = a + bx + cx ^{2}\) 라 하면
\[ \begin{align}\begin{split} 0&= f(1) - f(2) = -b -3c\\ 0 &= f(0) = a \end{split}\end{align}\tag*{} \]이므로
\[ f(x) = c(-3x + x ^{2}) \]이다. 따라서 \(\ker(\operatorname{T})\) 의 기저는 \(\{-3x + x ^{2}\}\) 이다. ▲
-
위 예시에서 \(\dim(\ker(\operatorname{T})) + \dim(\operatorname{im}(\operatorname{T})) = 1 + 2 = 3 = \dim(\mathbf{P} _2(\R))\) 이 성립하였는데 이는 정리 2.3 에서와 같이 일반적으로 성립한다.
Nullity✔
영공간의 차원(Nullity)
벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 에 대하여 \(\ker(\operatorname{T})\) 가 유한차원 일 때 \(\ker(\operatorname{T})\) 의 차원을 다음과 같이 정의한다.
- 지금까지 우리는 부분공간의 크기를 가늠할 때 차원을 사용했다. 영공간의 차원은 특히 중요하므로 새로운 이름 \(\operatorname{nullity}\) 을 붙혀서 다룬다.
Rank✔
랭크(rank), 계수
벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 에 대하여 \(\operatorname{im}(\operatorname{T})\) 가 유한차원 일 때 \(\operatorname{im}(\operatorname{T})\) 의 차원을 다음과 같이 정의한다.
- 지금까지 우리는 부분공간의 크기를 가늠할 때 차원을 사용했다. 상공간의 차원은 특히 중요하므로 새로운 이름 \(\operatorname{rank}\) 을 붙혀서 다룬다.
Dimension Theorem✔
정리 2.3 차원정리(dimension theorem, rank-nullity theorem, fundamental theorem of linear mapping)
벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 에 대하여 \(\mathbf{V}\) 가 유한차원이면 다음이 성립한다.
-
직관적으로 선형변환에서 nullity 가 커질수록 랭크는 작아진다. 즉, 더 많은 벡터가 영벡터 \(0\) 로 갈수록 상공간은 작아진다. 역으로 랭크가 커질수록 nullity 는 작아진다. 이 정리가 랭크과 nullity 의 관계를 말해준다.

-
증명
\(\dim(\mathbf{V} ) = n, \dim(\ker(\operatorname{T} )) = k\) 라 하고 \(\ker(\operatorname{T} )\) 의 기저를 \(\{v_1, v_2, \dots, v_k\}\) 라 하면 정리 1.11 따름정리 에 의하여 \(\{v_1, v_2, \dots, v_k\}\) 를 확장하여 \(\mathbf{V}\) 의 기저 \(\beta = \{v_1, v_2, \dots, v_n\}\) 을 얻을 수 있다. ▲
그러면
\[S = \operatorname{T} (\beta - \{v_1, \dots, v_k\}) = \{\operatorname{T} (v _{k+1}), \operatorname{T} (v _{k+2}), \dots, \operatorname{T} (v _{n})\}\]이 \(\operatorname{im}(\operatorname{T} )\) 의 기저임을 보이자. 먼저 \(\operatorname{span}(S) = \operatorname{im}(\operatorname{T} )\) 임을 보이기 위하여 \(1 \leq i \leq k : \operatorname{T} (v_i) = 0\) 과 정리 2.2 를 사용하면
\[ \begin{align}\begin{split} \operatorname{im}(\operatorname{T} ) &= \operatorname{span}(\{\operatorname{T} (v_1), \operatorname{T} (v_2), \dots, \operatorname{T} (v_n)\}) \\ &= \operatorname{span}(\{\operatorname{T} (v _{k+1}), \operatorname{T} (v _{k+2}), \dots, \operatorname{T} (v_n)\}) = \operatorname{span}(S) \\ \end{split}\end{align}\tag*{} \]이다. ▲
\(S\) 가 선형독립임을 보이기 위하여 \(b _{k+1}, \dots, b _{n} \in \mathbf{F}\) 에 대하여 \(\displaystyle \sum_{i=k+1}^{n}b_i \operatorname{T} (v_i) = 0\) 라고 하면 \(\operatorname{T}\) 가 선형이므로
\[ \operatorname{T} \bigg (\sum_{i=k+1}^{n}b_iv_i\bigg ) = 0 \iff \sum_{i=k+1}^{n}b_iv_i \in \ker(\operatorname{T} ) \]이다. 그러면 다음 식을 만족하는 \(c_1, \dots, c_k \in \mathbf{F}\) 가 존재한다.
\[ \sum_{i=k+1}^{n}b_iv_i = \sum_{i=1}^{k}c_iv_i \iff \sum_{i=1}^{k}(-c_i)v_i + \sum_{i=k+1}^{n}b_iv_i = 0 \]이때 \(\beta\) 가 기저, 즉 일차독립이므로 이 식이 성립하려면 반드시 \(-c_1 = \dots = -c_k = b _{k+1} = \dots = b_n = 0\) 이어야 한다. 그러므로 \(S\) 는 일차독립이다. 그러므로 \(S\) 는 \(\operatorname{im}(\operatorname{T} )\) 의 기저이다. ▲
\(S = \operatorname{T} (\beta - \{v_1, \dots, v_k\})\) 가 \(\operatorname{im}(\operatorname{T} )\) 의 기저이므로 \(\operatorname{T}\) 는 최소한
\[ |\{v _{k+1}, \dots, v_n\}| = |\{\operatorname{T} (v _{k+1}) , \dots, \operatorname{T} (v_n)\}| \]을 보장한다. 그러므로 \(|S| = |\beta | - |\{v_1, \dots, v_k\}|\) 라고 할 수 있고, 이에 따라
\[ \therefore \operatorname{rank}(\operatorname{T} ) = \dim(\mathbf{V} ) - \operatorname{nullity}(\operatorname{T} ) \]이다. ■
Properties of Linear Map, Range, Null Space✔
정리 2.4
벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 에 대하여 다음은 동치이다.
-
\(\operatorname{T}\) 가 단사사상이다.
-
\(\ker(\operatorname{T} ) = \{0\}\)
-
증명
\(x \in \ker(\operatorname{T} )\) 이면 \(\operatorname{T} (x) = 0 = \operatorname{T} (0)\) 인데, \(\operatorname{T}\) 가 단사이므로 \(x = 0\) 이다. 또한 이는 \(\forall x \in \ker(\operatorname{T} ) : x = 0\) 을 의미하므로 \(\ker(\operatorname{T} ) = \{0\}\) 이다. ▲
역으로 \(\ker(\operatorname{T} ) = \{0\}\) 과 \(\operatorname{T} (x) = \operatorname{T} (y)\) 을 가정하자. 선형변환의 성질 3) 에 의하여 \(0 = \operatorname{T} (x) - \operatorname{T} (y) = \operatorname{T} (x - y)\) 이므로
\[ x - y \in \ker(\operatorname{T} ) = \{0\} \iff x - y = 0 \]이다. 즉, \(x = y\) 이므로 \(\operatorname{T}\) 는 단사함수이다. ■
정리 2.5
유한차원 벡터공간 \(\mathbf{V} ,\mathbf{W}\) 에 대하여 \(\dim(\mathbf{V} ) = \dim(\mathbf{W} )\) 이면 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 에 대하여 다음 명제가 동치이다.
-
\(\operatorname{T}\) 는 단사이다.
-
\(\operatorname{T}\) 는 전사이다.
-
\(\operatorname{rank}(\operatorname{T} ) = \dim(\mathbf{V} )\)
-
이 정리는 차원이 같은 유한차원 사이의 선형사상이 단사이면 전단사임을 말해준다. 그러나 무한차원 \(\mathbf{V}\) 에 대한 선형사상 \(\operatorname{T} : \mathbf{V} \to \mathbf{V}\) 에 대해서는 단사와 전사가 동치가 아니다.
-
증명
차원정리 에 의하여 \(\operatorname{rank}(\operatorname{T} )+\operatorname{nullity}(\operatorname{T} ) = \dim(\mathbf{V} )\) 인데, 정리 2.4 에 의하여
\[ \operatorname{T} \text{ is injection } \iff \ker(\operatorname{T} ) = \{0\} \]\[ \iff \operatorname{nullity}(\operatorname{T} ) = 0 \iff \operatorname{rank}(\operatorname{T} ) = \dim(\mathbf{V} ) \]\[ \iff \operatorname{rank}(\operatorname{T} ) = \dim(\mathbf{W} ) \iff \dim(\operatorname{im}(\operatorname{T} )) = \dim(\mathbf{W} ) \]이다. 그런데 정리 1.11 에 의하여
\[ \iff \operatorname{im}(\operatorname{T} ) = \mathbf{W} \]이다. 상공간과 공역이 같으므로 \(\operatorname{T}\) 는 전사이다. ■
-
예시
선형변환 \(\operatorname{T} : \mathbf{F} ^{2} \to \mathbf{F} ^{2}\) 이
\[ \operatorname{T} (v, w) = (v+w, v) \]와 같이 정의되면 \(\ker(\operatorname{T} ) = \{0\}\) 이므로 \(\operatorname{T}\) 는 전단사이다.
벡터공간 \(\mathbf{V} ,\mathbf{W}\) 의 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 과 \(\mathbf{V}\) 의 부분집합 \(S\) 에 대하여 다음이 동치이다.
-
\(S\) 가 일차독립이다.
-
\(\operatorname{T} (S)\) 가 일차독립이다.
-
증명
-
예시
선형변환 \(\operatorname{T} : \mathbf{P} _2(\R) \to \R ^{3}\) 이
\[ \operatorname{T} (a_0+a_1x+a_2x ^{2}) = (a_0, a_1, a_2) \]와 같이 정의되면 \(\operatorname{T}\) 는 단사이다. \(S = \{2-x+3x ^{2}, x+x ^{2}, 1-2x ^{2}\}\) 라고 하면 \(\operatorname{T} (S) = \{(2,-1,3), (0,1,1), (1,0,-2)\}\) 가 \(\R ^{3}\) 에서 일차독립이므로 \(S\) 도 일차독립이다.
정리 2.6
\(\mathbf{F}\)-벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 \(\mathbf{V}\) 의 기저 \(\{v_1, \dots, v_n\}\) 와 벡터 \(w_1, \dots, w_n \in \mathbf{W}\) 에 대하여
을 만족하는 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 가 유일하게 존재한다.
-
이 정리는 선형변환이 기저에 따라 어떻게 행동할지 완벽하게 결정된다는 것을 말해준다. 이 정리와 따름정리는 매우 중요해서 선형대수학 전반에 널리 사용된다.
-
증명
\(x \in \mathbf{V}\) 를 다음과 같이 \(a_1, \dots, a_n \in \mathbf{F}\) 에 대하여 기저의 유일한 일차결합 표현으로 나타낼 수 있다.
\[ x = \sum_{i=1}^{n}a_iv_i \]이때 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 를 \(\operatorname{T} (x) = \sum_{i=1}^{n} a_iw_i\) 로 정의하자. ▲
그리고 먼저 \(\operatorname{T}\) 가 선형임을 보이자. \(u, v \in \mathbf{V} , d \in \mathbf{F}\) 와 \(b_1, \dots, b_n \in \mathbf{F}\) 와 \(c_1, \dots, c_n \in \mathbf{F}\) 에 대하여
\[ u = \sum_{i=1}^{n}b_iv_i, \enspace v = \sum_{i=1}^{n}c_iv_i \]이다. 그러면 \(du + v = \sum_{i=1}^{n} (db_i+c_i)v_i\) 이므로
\[ \operatorname{T} (du+v) = \sum_{i=1}^{n}(db_i+c_i)w_i = d \sum_{i=1}^{n}b_iw_i + \sum_{i=1}^{n}c_iw_i = d \operatorname{T} (u) + \operatorname{T} (v) \]이다. ▲
또한 정의에 의하여 \(i \in \{1, \dots, n\} : \operatorname{T} (v_i) = w_i\) 이다. ▲
마지막으로 \(\operatorname{T}\) 의 유일성을 보이자. 선형변환 \(\operatorname{U}:\mathbf{V} \to \mathbf{W}\) 가 \(i \in \{1, \dots, n\} : \operatorname{T} (v_i) = w_i\) 를 만족한다고 하면 \(x = \sum_{i=1}^{n}a_iv_i \in \mathbf{V}\) 에 대하여
\[ \operatorname{U} (x) = \sum_{i=1}^{n}a_i \operatorname{U} (v_i) = \sum_{i=1}^{n}a_iw_i = \operatorname{T} (x) \]이므로 \(\operatorname{U} =\operatorname{T}\) 이다. ■
정리 2.6 따름정리
벡터공간 \(\mathbf{V} , \mathbf{W}\) 에 대하여 \(\mathbf{V}\) 가 유한집합 기저 \(\{v_1, \dots, v_n\}\) 을 가지면 두 선형변환 \(\operatorname{U} , \operatorname{T} : \mathbf{V} \to \mathbf{W}\) 에 대하여 다음이 성립한다.
-
이 정리는 두 선형변환이 기저에서 상이 같으면 같은 선형변환임을 말하고 있다.
-
예시
선형변환 \(\operatorname{T} :\R ^{2} \to \R ^{2}\) 이
\[ \operatorname{T} (a_1, a_2) = (2a_2 - a_1, 3a_1) \]와 같이 정의되었다고 하자. 그러면 \(\{(1,2), (1,1)\}\) 이 \(\R ^{2}\) 의 기저이므로 선형변환 \(\operatorname{U} : \R ^{2} \to \R ^{2}\) 이 \(\operatorname{U} (1,2)=(3,3), \operatorname{U} (1,1)=(1,3)\) 이면 \(\operatorname{U} =\operatorname{T}\) 이다.
Coordinate Vector✔
순서기저(ordered basis)
유한차원 벡터공간의 순서가 주어진 기저이다.
-
즉, 순서기저란 일차독립이고 벡터공간을 생성하는 수열이다.
-
예시
\(\mathbf{F} ^{3}\) 에서 \(\beta = \{e_1, e_2, e_3\}, \gamma = \{e_2, e_1, e_3\}\) 은 순서기저이다. 순서기저의 관점에서 \(\beta \neq \gamma\) 이다.
-
표준기저와 마찬가지로 표준순서기저(standard ordered basis)도 정의할 수 있다.
-
예시
벡터공간 \(\mathbf{F} ^{n}\) 에서 \(\{e_1, e_2, \dots, e_n\}\) 을 표준순서기저라고 한다.
벡터공간 \(\mathbf{P}_n(\mathbf{F} )\) 에서 \(\{1, x, \dots, x ^{n}\}\) 이 표준순서기자이다.
좌표벡터(coordinate vector)
유한차원 벡터공간 \(\mathbf{V}\) 의 순서기저 \(\beta = \{u_1, u_2, \dots, u_n\}\) 와 벡터 \(x \in \mathbf{V}\) 에 대하여 \(x = \displaystyle \sum_{i=1}^{n}a_iu_i\) 을 만족하는 유일한 스칼라 \(a_1, a_2, \dots, a_n\) 가 존재한다. 이때 \(\beta\) 에 대한 \(x\) 의 좌표벡터 \([x] _{\beta }\) 를 다음과 같이 정의한다.
-
\([x] _{\beta }\) 를 \(x\) 라는 벡터를 기저 \(\beta\) 의 일차결합으로 나타낸 것의 coefficient matrix 라고 생각하면 편하다.
-
변환 \(\mathbf{V} \to \mathbf{F} ^{n}, x \mapsto [x] _{\beta }\) 는 선형변환이다.
-
예시
순서기저 \(\beta = \{1, x, x ^{2}\}\) 를 가지는 벡터공간 \(\mathbf{V} = \mathbf{P} _2 (\R)\) 에 대하여 다음이 성립한다.
\[ f(x) = 4+6x-7x ^{2} \iff [f] _{\beta } = \begin{pmatrix} 4\\ 6\\ -7\\ \end{pmatrix} \] -
예시
표준순서기저를 순서기저 \(\beta\) 로 갖는 벡터공간 \(\R ^{3}\) 에 대하여 벡터 \(x \in \R ^{3}\) 가 \(x = (-100, 2, 50)\) 이라면
\[ x = -100 e_1 + 2 e_2 + 50 e_3 \]이므로 다음이 성립한다.
\[ [x] _{\beta } = \begin{pmatrix} -100\\ 2\\ 50\\ \end{pmatrix} \] -
예시
다음과 같이 똑같은 벡터도 다른 좌표 시스템에서는 다른 좌표를 갖게 된다.

벡터공간 \(\mathbf{F} ^{n}\) 와 표준순서기저 \(\beta = \{e_1, e_2, \dots, e_n\}\) 와 벡터 \(x \in \mathbf{F} ^{n}\) 에 대하여 다음이 성립한다.
-
이는 어떤 벡터의 좌표벡터를 표준순서기저로 나타낸다면 그 결과가 결국 본래의 벡터라는 것을 말해준다.
-
증명
\[ x = \begin{pmatrix} x_1\\ x_2\\ \vdots \\ x_n\\ \end{pmatrix} = x_1 e_1 + x_2 e_2 + \dots + x_n e_n = \sum_{i=1}^{n}x_ie_i \implies [x] _{\beta } = \begin{pmatrix} x_1\\ x_2\\ \vdots \\ x_n\\ \end{pmatrix} \tag*{■} \]
Matrix Representation of Linear Map✔
선형변환의 행렬표현(matrix representation)
유한차원 벡터공간 \(\mathbf{V} , \mathbf{W}\) 의 각각의 순서기저 \(\beta = \{v_1, \dots, v_n\}, \gamma = \{w_1, \dots, w_m\}\) 에 대하여 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 을 정의하면 \(j \in \{1,\dots,n\}, i \in \{1, \dots, m\}\) 에 대하여
을 만족하는 유일한 스칼라 \(a _{ij}\in \mathbf{F}\) 가 존재한다. 성분이 \(A _{ij} = a _{ij}\) 인 \(m \times n\) 행렬 \(A\) 를 순서기저 \(\beta , \gamma\) 에 대한 선형변환 \(\operatorname{T}\) 의 행렬표현
라 한다.
-
스칼라 \(a _{ij}\) 의 유일성은 정리 1.8 이 보장해준다.
-
우리는 이렇게 행렬과 선형변환을 연결했는데, 정리 2.8 은 이 연결이 합과 스칼라 곱을 보존함을 말해준다. 이를 위해 먼저 선형변환의 합과 스칼라 곱을 정의해볼 것이다.
-
\(\mathbf{V} = \mathbf{W} \land \beta = \gamma\) 이면 간단하게 \(A = [\operatorname{T} ]_{\beta }\) 라고 표기한다.
-
\(A\) 의 \(j\) 열은 \([\operatorname{T} (v_j)] _{\gamma }\) 이다.
-
선형변환 \(\operatorname{U} : \mathbf{V} \to \mathbf{W}\) 가 \([\operatorname{U} ] ^{\gamma } _{\beta } = [\operatorname{T} ]^{\gamma }_{\beta }\) 를 만족하면 정리 2.6 따름정리 에 의하여 \(\operatorname{U} = \operatorname{T}\) 이다.
-
예시
선형변환 \(\operatorname{T} : \R ^{2} \to \R ^{3} , (a_1, a_2) \mapsto (a_1 + 3a_2, 0, 2a_1 - 4a_2)\) 를 정의하고 \(\R ^{2}, \R ^{3}\) 의 순서기저 \(\beta , \gamma\) 를 각각의 표준순서기저로 두면
\[ \operatorname{T} (1, 0) = (1, 0, 2) = 1e_1 + 0e_2 + 2e_3 \]\[ \operatorname{T} (0, 1) = (3, 0, -4) = 3e_1 + 0e_2 - 4e_3 \]가 성립하므로
\[ [\operatorname{T} ]^{\gamma } _{\beta } = \begin{pmatrix} 1&3\\ 0&0\\ 2&-4\\ \end{pmatrix} \]이다. 만약 \(\R ^{3}\) 의 순서기저로써 \(\gamma ' = \{e_3, e_2, e_1\}\) 를 가져오면 다음과 같이 된다.
\[ [\operatorname{T} ] ^{\gamma '} _{\beta } =\begin{pmatrix} 2&-4\\ 0&0\\ 1&3\\ \end{pmatrix} \] -
예시
선형변환 \(\operatorname{T} : \mathbf{P} _3(\R) \to \mathbf{P} _2(\R)\) 가 \(\operatorname{T} (f(x)) = f'(x)\) 와 같이 정의되었고, \(\mathbf{P} _3(\R), \mathbf{P} _2(\R)\) 의 순서기저 \(\beta , \gamma\) 를 표준순서기저라 하면
\[ \operatorname{T} (1) = 0 \cdot 1 + 0 \cdot x + 0 \cdot x ^{2} \]\[ \operatorname{T} (x) = 1 \cdot 1 + 0 \cdot x + 0 \cdot x ^{2} \]\[ \operatorname{T} (x ^{2}) = 0 \cdot 1 + 2 \cdot x + 0 \cdot x ^{2} \]\[ \operatorname{T} (x ^{3}) = 0 \cdot 1 + 0 \cdot x + 3 \cdot x ^{2} \]이 성립하므로 다음이 성립한다.
\[ [\operatorname{T} ]^{\gamma } _{\beta } = \begin{pmatrix} 0&1&0&0\\ 0&0&2&0\\ 0&0&0&3\\ \end{pmatrix} \]
영변환의 행렬표현은 영행렬이다.
-
예시
유한차원 벡터공간 \(\mathbf{V} , \mathbf{W}\) 의 순서기저를 \(\beta = \{v_1, \dots, v_n\}, \gamma = \{w_1, \dots, w_m\}\) 이라 하면
\[ \operatorname{T} _0(v_j) = 0 = 0w_1+\dots+0w_m \]이므로 \([\operatorname{T} _0] ^{\gamma } _{\beta } = O\) 이다. \(O\) 는 \(m \times n\) 영행렬이다.
항등변환의 행렬표현은 항등행렬이다.
-
예시
유한차원 벡터공간 \(\mathbf{V}\) 의 순서기저를 \(\beta = \{v_1, \dots, v_n\}\) 이라 하면
\[ \operatorname{I} _{\mathbf{V} }(v_j) = v_j = 0v_1 + \dots + 0v _{j-1} + 1v_j+ 0 v _{j+1} \dots + 0 v_n \]이므로 \(\operatorname{I} _{\mathbf{V} }\) 의 \(j\) 열은 \(e_j\) 이다. 따라서
\[ [\operatorname{I} _{\mathbf{V} }]_{\beta } = \begin{pmatrix} 1&0&\dots&0\\ 0&1&\dots&0\\ \vdots & \vdots & \ddots & \vdots \\ 0&0&\dots&1\\ \end{pmatrix} = I_n \]이다. \([\operatorname{I} _{\mathbf{V} }]_{\beta }\) 는 \(n \times n\) 항등행렬 \(I_n\) 이다.
문제 2.2-12
벡터공간 \(\mathbf{V}\) 의 순서기저 \(\beta = \{v_1, v_2, \dots, v_n\}\) 와 선형연산자 \(\operatorname{T}\) 와 \(j \in \{1, \dots, n\}\) 에 대하여 \([\operatorname{T}]_{\beta }\) 가 상삼각행렬인 것과 \(\operatorname{T}(v_j) \in \operatorname{span} (\{v_1, v_2, \dots, v_j\})\) 인 것은 동치이다.
-
증명
\([\operatorname{T}]_{\beta }\) 가 상삼각행렬이면 다음이 성립한다.
\[ \operatorname{T}(v_j) = \sum_{i=1}^{j}a _{ij}v_i \in \operatorname{span} (\{v_1, v_2, \dots, v_j\}) \tag*{▲} \]\(\operatorname{T}(v_j) \in \operatorname{span} (\{v_1, v_2, \dots, v_j\})\) 를 가정하면 다음이 성립한다.
\[ \operatorname{T}(v_j) = \sum_{i=1}^{j}a _{ij}v_i \]따라서 \([\operatorname{T}]_{\beta }\) 는 상삼각행렬이다. ■
Kronecker delta✔
크로네커 델타(Kronecker delta)
-
예시
\(n \times n\) 항등행렬 \(I_n\) 의 성분은 \((I_n) _{ij} = \delta _{ij}\) 이다.
Addition, Multiples of Linear Maps✔
\(\mathbf{F}\)-벡터공간 \(\mathbf{V} , \mathbf{W}\) 에서 정의된 임의의 함수 \(\operatorname{T} , \operatorname{U} : \mathbf{V} \to \mathbf{W}\) 와 \(a \in \mathbf{F}\) 와 \(\forall x \in \mathbf{V}\) 에 대하여 두 함수의 합과 스칼라곱을 다음과 같이 정의한다.
-
\(\operatorname{T} + \operatorname{U} : \mathbf{V} \to \mathbf{W}, (\operatorname{T} + \operatorname{U} )(x) = \operatorname{T} (x) + \operatorname{U} (x)\)
-
\(a \operatorname{T} : \mathbf{V} \to \mathbf{W}, (a \operatorname{T} )(x) = a \operatorname{T} (x)\)
- 이는 함수의 합의 스칼라 곱에 대한 보편적 정의인데 선형변환의 합과 스칼라 곱이 여전히 선형임을 다음 정리가 말해준다.
Set of All Linear Maps is Vector Space✔
정리 2.7
\(\mathbf{F}\)-벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 선형변환 \(\operatorname{T} , \operatorname{U} : \mathbf{V} \to \mathbf{W}\) 에 대하여 다음이 성립한다.
-
\(\forall a \in \mathbf{F}\) 에 대하여 \(a \operatorname{T} + \operatorname{U}\) 은 선형이다.
-
\(\mathbf{V} \to \mathbf{W}\) 에서 정의된 모든 선형변환의 집합은 \(\mathbf{F}\)-벡터공간이다.
-
증명
1:
\(x, y \in \mathbf{V} , c \in \mathbf{F}\) 에 대하여 다음이 성립한다.
\[ \begin{align}\begin{split} (a \operatorname{T} + \operatorname{U} )(cx+y)&=a \operatorname{T} (cx+y) + \operatorname{U} (cx + y)\\ &=a[\operatorname{T} (cx+y)] + c \operatorname{U} (x) + \operatorname{U} (y)\\ &=a[c\operatorname{T} (x) + \operatorname{T}(y)] + c \operatorname{U} (x) + \operatorname{U} (y)\\ &=ac\operatorname{T} (x) + c\operatorname{U}(x) + a \operatorname{T} (y) + \operatorname{U} (y)\\ &=c(a\operatorname{T} + \operatorname{U} ) (x) + (a \operatorname{T} + \operatorname{U} )(y)\\ \end{split}\end{align}\tag*{} \]그러므로 \(a \operatorname{T} + \operatorname{U}\) 는 선형이다. ■
2:
위의 정의는 임의의 함수에 대한 두 함수의 합, 스칼라 곱을 정의한 것이므로 선형변환의 합과 스칼라곱에도 적용된다. 그러므로 이 합과 스칼라 곱을 만족하는 선형변환 집합이 벡터공간의 조건을 만족하는지 확인하면 된다.
\(\mathbf{V} \to \mathbf{W}\) 에서 정의된 모든 선형변환의 집합을 \(\mathcal{L}\) 라고 하자. 그러면 영변환 \(\operatorname{L} _0: \mathbf{V} \to \mathbf{W}\) 는 \(\mathcal{L}\) 에서 영벡터의 역할을 한다. 또한 \(\mathcal{L}\) 가 벡터공간의 8 가지 조건을 만족한다는 것을 쉽게 확인할 수 있다.
그러므로 \(\mathcal{L}\) 는 \(\mathbf{F}\)-벡터공간이다. ■
벡터공간 \(\mathcal{L}(\mathbf{V} , \mathbf{W} )\)
벡터공간 \(\mathcal{L}(\mathbf{V} , \mathbf{W} )\) 은 \(\mathbf{F}\)-벡터공간 \(\mathbf{V} , \mathbf{W}\) 에 대하여 \(\mathbf{V} \to \mathbf{W}\) 에서 정의된 모든 선형변환의 집합이다.
-
\(\mathbf{V} = \mathbf{W}\) 이면 간단하게 \(\mathcal{L}(\mathbf{V} )\) 라 표기한다.
-
참고로 2.4 절에서 차원 \(\dim(\mathbf{V} ) = n, \dim(\mathbf{W} ) = m\) 인 벡터공간 \(\mathbf{V} , \mathbf{W}\) 에 대하여 \(\mathcal{L}(\mathbf{V} , \mathbf{W} )\) 와 \(\mathbf{F}^{m \times n}\) 가 본질적으로 같다는 것을 보일 것이다.
정리 2.8
체 \(\mathbf{F}\) 에 대한 유한차원 \(\mathbf{F}\)-벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 각각의 순서기저 \(\beta , \gamma\) 와 선형변환 \(\operatorname{T} , \operatorname{U} : \mathbf{V} \to \mathbf{W}\) 에 대하여 다음이 성립한다.
-
\([\operatorname{T} + \operatorname{U} ] ^{\gamma } _{\beta } = [\operatorname{T} ] ^{\gamma } _{\beta } + [\operatorname{U} ] ^{\gamma } _{\beta }\)
-
\(\forall a \in \mathbf{F} :[a \operatorname{T} ] ^{\gamma } _{\beta } = a[ \operatorname{T} ] ^{\gamma } _{\beta }\)
-
증명
\(\beta = \{v_1, \dots, v_n\}, \gamma = \{w_1, \dots, w_m\}\) 에 대하여
\[ \operatorname{T} (v_j) = \sum_{i=1}^{m}a _{ij}w_i, \enspace \operatorname{U} (v_j) = \sum_{i=1}^{m}b _{ij}w_i, \qquad j \in \{1, \dots, n\} \]을 만족하는 유일한 스칼라 \(a _{ij}, b _{ij} \enspace (i \leq i \leq m, 1 \leq j \leq n)\) 가 존재한다. 즉,
\[ (\operatorname{T} + \operatorname{U} ) (v_j) = \sum_{i=1}^{m}(a _{ij} + b _{ij}) w_i \]이고
\[ ([\operatorname{T} + \operatorname{U} ] ^{\gamma } _{\beta }) _{ij} = a _{ij} + b _{ij} = ([\operatorname{T} ] ^{\gamma } _{\beta } + [\operatorname{U} ] ^{\gamma } _{\beta }) _{ij} \]이다. ▲
두번째도 행렬의 원소가 같다는 것을 보이는 방식으로 증명가능하다. ■
-
예시
선형변환 \(\operatorname{T} : \R ^{2} \to \R ^{3}, \operatorname{U} : \R ^{2} \to \R ^{3}\) 을
\[ \operatorname{T} (a_1, a_2) = (a_1 + 3a_2, 0, 2a_1 - 4a_2), \enspace \operatorname{U} (a_1, a_2) = (a_1 - a_2, 2a_1, 3a_1 + 2a_2) \]와 같이 정의하고, \(\R ^{2}, \R ^{3}\) 의 순서기저로써 각각의 표준순서기저 \(\beta , \gamma\) 를 두면
\[ \operatorname{T} (1, 0) = (1, 0, 2) = 1e_1 + 0e_2 + 2e_3 \]\[ \operatorname{T} (0, 1) = (3, 0, -4) = 3e_1 + 0e_2 + -4e_3 \]이고, \(\operatorname{U}\) 의 경우도 표준순서기저의 일차결합의 스칼라를 구해보면
\[ [\operatorname{T} ] ^{\gamma } _{\beta } = \begin{pmatrix} 1&3\\ 0&0\\ 2&-4\\ \end{pmatrix}, [\operatorname{U} ] ^{\gamma } _{\beta } = \begin{pmatrix} 1&-1\\ 2&0\\ 3&2\\ \end{pmatrix} \]이 성립한다. ▲
\(\operatorname{T} + \operatorname{U}\) 는 정의에 따라
\[ (\operatorname{T} + \operatorname{U} )(a_1, a_2) = (2a_1 + 2a_2, 2a_1, 5a_1 - 2a_2) \]이다. 그러면
\[ (\operatorname{T} + \operatorname{U} )(1, 0) = (2, 2, 5) = 2e_1 + 2e_2 + 5e_3 \]\[ (\operatorname{T} + \operatorname{U} )(0, 1) = (2, 0, -2) = 2e_1 + 0e_2 - 2e_3 \]이므로
\[ [\operatorname{T} + \operatorname{U} ] ^{\gamma } _{\beta } = \begin{pmatrix} 2&2\\ 2&0\\ 5&-2\\ \end{pmatrix} \]이다. 그러므로 \([\operatorname{T} + \operatorname{U} ] ^{\gamma}_{\beta} = [\operatorname{T} ] ^{\gamma}_{\beta}+[\operatorname{U} ]^{\gamma}_{\beta}\) 임을 알 수 있다. ■
Composition of Linear Map✔
정리 2.9
\(\mathbf{F}\)-벡터공간 \(\mathbf{V} ,\mathbf{W} , \mathbf{Z}\) 와 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W} , \operatorname{U} : \mathbf{W} \to \mathbf{Z}\) 에 대하여 두 선형변환의 합성 \(\operatorname{U} \operatorname{T} : \mathbf{V} \to \mathbf{Z}\) 는 선형이다.
-
두 선형변환 \(\operatorname{U} , \operatorname{T}\) 의 합성 \(\operatorname{U} \circ \operatorname{T}\) 을 편의상 \(\operatorname{U} \operatorname{T}\) 로 표기하자.
-
증명
\(x, y \in \mathbf{V} , a \in \mathbf{F}\) 에 대하여
\[ \begin{align}\begin{split} \operatorname{U} \operatorname{T} (ax + y)&= \operatorname{U} (\operatorname{T} (ax +y)) \\ &= \operatorname{U} (a \operatorname{T} (x) + \operatorname{T} (y))\\ &=a \operatorname{U} (\operatorname{T} (x)) + \operatorname{U} (\operatorname{T} (y)) \\ &=a (\operatorname{U} \operatorname{T} )(x) + \operatorname{U} \operatorname{T} (y) \\ \end{split}\end{align}\tag*{} \]이 성립한다. ■
문제 2.3-12
\(\mathbf{F}\)-벡터공간 \(\mathbf{V} ,\mathbf{W} , \mathbf{Z}\) 와 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W} , \operatorname{U} : \mathbf{W} \to \mathbf{Z}\) 과 그 합성변환 \(\operatorname{U}\operatorname{T} : \mathbf{V} \to \mathbf{Z}\) 대하여 다음이 성립한다.
-
\(\operatorname{U}\operatorname{T}\) 가 단사이면 \(\operatorname{T}\) 도 단사이다.
-
\(\operatorname{U}\operatorname{T}\) 가 전사이면 \(\operatorname{U}\) 도 전사이다.
-
\(\operatorname{T} , \operatorname{U}\) 가 전단사이면 \(\operatorname{U}\operatorname{T}\) 도 전단사이다.
-
증명
1:
\(\operatorname{U} \circ \operatorname{T}\) 가 단사이면 \(\mathbf{S} \circ (\operatorname{U} \circ \operatorname{T} ) = \operatorname{I} _{\mathbf{V}}\) 을 만족하는 변환 \(\mathbf{S}: \mathbf{Z} \to \mathbf{V}\) 가 존재한다. 함수의 합성은 결합법칙을 만족하므로
\[ \mathbf{S} \circ (\operatorname{U} \circ \operatorname{T} ) = (\mathbf{S} \circ \operatorname{U} ) \circ \operatorname{T} = \operatorname{I} _{\mathbf{V} } \]이다. 단사함수와의 동치명제에 대한 정리에 의하여 \(\operatorname{T}\) 는 단사이다. ▲
이로써 \(\operatorname{U}\operatorname{T}, \operatorname{T}\) 가 단사임을 가정할 수 있다. 이제 \(\operatorname{U}\operatorname{T}\) 가 단사이면 \(\operatorname{U}\) 도 단사여야 하는지 살펴보자. \(\operatorname{U}\) 가 단사가 아니라고 가정하면 \(\operatorname{U} (y_1) = \operatorname{U} (y_2) \implies y_1 \neq y_2\) 를 만족하는 \(y_1, y_2 \in \mathbf{W}\) 가 존재한다. \(y_1 = \operatorname{T} (x_1), y_2 = \operatorname{T} (x_2)\) 라고 하면
\[ \operatorname{U} (\operatorname{T} (x_1)) = \operatorname{U} (\operatorname{T} (x_2)) \]이므로 \(\operatorname{U}\operatorname{T}\) 가 단사인 것에서 \(x_1 = x_2\) 이다. 그러면 \(\operatorname{T} (x_1) = \operatorname{T} (x_2) = y_1 = y_2\) 이다. 이는 모순이다. 그러므로 \(\operatorname{U}\) 는 단사이다.
그러나 \(y_1 = \operatorname{T} (x_1), y_2 = \operatorname{T} (x_2)\) 를 가정할 수 없는 경우 즉, \(\operatorname{T}\) 의 함수값이 \(y_1, y_2\) 에서 정의되지 않은 경우 \(\operatorname{U}\) 가 단사라는 것을 보장 할 수 없다. 실제로 \(\operatorname{U}\) 가 \(\mathbf{W} \to \mathbf{Z}\) 위에서 단사가 아니어도 \(\operatorname{T}\) 의 함수값이 정의된 곳에서, 즉 \(\operatorname{im} (\operatorname{T}) \to \mathbf{Z}\) 위에서는 \(\operatorname{U}\) 가 단사라면 \(\operatorname{U}\operatorname{T}\) 가 단사라는 조건에 모순되지 않는다. 그러므로 \(\operatorname{U}\) 가 반드시 단사라고 할 수 없다. ▲
2:
\(\operatorname{U} \circ \operatorname{T}\) 가 전사이면 \((\operatorname{U} \circ \operatorname{T} ) \circ \mathbf{S} = \operatorname{I} _{\mathbf{W}}\) 을 만족하는 변환 \(\mathbf{S}: \mathbf{Z}\to \mathbf{V}\) 가 존재한다. 함수의 합성은 결합법칙을 만족하므로
\[ (\operatorname{U} \circ \operatorname{T} ) \circ \mathbf{S} = \operatorname{U} \circ (\operatorname{T} \circ \mathbf{S} ) = \operatorname{I} _{\mathbf{W} } \]이다. 전사함수와의 동치명제에 대한 정리에 의하여 \(\operatorname{T}\) 는 단사이다. ▲
이로써 \(\operatorname{U}\operatorname{T}, \operatorname{T}\) 가 전사임을 가정할 수 있다. \(\operatorname{T}\) 도 전사여야 하는지 살펴보자. \(\operatorname{T}\) 가 전사가 아니라면 \(x \in \mathbf{W} \land x \not\in \operatorname{im} (\operatorname{T})\) 인 \(x\) 가 존재한다. \(\operatorname{U}\) 가 전사이므로 \(\operatorname{T}\) 의 함수값이 정의되지 않은 \(x \in \mathbf{W}\) 에 대한 함수값 \(\operatorname{U} (x) \in \mathbf{Z}\) 가 항상 존재한다. 따라서 \(\operatorname{U}\operatorname{T}\) 가 전사이기 위하여 \(\operatorname{U} (x) = \operatorname{U} (\operatorname{T} (a))\) 를 만족하는 \(a \in \mathbf{V}\) 가 존재해야 한다. 즉, 조건
\[ x \in \mathbf{W} \land x \not\in \operatorname{im} (\operatorname{T}) \implies a \in \operatorname{im} (\operatorname{T}) \land \operatorname{U} (\operatorname{T} (a)) = \operatorname{U} (x) \]이 만족된다면 \(\operatorname{T}\) 가 전사일 필요는 없다. ▲
3:
\(\operatorname{T} , \operatorname{U}\) 가 전단사이면 역함수 \(\operatorname{T}^{-1} : \mathbf{W} \to \mathbf{V} , \operatorname{U} ^{-1} : \mathbf{Z}\to \mathbf{W}\) 가 존재한다. 또한 함수의 합성은 결합법칙을 만족하므로
\[ (\operatorname{U} \circ \operatorname{T}) \circ (\operatorname{T} ^{-1} \circ \operatorname{U} ^{-1}) = \operatorname{U} \circ \operatorname{I} _{\mathbf{W}} \circ \operatorname{U} ^{-1} = \operatorname{I} _{\mathbf{Z}} \]\[ (\operatorname{T} ^{-1} \circ \operatorname{U} ^{-1}) \circ (\operatorname{U} \circ \operatorname{T}) = \operatorname{T} ^{-1} \circ \operatorname{I} _{\mathbf{W}} \circ \operatorname{T} = \operatorname{I} _{\mathbf{V} } \]이다. 역함수가 존재함은 전단사 함수인 것과 동치 이므로 \(\operatorname{U} \operatorname{T}\) 는 전단사이다. ■
정리 2.10
체 \(\mathbf{F}\) 에 대한 \(\mathbf{F}\)-벡터공간 \(\mathbf{V}\) 와 선형연산자 \(\operatorname{T} , \operatorname{U} _1, \operatorname{U} _2\) 에 대하여 다음이 성립한다.
-
\(\operatorname{T} (\operatorname{U} _1 + \operatorname{U} _2) = \operatorname{T} \operatorname{U} _1 + \operatorname{T} \operatorname{U} _2\)
-
\((\operatorname{U} _1 + \operatorname{U} _2)\operatorname{T} = \operatorname{U} _1 \operatorname{T} +\operatorname{U} _2 \operatorname{T}\)
-
\(\operatorname{T} (\operatorname{U} _1 \operatorname{U} _2) = (\operatorname{T} \operatorname{U} _1) \operatorname{U} _2\)
-
\(\operatorname{T} \operatorname{I} = \operatorname{I} \operatorname{T} = \operatorname{T}\)
-
\(\forall a \in \mathbf{F} : a(\operatorname{U} _1 \operatorname{U} _2) = (a \operatorname{U} _1)\operatorname{U} _2 = \operatorname{U} _1(a \operatorname{U} _2)\)
-
1), 2) 는 선형변환이 분배법칙을 만족한다는 것을, 3) 은 선형변환이 결합법칙을 만족한다는 것을 말해준다.
-
증명
1:
함수의 덧셈의 정의에 의하여 다음이 성립한다.
\[ \operatorname{T}(\operatorname{U}_{1} + \operatorname{U}_{2})(x) = \operatorname{T}(\operatorname{U}_{1}(x) + \operatorname{U}_{2}(x)) \]이 결과는 선형변환의 정의에 의하여 다음과 같아진다.
\[ = \operatorname{T}(\operatorname{U}_{1}(x) + \operatorname{U}_{2}(x)) = \operatorname{T}(\operatorname{U}_{1}(x)) + \operatorname{T}(\operatorname{U}_{2}(x)) = (\operatorname{T}\operatorname{U}_{1})(x) + (\operatorname{T}\operatorname{U}_{2})(x) \]이 결과는 다시 함수의 덧셈의 정의에 의하여 다음과 같아진다.
\[ = (\operatorname{T}\operatorname{U}_{1} + \operatorname{T}\operatorname{U}_{2})(x) \]따라서 \(\operatorname{T} (\operatorname{U} _1 + \operatorname{U} _2) = \operatorname{T} \operatorname{U} _1 + \operatorname{T} \operatorname{U} _2\) 이다. ▲
2:
함수의 덧셈의 정의에 의하여 다음이 성립한다.
\[ \begin{align}\begin{split} (\operatorname{U}_{1} + \operatorname{U}_{2})(\operatorname{T}(x)) & = \operatorname{U}_{1}(\operatorname{T}(x)) + \operatorname{U}_{2}(\operatorname{T}(x)) \\ &=(\operatorname{U}_{1}\operatorname{T})(x) + (\operatorname{U}_{2}\operatorname{T})(x) \\ &= (\operatorname{U}_{1}\operatorname{T} + \operatorname{U}_{2}\operatorname{T})(x) \\ \end{split}\end{align} \tag*{} \]3:
함수의 합성은 결합법칙을 만족한다. 선형변환은 함수이다. ▲
4:
자명하다. ▲
5:
함수의 스칼라곱의 정의에 의하여 다음이 성립한다.
\[ ((a \operatorname{U}_{1})\operatorname{U}_{2})(x) = a (\operatorname{U}_{1}\operatorname{U}_{2})(x) \]다시 함수의 스칼라곱의 정의에 의하여 다음이 성립한다.
\[ (\operatorname{U}_{1}(a \operatorname{U}_{2}))(x) = \operatorname{U}_{1}(a \cdot \operatorname{U}_{2}(x)) \]그러면 다음과 같이 선형변환의 정의에 의하여 스칼라 \(a\) 를 바깥으로 뺄 수 있다.
\[ \operatorname{U}_{1}(a \cdot \operatorname{U}_{2}(x)) = a (\operatorname{U}_{1}(\operatorname{U}_{2}(x))) = a (\operatorname{U}_{1}\operatorname{U}_{2})(x) \tag*{■} \] -
이 정리는 선형변환의 정의역과 공역이 같은 경우를 말하고 있지만, 선형변환의 정의역과 공역이 같지 않으면 더 일반적인 결과가 성립한다.
벡터공간 \(\mathbf{V}\) 에서 정의된 선형변환 \(\operatorname{T} \in \mathcal{L}(\mathbf{V} )\) 와 \(k \in \N\) 에 대하여 다음과 같이 정의한다.
-
예시
무한번 미분가능한 실함수 집합 \(\mathbf{V}\) 에 대하여 \(\operatorname{T} : \mathbf{V} \to \mathbf{V}, \operatorname{T} (f) = f'\) 와 같이 정의된 선형변환의 합성을 표현할 때
\[ \operatorname{T} \operatorname{T} (f) = \operatorname{T} ^{2} (f) = \operatorname{T} (f') = (f')' = f'' \]\[ \operatorname{T} \operatorname{T} \operatorname{T} (f) = \operatorname{T} ^{3} (f) = \operatorname{T} ^{2} (f') = \operatorname{T} (f'') = f''' \]와 같이 표현한다.
Matrix Multiplication✔
행렬곱(matrix multiplication, matrix product)
\(m \times n\) 행렬 \(A\) 와 \(n \times p\) 행렬 \(B\) 에 대하여 두 행렬 \(A, B\) 의 곱 \(AB\) 는 \(1 \leq i \leq m, 1 \leq j \leq p\) 에 대하여 다음과 같이 정의된 \(m \times p\) 행렬이다.
-
예시(애니메이션)


-
\((AB) _{ij}\) 를 \(A\) 의 \(i\) 행과 \(B\) 의 \(j\) 열의 성분들을 곱하고 합한 것으로 보면 편하다.
-
행렬곱이 실제로 어떻게 이루어지는지 살펴보자. \(m \times n\) 행렬 \(A\), \(n \times p\) 행렬 \(B\) 의 실제모습을 다음과 같이 살펴보자.
\[ A = \begin{pmatrix} a _{11} & a _{12} & \dots & a _{1n}\\ a _{21} & a _{22} & \dots & a _{2n}\\ \vdots& \vdots& \ddots& \vdots \\ a _{m1} & a _{m2} & \dots & a _{mn}\\ \end{pmatrix}, B = \begin{pmatrix} b_{11} & b_{12} & \dots & b_{1p}\\ b_{21} & b_{22} & \dots & b_{2p}\\ \vdots& \vdots& \ddots& \vdots \\ b_{n1} & b_{n2} & \dots & b_{np}\\ \end{pmatrix} \]이 두 행렬의 행렬곱 \(m \times p\) 행렬 \(AB\) 의 실제 모습은 다음과 같다.
\[ \begin{align}\begin{split} &AB = \\ &\begin{pmatrix} a _{11} b _{11} + \dots + a _{1n} b _{n1} & a _{11} b _{12} + \dots + a _{1n} b _{n2} & \dots& a _{11} b _{1p} + \dots + a _{1n} b _{np} \\ a _{21} b _{21} + \dots + a _{2n} b _{n1} & a _{21} b _{12} + \dots + a _{2n} b _{n2} & \dots& a _{21} b _{1p} + \dots + a _{2n} b _{np} \\ \vdots& \vdots& \ddots& \vdots \\ a _{m1} b _{11} + \dots + a _{mn} b _{n1} & a _{m1} b _{12} + \dots + a _{mn} b _{n2} & \dots& a _{m1} b _{1p} + \dots + a _{mn} b _{np} \\ \end{pmatrix}\\ &= \begin{pmatrix} \sum_{k=1}^{n} a _{1k}b _{k1} & \sum_{k=1}^{n} a _{1k}b _{k2} & \dots& \sum_{k=1}^{n} a _{1k}b _{kp} \\ \sum_{k=1}^{n} a _{2k}b _{k1} & \sum_{k=1}^{n} a _{2k}b _{k2} & \dots& \sum_{k=1}^{n} a _{2k}b _{kp} \\ \vdots& \vdots& \ddots& \vdots \\ \sum_{k=1}^{n} a _{mk}b _{k1} & \sum_{k=1}^{n} a _{mk}b _{k2} & \dots& \sum_{k=1}^{n} a _{mk}b _{kp} \\ \end{pmatrix} \end{split}\end{align} \tag*{} \]그러므로 \(m \times p\) 행렬 \(AB\) 의 \(i\) 열 \(j\) 행 성분은 다음과 같다.
\[ (AB) _{ij} = \sum_{k=1}^{n} a _{ik}b _{kj} \] -
지금까지 하고 있는 일은 선형변환과 행렬 간의 대응관계를 연구하는 것이다. 먼저 선형변환과 행렬의 대응을 살펴보았다. 그리고 선형변환의 합과 스칼라곱을 정의한 다음 이 연산이 행렬에서의 합과 스칼라곱의 구조를 보존한다는 것을 증명했다. 이제 두 선형변환의 합성에 어떤 행렬의 연산이 대응되는지 연구해야 한다. 즉, 행렬곱에 대하여 정의할 차례인 것이다.
그렇다면 행렬 곱은 어째서 이렇게 정의되었나? 행렬 곱 정의가 두 선형변환의 합성의 구조를 보존해야 하기 때문이다.
유한차원 벡터공간 \(\mathbf{V} ,\mathbf{W} ,\mathbf{Z}\) 와 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W} , \operatorname{U} : \mathbf{W} \to \mathbf{Z}\) 를 생각하자. 이때 \(\mathbf{V}, \mathbf{W}, \mathbf{Z}\) 의 순서기저를 각각
\[ \alpha = \{v_1, \dots, v_n\} \]\[ \beta = \{w_1, \dots, w_m\} \]\[ \gamma = \{z_1, \dots, z_p\} \]으로 정의하고 선형변환 \(\operatorname{T} , \operatorname{U}\) 의 행렬표현을
\[ B = [\operatorname{T} ] ^{\beta }_{\alpha } \in \mathbf{F}^{m \times n}\]\[ A = [\operatorname{U} ] ^{\gamma}_{\beta} \in \mathbf{F}^{p \times m} \]라고 하자. 그러면 \(\operatorname{U} \operatorname{T} : \mathbf{V} \to \mathbf{Z}\) 에 대하여
\[ \boxed{ AB = [\operatorname{U} \operatorname{T} ] ^{\gamma}_{\alpha } \in \mathbf{F} ^{p \times n}} \]가 성립하도록 행렬곱 \(AB\) 를 정의하면 된다. \(j = 1, 2, \dots, n\) 에 대하여 다음이 성립한다.
\[ \begin{align}\begin{split} (\operatorname{U} \operatorname{T} ) (v_j) &= \operatorname{U} (\operatorname{T} (v_j)) = \operatorname{U} \bigg (\sum_{k=1}^{m}B _{kj} w_k\bigg ) = \sum_{k=1}^{m}B _{kj}\operatorname{U} (w_k) \\ &= \sum_{k=1}^{m}B _{kj} \bigg (\sum_{i=1}^{p}A _{ik}z_i\bigg ) = \sum_{i=1}^{p} \bigg (\sum_{k=1}^{m}A _{ik}B _{kj}\bigg ) z_i \\ \end{split}\end{align}\tag*{} \]그러므로 행렬곱 \(AB\) 를 다음과 같은 \(p \times n\) 행렬로 정의할 수 있다.
\[ \boxed{ (AB) _{ij} = \sum_{k=1}^{m}A _{ik} B _{kj} } \] -
행렬 \(A, B\) 의 형상이 다음과 같이 맞아야 행렬곱 연산을 할 수 있다.
\[ (m \times n) (n \times p) = (m \times p) \]내부 차원이 맞아야 행렬 곱 \(AB\) 가 정의되고, 외부 차원이 행렬 \(AB\) 의 크기를 결정한다.
-
예시
다음과 같이 \((2 \times 3) (3 \times 1) = 2 \times 1\) 이다.
\[ \begin{pmatrix} 1&2&1\\ 0&4&-1\\ \end{pmatrix} \begin{pmatrix} 4\\ 2\\ 5\\ \end{pmatrix} = \begin{pmatrix} 13\\ 3\\ \end{pmatrix} \] -
함수의 합성에 교환법칙이 성립하지 않으므로 행렬곱에도 교환법칙이 성립하지 않는다.
-
예시
다음은 두 행렬 \(A,B\) 가 \(AB \neq BA\) 을 만족한다.
\[ \begin{pmatrix} 1&1\\ 0&0\\ \end{pmatrix} \begin{pmatrix} 0 & 1\\ 1 & 0\\ \end{pmatrix} = \begin{pmatrix} 1 & 1\\ 0 & 0\\ \end{pmatrix} , \quad \begin{pmatrix} 0&1\\ 1&0\\ \end{pmatrix} \begin{pmatrix} 1&1\\ 0&0\\ \end{pmatrix} = \begin{pmatrix} 0&0\\ 1&1\\ \end{pmatrix} \]
\(m \times n\) 행렬과 항등행렬 \(I_m, I_n\) 에 대하여 다음이 성립한다.
- 증명
-
증명
\[(AB) ^{\top} _{ij} = (AB) _{ji} = \sum_{k=1}^{n}A _{jk}B _{ki}\]\[(B ^{\top} A ^{\top}) _{ij} = \sum_{k=1}^{n}(B ^{\top})_{ik}(A ^{\top}) _{kj} = \sum_{k=1}^{n}B _{ki}A _{jk} \]
정리 2.11
유한차원 벡터공간 \(\mathbf{V} , \mathbf{W} , \mathbf{Z}\) 와 각각의 순서기저 \(\alpha , \beta , \gamma\) 와 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W} , \operatorname{U} : \mathbf{W} \to \mathbf{Z}\) 에 대하여 다음이 성립한다.
- 이 정리가 행렬 곱 연산이 두 선형변환의 합성의 구조를 보존한다는 것을 말해준다.
-
증명
행렬곱의 정의에 의하여 이 정리가 성립함을 쉽게 알 수 있다.
-
예시
선형변환 \(\operatorname{U}: \mathbf{P} _3(\R), \operatorname{T}:\mathbf{P} _2(\R) \to \mathbf{P} _3(\R)\) 를
\[ \operatorname{U} (f(x)) = f'(x), \quad \operatorname{T} (f(x)) = \int_{0}^{x}f(t)dt \]로 정의하면 \(\operatorname{U} \operatorname{T} = \operatorname{I}\) 이다. \(\alpha , \beta\) 를 \(\mathbf{P} _3(\R), \mathbf{P} _2(\R)\) 의 표준순서기저라 하면 다음이 성립한다.
\[ [\operatorname{U} \operatorname{T} ] _{\beta } = [\operatorname{U} ] ^{\beta }_{\alpha }[\operatorname{T} ]^{\alpha } _{\beta } = \begin{pmatrix} 0&1&0&0\\ 0&0&2&0\\ 0&0&0&3\\ \end{pmatrix}\begin{pmatrix} 0&0&0\\ 1&0&0\\ 0&\dfrac{1}{2}&0\\ 0&0&\dfrac{1}{3}\\ \end{pmatrix} = \begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1\\ \end{pmatrix} = [\operatorname{I} ] _{\beta } \]
정리 2.11 따름정리
유한차원 벡터공간 \(\mathbf{V}\) 와 순서기저 \(\beta\) 와 선형연산자 \(\operatorname{T} , \operatorname{U} \in \mathcal{L}(\mathbf{V} )\) 에 대하여 다음이 성립한다.
정리 2.12
\(A\) 가 \(m \times n\) 행렬, \(B\) 와 \(C\) 가 \(n \times p\) 행렬, \(D\) 와 \(E\) 가 \(q \times m\) 행렬일 때, 다음이 성립한다.
-
\(A(B+C) = AB+AC, (D+E)A = DA+EA\)
-
임의의 스칼라 \(a\) 에 대하여 \(a(AB) = (aA)B=A(aB)\)
-
\(I_mA = A=AI_n\)
-
1) 의 증명
\[ \begin{align}\begin{split} [A(B+C)] _{ij} &= \sum_{k=1}^{n}A _{ik}(B+C) _{kj} = \sum_{k=1}^{n}A _{ik}(B _{kj} + C _{kj}) \\ &= \sum_{k=1}^{n} (A _{ik}B _{kj} + A _{ik}C _{kj}) = \sum_{k=1}^{n} A _{ik} B _{kj} + \sum_{k=1}^{n} A _{ik} C _{kj} \\ &= (AB) _{ij} + (AC) _{ij} = [AB +AC] _{ij} \end{split}\end{align}\tag*{} \]\[ \iff A(B+C) = AB+AC \] -
3) 의 증명
\(\displaystyle (I_mA) _{ij} = \sum_{k=1}^{m}(I_m) _{ik}A _{kj} = \sum_{k=1}^{m}\delta _{ik}A _{kj} = A _{ij}\)
정리 2.12 따름정리
\(m \times n\) 행렬 \(A\) 와 \(n \times p\) 행렬 \(B_1, B_2, \dots, B_k\) 와 \(q \times m\) 행렬 \(C_1, C_2, \dots, C_k\) 와 스칼라 \(a_1, a_2, \dots, a_k\) 에 대하여 다음이 성립한다.
- 증명
\(n \times n\) 행렬 \(A\) 에 대하여 행렬의 지수를 다음과 같이 정의한다.
행렬곱에서 소거법칙이 성립하지 않는다.
-
증명
\(A = \begin{pmatrix} 0&0\\ 1&0\\ \end{pmatrix} \implies A \neq O \land A ^{2} = O\) 이다. 이때 소거법칙이 성립한다고 가정하면
\[ A \cdot A = A ^{2} = O = A \cdot O \implies A = O \]이다. 이는 모순이다. ■
정리 2.13
\(m \times n\) 행렬 \(A\) 와 \(n \times p\) 행렬 \(B\) 와 \(j = 1, 2, \dots, p\) 에 대하여 \(AB\) 의 \(j\) 열을 \(u_j\), \(B\) 의 \(j\) 열을 \(v_j\) 이라 하면 다음이 성립한다.
-
\(u_j = Av_j\)
-
\(v_j = Be_j\) (단, \(e_j\) 는 \(\mathbf{F} ^{p}\) 의 \(j\) 번째 표준벡터)
-
증명
1:
\[ u_j = \begin{pmatrix} (AB) _{1j}\\ (AB) _{2j}\\ \vdots \\ (AB) _{mj}\\ \end{pmatrix} = \begin{pmatrix} \sum_{k=1}^{n}A _{1k}B _{kj}\\ \sum_{k=1}^{n}A _{2k}B _{kj}\\ \vdots\\ \sum_{k=1}^{n}A _{mk}B _{kj}\\ \end{pmatrix} = A \begin{pmatrix} B _{1j}\\ B _{2j}\\ \vdots \\ B _{nj}\\ \end{pmatrix} = A v_j \tag*{■} \]2:
\[ Be_j = \begin{pmatrix} b_{11} & b_{12} & \dots & b_{1p}\\ b_{21} & b_{22} & \dots & b_{2p}\\ \vdots& \vdots& \ddots& \vdots \\ b_{n1} & b_{n2} & \dots & b_{np}\\ \end{pmatrix} \begin{pmatrix} 0\\ 0\\ \vdots \\ 1\\ \vdots \\ 0\\ \end{pmatrix} = \begin{pmatrix} b_{1j}\\ b_{2j}\\ \dots\\ b_{nj}\\ \end{pmatrix} \tag*{■} \]
정리 2.14
유한차원 벡터공간 \(\mathbf{V} , \mathbf{W}\) 과 각각의 순서기저 \(\beta , \gamma\) 에 대한 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 과 \(u \in \mathbf{V}\) 에 대하여 다음이 성립한다.
-
이 정리는 선형변환에 어떤 벡터를 입력하여 행렬로 표현한 것과 선형변환과 벡터를 행렬로 표현한 후 행렬곱 한 것이 같음을 말해준다.
-
증명
\(u \in \mathbf{V}\) 를 고정하고 다음과 같은 선형변환 \(f: F \to \mathbf{V} , g: F \to \mathbf{W}\) 를 정의하자.
\[ \forall a \in F : f(a) = au, g(a) = a \operatorname{T} (u) \]\(F\) 의 표준순서기저를 \(\alpha = \{1\}\) 라고 하자. 선형변환의 조건 에 의하여 \(g(a) = a \operatorname{T} (u) = \operatorname{T} (au) = \operatorname{T} f(a)\) 이므로 \(g = \operatorname{T} f\) 이다.
행렬의 각 열을 벡터로 보고 정리 2.11 을 적용하면 다음이 성립한다.
\[ [\operatorname{T} (u)] _{\gamma } = [g(1)] _{\gamma } = [g] ^{\gamma}_{\alpha } = [\operatorname{T} f] ^{\gamma}_{\alpha } = [\operatorname{T} ] ^{\gamma}_{\beta} [f] ^{\beta }_{\alpha } = [\operatorname{T} ] ^{\gamma}_{\beta} [f(1)] _{\beta } = [\operatorname{T} ]^{\gamma}_{\beta} [u] _{\beta } \tag*{■} \]
Left Multiplication Transformation✔
좌측 곱 변환(left multiplication transformation)
체 \(\mathbf{F}\) 에서 성분을 가져온 \(m \times n\) 행렬 \(A\) 에 대하여 다음과 같은 선형변환을 좌측 곱 변환이라 한다.
-
\(x\) 는 \(\mathbf{F} ^{n}\) 의 열벡터이다.
-
좌측 곱 변환은 선형변환의 성질로 행렬의 성질을 유추하거나, 행렬의 성질로 선형변환의 성질을 유추할 때 유용하게 사용되는 도구이다.
-
예시
\(A = \begin{pmatrix} 1&2&1\\ 0&1&2\\ \end{pmatrix}, x= \begin{pmatrix} 1\\ 3\\ -1\\ \end{pmatrix}\) 에 대하여 다음이 성립한다.
\[\operatorname{L} _A(x) = Ax = \begin{pmatrix} 1&2&1\\ 0&1&2\\ \end{pmatrix}\begin{pmatrix} 1\\ 3\\ -1\\ \end{pmatrix} = \begin{pmatrix} 6\\ 1\\ \end{pmatrix}\]
정리 2.15
체 \(\mathbf{F}\) 에서 성분을 가져온 \(m \times n\) 행렬 \(A\) 에 대하여 좌측 곱 변환 \(\operatorname{L} _{A}: \mathbf{F} ^{n} \to \mathbf{F} ^{m}\) 은 선형이다.
또한 체 \(\mathbf{F}\) 에서 성분을 가져온 \(m \times n\) 행렬 \(B\) 와 \(\mathbf{F} ^{n}\) 의 표준순서기저 \(\beta\), \(\mathbf{F} ^{m}\) 의 표준순서기저 \(\gamma\) 에 대하여 다음이 성립한다.
-
\([\operatorname{L} _A] ^{\gamma}_{\beta} = A\)
-
\(\operatorname{L} _A = \operatorname{L} _B \iff A = B\)
-
\(\operatorname{L} _{A+B} = \operatorname{L} _A + \operatorname{L} _B\)
-
\(\forall a \in \mathbf{F} : \operatorname{L} _{aA} = a \operatorname{L} _A\)
-
\(\operatorname{T} : \mathbf{F} ^{n} \to \mathbf{F} ^{m}\) 이 선형이면 \(\operatorname{T} = \operatorname{L} _C\) 인 \(m \times n\) 행렬 \(C\) 가 유일하게 존재한다. 또한 \(C = [\operatorname{T} ] ^{\gamma}_{\beta}\) 이다.
-
\(n \times p\) 행렬 \(E\) 에 대하여 \(\operatorname{L} _{AE} = \operatorname{L} _A \operatorname{L} _E\) 이다.
-
\(m = n \implies \operatorname{L} _{I_n} = \operatorname{I} _{\mathbf{F} ^{n}}\)
- 이 정리는 \(\operatorname{L} _A\) 가 선형이고 유용한 도구를 많이 제공한다는 것을 말해준다.
-
증명
\(\operatorname{L}_{A}\) 는 선형이다:
정리 2.12 에 의하여 \(A(B+C) = AB+AC\) 이다. 이는 \(\operatorname{L} _A(x + y) = A(x+y) = Ax + Ay = \operatorname{L} (x) + \operatorname{L} (y)\) 임을 뜻한다.
또한 정리 2.12 에 의하여 스칼라 \(a\) 에 대하여 \(A(aB) = a(AB)\) 이다. 이는 \(\operatorname{L} _A(cx) = A(cx) = c(Ax) = c\operatorname{L} (x)\) 임을 뜻한다. 그러므로 \(\operatorname{L} _A\) 는 선형이다. ▲
1:
일단 \(\beta = \{e_1, e_2, \dots, e_n\}\) 이고 \(\gamma = \{e_1, e_2, \dots, e_m\}\) 이다.
\([\operatorname{L}_{A}] ^{\gamma}_{\beta}\) 의 \(j\) 열은 \([\operatorname{L}_{A}(e_j)] _{\gamma} = [Ae_j] _{\gamma}\) 인데 \(Ae_j\) 는 \(A\) 의 \(j\) 열이다. 또 \([Ae_j] _{\gamma }\) 는 표준순서기저로 \(A\) 의 \(j\) 열을 나타낸 행렬이므로 결국 다시 \(A\) 의 \(j\) 열이 된다. 이는 \([\operatorname{L}_{A}]^{\gamma}_{\beta}\) 의 모든 열이 \(A\) 의 열임을 뜻한다. 그러므로 \([\operatorname{L}_{A}]^{\gamma}_{\beta} = A\) 이다. ▲
2:
이미 증명한 1) 에 의하여
\[ A = [\operatorname{L}_{A}] ^{\gamma}_{\beta} = [\operatorname{L}_{B}] ^{\gamma}_{\beta} = B \]이다. 그 역도 쉽게 증명가능하다. ▲
3:
이미 증명한 1) 과 정리 2.8 - 1 에 의하여 다음이 성립한다.
\[ [\operatorname{L}_{A+B}] ^{\gamma}_{\beta} = A + B = [\operatorname{L}_{A}] ^{\gamma}_{\beta} + [\operatorname{L}_{B}] ^{\gamma}_{\beta} = [\operatorname{L}_{A} + \operatorname{L}_{B}] ^{\gamma}_{\beta} \tag*{▲} \]4:
\[ [\operatorname{L}_{aA}]^{\gamma}_{\beta} = aA = a[\operatorname{L}_{A}]^{\gamma}_{\beta} \tag*{▲} \]5:
\(C = [\operatorname{T} ] ^{\gamma}_{\beta}\) 라고 하자. 정리 2.14 에 의하여 \([\operatorname{T} (x)]^{\gamma}_{\beta} = [\operatorname{T}]^{\gamma}_{\beta} [x]_{\beta } = C[x]_{\beta}\) 이므로
\[\forall x \in \mathbf{F} ^{n} : \operatorname{T} (x) = Cx = \operatorname{L}_{C}(x)\]이다. 이는 \(\operatorname{T} = \operatorname{L}_{C}\) 을 의미한다. 이로써 \(C\) 의 존재성이 증명되었다. \(C\) 의 유일성은 2) 에서 곧바로 알 수 있다. ▲
6:
\((AE)e_j\) 는 \(AE\) 의 \(j\) 열이다. 정리 2.13 - 1 에 의하여 \(AE\) 의 \(j\) 열은 \(A(Be_j)\) 이다. 그러므로
\[ \operatorname{L}_{AE}(e_j) = (AE)e_j = A(Ee_j) = \operatorname{L}_{A}(Ee_j) = \operatorname{L}_{A}(\operatorname{L}_{E}(e_j)) \]이다. 정리 2.6 따름정리 에 의하여 \(\operatorname{L}_{AE} = \operatorname{L}_{A}\operatorname{L}_{E}\) 이다. ▲
7:
먼저 \([\operatorname{L}_{I_n}] ^{\gamma}_{\beta} = I_n\) 이다.
\([\operatorname{I} _{\mathbf{F} ^{n}}] _{\beta }\) 의 \(j\) 열은 \([\operatorname{I} _{\mathbf{F} ^{n}}(e_j)] _{\beta} = [e_j] _{\beta}\) 이다. 이는 \(e_j\) 를 뜻한다. 그러므로 \([\operatorname{I} _{\mathbf{F} ^{n}}] _{\beta } = I_n\) 이다. ■
정리 2.16
\(A(BC)\) 가 정의된 행렬 \(A, B, C\) 에 대하여 다음이 성립한다.
-
\((AB)C\) 가 정의되어 있다.
-
\(A(BC) = (AB)C\) 가 성립한다.
- 2) 는 행렬곱 연산에서 결합법칙이 성립함을 말해준다.
-
증명
2:
함수의 합성은 결합법칙을 만족한다. 또한 정리 2.15 - 6 에 의하여 다음이 성립한다.
\[ \operatorname{L}_{A(BC)} = \operatorname{L}_{A}\operatorname{L}_{BC} = \operatorname{L}_{A}(\operatorname{L}_{B}\operatorname{L}_{C}) = (\operatorname{L}_{A}\operatorname{L}_{B})\operatorname{L}_{C} = \operatorname{L}_{AC}\operatorname{L}_{C} = \operatorname{L}_{(AB)C} \]그러므로 정리 2.15 - 2 에 의하여 다음이 성립한다.
\[ A(BC) = (AB)C \tag*{■} \] -
이 정리는 지금까지 했던 것처럼 행렬의 성분을 비교하는 방식으로도 증명 가능하다. 그러나 그렇게 번거로운 방법보다 지금까지 정립해온 정리를 사용하면 위와 같이 세련되게 증명할 수 있다.
정리 2.16 따름정리
행렬곱 연산에서 결합법칙이 성립한다.
-
증명
정리 2.16 - 2 에 의하여 본 정리가 성립한다.
Invertibility✔
역함수(inverse)
벡터공간 \(\mathbf{V} ,\mathbf{W}\) 와 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 에 대하여 다음을 만족하는 함수 \(\operatorname{T}^{-1} : \mathbf{W} \to \mathbf{V}\) 를 \(\operatorname{T}\) 의 역함수라고 한다.
-
선형변환의 역함수 정의는 일반적인 함수의 역함수 정의와 같다.
-
역함수가 존재하는 선형변환을 가역(invertible)이라 한다.
선형변환의 역함수는 유일하다.
-
증명
함수의 역함수는 유일하다. 선형변환은 함수이다. ■
선형변환이 가역이기 위한 필요충분조건은 전단사라는 것이다.
-
증명
함수의 역함수가 존재하기 위한 필요충분조건은 전단사라는 것이다. 선형변환은 함수이다. ■
가역인 함수 \(\operatorname{T} , \operatorname{U}\) 에 대하여 다음이 성립한다.
-
\((\operatorname{T} \operatorname{U} ) ^{-1} = \operatorname{U} ^{-1} \operatorname{T} ^{-1}\)
-
\((\operatorname{T} ^{-1}) ^{-1} = \operatorname{T}\) 이다. 특히 \(\operatorname{T} ^{-1}\) 는 가역이다.
-
\(\dim (\mathbf{V} ) = \dim (\mathbf{W} )\) 인 벡터공간 \(\mathbf{V} , \mathbf{W}\) 에 대하여 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 가 가역이기 위한 필요충분조건은 \(\operatorname{rank} (\operatorname{T} ) = \dim (\mathbf{V} )\) 이다.
-
증명
3:
정리 2.5 에 의하여 \(\operatorname{T}\) 가 전단사라는 것과 \(\operatorname{rank} (\operatorname{T} ) = \dim (\mathbf{V} )\) 은 동치이다. 선형변환이 가역이기 위한 필요충분조건은 전단사라는 것이다. ■
-
예시
선형변환 \(\operatorname{T} : \mathbf{P}_{1}(\R) \to \R ^{2}, a+bx \mapsto (a, a+b)\) 의 역함수는 다음과 같다.
\[ \operatorname{T} ^{-1}:\R ^{2} \to \mathbf{P}_{1}(\R), (c, d) \mapsto c + (d-c)x \]
정리 2.17
선형변환의 역함수는 선형이다.
-
증명
벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 가역인 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 에 대한 역함수 \(\operatorname{T} ^{-1}: \mathbf{W} \to \mathbf{V}\) 가 선형임을 보이자.
\(\operatorname{T}\) 가 전단사이므로 \(y_1, y_2 \in \mathbf{W}\) 에 대한 \(\operatorname{T} (x_1) = y_1, \operatorname{T} (x_2) = y_2\) 를 만족하는 벡터 \(x_1, x_2 \in \mathbf{V}\) 가 유일하게 존재한다. 그러므로 스칼라 \(c \in \mathbf{F}\) 에 대하여 다음이 성립한다.
\[ \begin{align}\begin{split} \operatorname{T} ^{-1}(cy_1 + y_2) &= \operatorname{T} ^{-1}[c \operatorname{T} (x_1) + \operatorname{T} (x_2)] = \operatorname{T} ^{-1}(\operatorname{T} (cx_1 + x_2))\\ &= cx_1 + x_2 = c \operatorname{T} ^{-1} (y_1) + \operatorname{T} ^{-1}(y_2) \end{split}\end{align} \tag*{} \]■
정리 2.17 따름정리
선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 가 가역이면 다음이 성립한다.
-
\(\mathbf{V}\) 가 유한차원인 것과 \(\mathbf{W}\) 가 유한차원인 것은 동치이다.
-
\(\mathbf{V} , \mathbf{W}\) 가 유한차원이면 \(\dim (\mathbf{V} ) = \dim (\mathbf{W} )\) 이다.
-
증명
\(\mathbf{V}\) 가 유한차원이라고 하고 기저를 \(\beta = \{x_1, x_2, \dots, x_n\}\) 이라고 하자. \(\operatorname{T}\) 가 전단사이므로 공역과 치역이 같다. 그러면 정리 2.2 에 의하여 \(\operatorname{span} (\operatorname{T} (\beta )) = \operatorname{im} (\operatorname{T}) = \mathbf{W}\) 이다. 유한집합이 \(\mathbf{W}\) 를 생성하므로 정리 1.9 에 의하여 \(\mathbf{W}\) 는 유한차원이다. ▲
역으로 \(\mathbf{W}\) 가 유한차원임을 가정하면 \(\operatorname{T} ^{-1}\) 를 사용하여 비슷한 논법으로 \(\mathbf{V}\) 가 유한차원임을 증명할 수 있다. ▲
이제 \(\mathbf{V} , \mathbf{W}\) 가 유한차원이라는 사실을 사용할 수 있다. \(\operatorname{T}\) 가 단사이므로 정리 2.4 에 의하여
\[ \ker (\operatorname{T}) = \{0\} \implies \operatorname{nullity} (\operatorname{T}) = 0 \]이다. 또한 \(\operatorname{T}\) 가 전사이므로 공역과 치역이 같다. 그러므로
\[ \operatorname{rank} (\operatorname{T} ) = \dim (\mathbf{W} ) \]이다. 그러면 차원정리 에 의하여 \(\dim (\mathbf{W}) = \dim (\mathbf{V} )\) 임을 알 수 있다. ■
유한차원 벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 에 대하여 \(\dim (\mathbf{V} ) = \dim (\mathbf{W} )\) 이면 다음이 동치이다.
-
\(\operatorname{T}\) 가 단사이다.
-
\(\operatorname{T}\) 가 전사이다.
-
\(\operatorname{T}\) 가 전단사이다.
-
\(\operatorname{T}\) 가 가역이다.
-
증명
정리 2.5 에 의하면 같은 차원을 갖는 두 유한차원 벡터공간 사이에 정의된 선형변환에 대하여 단사, 전사가 동치이다. 이로써 전단사도 동치이며 가역도 동치이다.
Invertible matrix✔
가역행렬(invertible matrix)
\(n \times n\) 행렬 \(A\) 에 대하여 \(AB=BA=I\) 인 \(n \times n\) 행렬 \(B\) 가 존재할 때 \(A\) 를 가역이라고 한다.
- 이는 역함수의 정의와 비슷하다. 선형변환을 행렬과 대응시키고 그 연산도 보존해보았듯이 선형변환과 행렬의 역연산도 연결시켜볼 것이다.
역행렬(inverse matrix)
\(A\) 가 가역일때 \(AB = BA = I\) 를 만족하는 행렬 \(B\) 이다.
-
예시
\(\begin{pmatrix} 5&7\\ 2&3\\ \end{pmatrix}\) 의 역행렬은 \(\begin{pmatrix} 3&-7\\ -2&5\\ \end{pmatrix}\) 이다.
역행렬은 유일하다.
-
증명
역행렬을 선형변환의 역함수와 연결시킨다면 역함수가 유일하다 는 정리로도 증명가능하다. 그러나 이 방법으로도 증명할 수 있다. \(AC=CA = I\) 를 만족하는 또 다른 행렬 \(C\) 가 존재한다면 다음이 성립한다.
\[ C = CI = C(AB) = (CA)B = IB = B \tag*{■} \]
Properties of Invertibility✔
정리 2.18
유한차원 벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 각각의 순서기저 \(\beta , \gamma\), 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 에 대하여 다음이 성립한다.
-
\(\operatorname{T}\) 가 가역인 것과 \([\operatorname{T} ] ^{\gamma}_{\beta}\) 가 가역인 것은 동치이다.
-
\([\operatorname{T} ^{-1}] ^{\beta }_{\gamma } = ([\operatorname{T} ] ^{\gamma}_{\beta} ) ^{-1}\)
-
이 정리는 선형변환의 역함수와 행렬의 역행렬을 연결시켜준다.
-
증명
\(\operatorname{T}\) 가 가역이면 정리 2.17 따름정리로부터 \(\dim (\mathbf{V} ) = \dim (\mathbf{W} )\) 이다. \(n = \dim (\mathbf{V} )\) 라고 하면 \([\operatorname{T} ] ^{\gamma}_{\beta}\) 는 \(n \times n\) 행렬이다. 또 역함수 \(\operatorname{T} ^{-1}\) 에 대하여 \(\operatorname{T} ^{-1}\operatorname{T} = \operatorname{I} _{\mathbf{V} }\) 이다. 이러한 사실들과 항등변환의 행렬표현은 항등행렬이다 와 정리 2.11 에 의하여
\[ I_n = [\operatorname{I} _{\mathbf{V} }] _{\beta } = [\operatorname{T} ^{-1}\operatorname{T} ] _{\beta } = [\operatorname{T} ^{-1}] ^{\beta }_{\gamma } [\operatorname{T} ]^{\gamma}_{\beta} \]이다. 같은방식으로
\[ I_n = [\operatorname{T} ]^{\gamma}_{\beta}[\operatorname{T} ^{-1}] ^{\beta }_{\gamma } \]을 얻을 수 있다. 그러므로 \(\operatorname{T}\) 가 가역임을 가정했을 때 \([\operatorname{T}]^{\gamma}_{\beta}\) 는 가역이고, \(([\operatorname{T} ]^{\gamma}_{\beta} )^{-1} = [\operatorname{T} ^{-1}] ^{\beta }_{\gamma}\) 이다. ▲
\(A = [\operatorname{T} ] ^{\gamma}_{\beta}\) 가 가역이면 \(AB = BA = I_n\) 을 만족하는 \(n \times n\) 행렬 \(B\) 가 존재한다. 우선 \(\gamma = \{w_1, w_2, \dots, w_n\}, \beta = \{v_1, v_2, \dots, v_n\}\) 이라고 하자. 그러면 정리 2.6 에 의하여
\[ j \in \{1,2,\dots,n\} : \operatorname{U} (w_j) = \sum_{i=1}^{n}B _{ij}v_i \]을 만족하는 선형변환 \(\operatorname{U} : \mathcal{L}(\mathbf{W} ,\mathbf{V} )\) 이 유일하게 존재한다. 이는 \([\operatorname{U} ] ^{\beta }_{\gamma } = B\) 임을 말해준다. 그러면 정리 2.11 에 의하여
\[ [\operatorname{U} \operatorname{T} ] _{\gamma } = [\operatorname{U} ]^{\beta }_{\gamma } [\operatorname{T} ]^{\gamma}_{\beta} = BA = I_n = [\operatorname{I} _{\mathbf{V} }]_{\beta } \]이다. 따라서 \(\operatorname{U} \operatorname{T} = \operatorname{I} _{\mathbf{V} }\) 이다. 같은 방식으로 \(\operatorname{T} \operatorname{U} = \operatorname{I} _{\mathbf{W} }\) 를 보일 수 있다. 그러므로 \([\operatorname{T} ] ^{\gamma}_{\beta}\) 가 가역임을 가정했을 때 \(\operatorname{T}\) 도 가역이다. ■
정리 2.18 따름정리 1
유한차원 벡터공간 \(\mathbf{V}\) 의 순서기저 \(\beta\) 와 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{V}\) 에 대하여 다음이 성립한다.
-
\(\operatorname{T}\) 가 가역인 것과 \([\operatorname{T} ]_{\beta}\) 가 가역인 것은 동치이다.
-
\([\operatorname{T} ^{-1}] _{\beta } = ([\operatorname{T} ] _{\beta} ) ^{-1}\)
- 증명
정리 2.18 따름정리 2
\(n \times n\) 행렬 \(A\) 에 대하여 다음이 성립한다.
-
\(A\) 가 가역인 것과 \(\operatorname{L}_{A}\) 가 가역인 것은 동치이다.
-
\((\operatorname{L}_{A}) ^{-1} = \operatorname{L}_{A ^{-1}}\)
- 증명
문제 2.4-4
\(A, B\) 가 \(n \times n\) 가역행렬이면 다음이 성립한다.
-
\(AB\) 가 가역이다.
-
\((AB) ^{-1} = B ^{-1}A ^{-1}\)
-
증명
\(A, B\) 가 가역이므로 \(A A ^{-1} = A ^{-1} A = I_n\), \(B B ^{-1} = B ^{-1} B = I_n\) 인 \(A ^{-1}, B ^{-1}\) 가 존재한다. 정리 2.16 따름정리 에 의하여 행렬의 결합법칙이 성립하므로 다음이 성립한다.
\[ (AB) B ^{-1}A ^{-1} = AI_nA ^{-1} = I_n \]\[ B ^{-1}A ^{-1} (AB) = BI_nB ^{-1} = I_n \]그러므로 \(AB\) 는 가역이고, \((AB) ^{-1} = B ^{-1} A ^{-1}\) 이다. ■
문제 2.4-5
가역행렬 \(A\) 에 대하여 \(A ^{\top}\) 가 가역이고 \((A ^{\top}) ^{-1} = (A ^{-1}) ^{\top}\) 이다.
-
증명
\(A A ^{-1} = A ^{-1}A = I\) 인 \(A ^{-1}\) 가 존재한다. \((AB) ^{\top} = B ^{\top} A ^{\top}\) 이므로 다음이 성립한다.
\[(AA ^{-1}) ^{\top} = (A ^{-1}) ^{\top} A ^{\top} = I\]\[(A ^{-1} A ) ^{\top} = A ^{\top} (A ^{-1}) ^{\top} = I\]따라서 \((A ^{\top}) ^{-1} = (A ^{-1}) ^{\top}\) 이다.
문제 2.4-9
\(n \times n\) 행렬 \(A, B\) 에 대하여 \(AB\) 가 가역이면 \(A, B\) 모두 가역이다.
-
증명
정리 2.18 따름정리 2 에 의하여 \(AB\) 가 가역이면 \(\operatorname{L}_{AB}\) 도 가역이다. 정리 2.15 - 1 에 의하여 \(\operatorname{L}_{AB}\) 는 \(\mathbf{F} ^{n} \to \mathbf{F} ^{n}\) 위에서 정의된 선형변환이다. 정리 2.15 - 6 에 의하여 \(\operatorname{L} _{AB} = \operatorname{L}_{A}\operatorname{L}_{B}\) 이다.
\(\operatorname{L}_{A}\operatorname{L}_{B}\) 가 전단사이므로 \(\operatorname{L}_{B}\) 가 단사이고, \(\operatorname{L}_{A}\) 는 전사이다. 그런데 \(\dim (\mathbf{F} ^{n}) = \dim (\mathbf{F} ^{n})\) 이므로 \(\operatorname{L}_{A}\) 와 \(\operatorname{L}_{B}\) 는 가역이다. 그러면 다시 정리 2.18 따름정리 2 에 의하여 \(A\) 와 \(B\) 도 가역이다. ■
문제 2.4-10
\(AB = I_n\) 인 \(n \times n\) 행렬 \(A, B\) 에 대하여 다음이 성립한다.
-
\(A, B\) 는 가역이다.
-
\(A = B ^{-1}\)
-
증명
1:
정리 2.15 - 1 에 의하여 \(AB = I_n\) 은 \(\operatorname{L}_{AB} = \operatorname{L}_{I_n}\) 이다. 이는 정리 2.15 - 6, 7 에 의하여 \(\operatorname{L}_{A}\operatorname{L}_{B} = \operatorname{I} _{\mathbf{F} ^{n}}\) 가 된다. 그러므로 \(\operatorname{L}_{A}\) 는 전사이고, \(\operatorname{L}_{B}\) 는 단사이다. 그런데 \(\dim (\mathbf{F} ^{n}) = \dim (\mathbf{F} ^{n})\) 이므로 \(\operatorname{L}_{A}\) 와 \(\operatorname{L}_{B}\) 는 가역이다. 그러면 정리 2.18 따름정리 2 에 의하여 \(A\) 와 \(B\) 도 가역이다. ■
2:
\(A\) 가 가역이므로 \(A ^{-1}A = I_n\) 인 \(A ^{-1}\) 가 존재한다. 따라서 다음이 성립한다.
\[ AB = I_n \iff A ^{-1}AB = A ^{-1} \iff B = A ^{-1} \]
Isomorphism✔
동형(isomorphic)
벡터공간 \(\mathbf{V} , \mathbf{W}\) 사이에 가역인 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 가 존재하면 \(\mathbf{V}\) 와 \(\mathbf{W}\) 를 동형이라 하고 다음과 같이 표기한다.
-
공간 사이의 구조를 보존하는 사상이 있으면 두 공간은 동형이다. 동형인 두 공간은 구조만 봤을 때 구별하는 것이 불가능하다.
-
예시
\(\mathbf{F}^{2 \times 2}\) 의 원소 \(\begin{pmatrix} a&b\\ c&d\\ \end{pmatrix}\) 를 \(\mathbf{F} ^{4}\) 의 원소 \((a,b,c,d)\) 에 대응시키면 벡터 합과 스칼라 곱이 비슷하게 작동한다. 이는 두 벡터공간이 구조적으로 동형임을 뜻하고, 그러므로 구조만 살펴봤을 때 두 공간을 구별하는 것이 불가능하다.
동형사상(isomorphism)
벡터공간 \(\mathbf{V} , \mathbf{W}\) 사이에 가역인 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 이다.
-
동형사상이 정의된 두 대수구조는 본질적으로 서로 같다. 구체적으로 말하자면 서로 동형인 대상은 완전히 같은 구조와 성질을 가진다. 따라서 구조적으로만 따졌을 때 동형인 두 대상을 구분하기란 불가능하다.
-
일반적으로 동형사상은 전단사인 준동형사상으로 설명된다. 본 정의에서는 전단사라는 조건이 가역으로, 준동형사상이라는 조건이 선형변환으로 설명된 것뿐이다.
-
예시
\(\mathbf{F}^{2 \times 2}\) 와 \(\mathbf{F} ^{4}\) 사이에 동형사상이 존재하므로 이 두 벡터공간은 동형이다. 두 공간의 구조는 동일하다.
동형은 동치관계이다.
-
증명
\(\mathbf{F}\)-벡터공간을 원소로 가지는 집합족 \(\mathcal{V}\) 의 임의의 두 원소 \(\mathbf{V}, \mathbf{W}\) 가 동형이라는 것을 관계 \(\mathbf{V} \cong \mathbf{W}\) 로 표기하자. \(\cong\) 이 동치관계임을 보여야 한다.
\(\operatorname{I} _{\mathbf{V} }(x) = x\) 은 \(\mathbf{V} \to \mathbf{V}\) 에서 정의된 가역인 선형변환이다. 그러므로 \(\mathbf{V} \cong \mathbf{V}\) 이다. ▲
\(\mathbf{V} , \mathbf{W} \in \mathcal{V}\) 에 대하여 가역인 선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 가 정의되었다고 하자. 그러면 가역인 선형역변환 \(\operatorname{T} ^{-1} : \mathbf{W} \to \mathbf{V}\) 이 존재한다. 그러므로 \(\mathbf{V} \cong \mathbf{W} \implies \mathbf{W} \cong \mathbf{V}\) 이다. ▲
\(\mathbf{V},\mathbf{W},\mathbf{Z}\in \mathcal{V}\) 에 대하여 가역인 선형변환 \(\operatorname{T}:\mathbf{V}\to \mathbf{W}\) 와 \(\operatorname{U}:\mathbf{W}\to \mathbf{Z}\) 가 정의되었다고 하자. 두 변환의 합성 \(\operatorname{U}\operatorname{T}: \mathbf{V}\to \mathbf{Z}\) 은 선형이고, 전단사이다. 따라서 \(\mathbf{V}\cong \mathbf{Z}\) 이다. ■
정리 2.19
같은 체 위에서 정의된 유한차원 벡터공간 \(\mathbf{V} , \mathbf{W}\) 에 대하여 다음이 성립한다.
-
이 정리는 차원이 같은 벡터공간 사이에는 동형사상이 반드시 존재한다는 것을 말해준다. 이는 차원이 같은 벡터공간은 본질적으로 서로 같음을 의미한다. 왜냐하면 동형사상이 존재하면 아무런 손실도 없이 한 벡터공간을 다른 벡터공간으로 변형시킬 수 있기 때문이다.
-
증명
\(\mathbf{V} \cong \mathbf{W}\) 를 가정하면 정리 2.17 따름정리 에 의하여 \(\dim (\mathbf{V} ) = \dim (\mathbf{W} )\) 이다. ▲
\(\dim (\mathbf{V} ) = \dim (\mathbf{W} )\) 를 가정하자. 그리고 \(\mathbf{V}, \mathbf{W}\) 의 각각의 기저를 \(\beta = \{v_1, v_2, \dots, v_n \}, \gamma = \{w_1, w_2, \dots, w_n \}\) 라고 하자. 정리 2.6 에 의하여 \(\operatorname{T} (v_i) = w_i\) 인 선형변환이 유일하게 존재한다. 정리 2.2 에 의하면
\[ \operatorname{im} (\operatorname{T}) = \operatorname{span} (\operatorname{T} (\beta )) = \operatorname{span} (\gamma ) = \mathbf{W} \]이므로 \(\operatorname{T}\) 는 전사이다. 그러면 정리 2.5 에 의하여 \(\operatorname{T}\) 는 단사이다. 그러므로 \(\operatorname{T}\) 는 동형사상이고 결국 \(\mathbf{V} \cong \mathbf{W}\) 이다. ■
-
예시
\(m \times n\) 행렬의 벡터 공간 \(\R ^{m \times n}\) 과 길이 \(mn\) 의 벡터의 벡터 공간 \(\R ^{mn}\) 사이에 동형사상이 존재한다.
두 벡터공간 \(\mathbf{V} , \mathbf{W}\) 에 대하여 \(\mathbf{V} \cong \mathbf{W}\) 이면 둘 다 유한차원이거나 둘 다 무한차원이다.
-
증명
정리 2.17 따름정리 에 의하여 증명이 끝난다. ■
정리 2.19 따름정리
\(\mathbf{F}\)-벡터공간 \(\mathbf{V}\) 와 \(\mathbf{F} ^{n}\) 에 대하여 다음이 성립한다.
-
증명
정리 2.17 따름정리 에 의하여 증명이 끝난다. ■
Linear Map and Matrix are essentially the same✔
정리 2.20
차원이 각각 \(n, m\) 이고 순서기저가 각각 \(\beta , \gamma\) 인 \(\mathbf{F}\)-벡터공간 \(\mathbf{V}, \mathbf{W}\) 에 대하여 다음과 같이 정의된 함수는 동형사상이다.
-
이 정리는 모든 선형변환이 유일한 행렬로 표현가능하고, 행렬 또한 유일한 선형변환으로 표현가능하다는 것을 말해준다.
즉, 이 정리는 선형변환과 행렬은 본질적으로 같다는 것을 말해준다.
-
증명
정리 2.8 에 의하여 \(\Phi ^{\gamma}_{\beta}\) 가 선형임은 쉽게 알 수 있다. ▲
이제 \(\Phi ^{\gamma}_{\beta}\) 가 전단사임을 보이자. 임의의 \(m \times n\) 행렬마다 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 가 유일하게 존재함을 보이면 된다.
\(\beta = \{v_1, v_2, \dots, v_n \}, \gamma = \{w_1, w_2, \dots, w_n \}\) 에 대하여 정리 2.6 에 의하여 다음 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 이 유일하게 존재한다.
\[ j \in \{1,2,\dots,n\} : \operatorname{T} (v_j) = \sum_{i=1}^{m}A _{ij} w_j \]그러면 선형변환의 행렬표현 에 의하여 \(A = [\operatorname{T}] ^{\gamma}_{\beta} = \Phi ^{\gamma}_{\beta} (\operatorname{T} )\) 이다. 그러므로 \(\Phi ^{\gamma}_{\beta}\) 은 전단사이고, 결국 동형사상이다. ■
차원이 각각 \(n, m\) 인 \(\mathbf{F}\)-벡터공간 \(\mathbf{V}, \mathbf{W}\) 에 대하여 다음이 성립한다.
-
선형 변환들로 이루어진 벡터공간과 행렬로 이루어진 벡터 공간은 본질적으로 동일하다.
-
증명
정리 2.20 에 의하여 주어진 두 벡터공간 사이에 동형사상이 존재한다. ■
정리 2.20 따름정리
유한차원 벡터공간 \(\mathbf{V} , \mathbf{W}\) 에 대하여 \(\dim (\mathcal{L}(\mathbf{V} , \mathbf{W} )) = \dim (\mathbf{V})\dim (\mathbf{W})\) 이다.
-
이 정리는 차원이 각각 \(n,m\) 인 벡터공간 \(\mathbf{V} , \mathbf{W}\) 에 대하여 \(\dim (\mathcal{L}(\mathbf{V} , \mathbf{W} )) = nm\) 임을 말해준다.
-
증명
\(\mathcal{L}(\mathbf{V} , \mathbf{W} ) \cong \mathbf{F}^{m \times n}\) 이고 \(\dim (\mathbf{F}^{m \times n}) = mn\) 이다. 그러면 정리 2.19 에 의하여 증명이 끝난다. ■
Standard Representation✔
표준표현(standard representation)
체 \(\mathbf{F}\) 위의 \(n\)차원 벡터공간 \(\mathbf{V}\) 의 순서기저를 \(\beta\) 라고 하자. \(\beta\) 에 대한 \(\mathbf{V}\) 의 표준표현은 다음과 같은 함수이다.
-
이는 추상적인 벡터공간에 정의된 선형변환과 \(\mathbf{F} ^{n}\to \mathbf{F} ^{m}\) 에서 정의된 선형변환의 관계를 보여준다.
-
예시
\(\R ^{2}\) 의 두 순서기저 \(\beta = \{e_1, e_2\} = \{(1, 0), (0, 1)\}, \gamma = \{(1, 2), (3, 4)\}\) 와 \(x = (1, -2) \in \R ^{2}\) 에 대하여 다음이 성립한다.
\[ \phi _{\beta }(x) = [x] _{\beta } = \begin{pmatrix} 1\\ -2\\ \end{pmatrix}, \phi _{\beta }(x) = [x] _{\gamma } = \begin{pmatrix} -5\\ 2\\ \end{pmatrix} \]
유한차원 벡터공간 \(\mathbf{V}\) 의 순서기저 \(\beta\) 에 대하여 \(\phi _{\beta }\) 은 선형이다.
-
증명
선형변환의 성질 에 의하여 \(\phi _{\beta }(cx + y) = c \phi _{\beta }(x) + \phi _{\beta }(y)\) 를 증명하면 된다. 이는 \([cx + y] _{\beta } = c[x] _{\beta } + [y]_{\beta }\) 를 증명하는 것이다.
\(x, y \in \mathbf{V}, c \in \mathbf{F}\) 에 대하여 \(\beta = \{v_1, v_2, \dots, v_n \}\) 일 때 \(x = a_1v_1 + a_2v_2 + \dots + a_nv_n, y = b_1v_1 + b_2v_2 + \dots + b_nv_n\) 이면 다음이 성립한다.
\[ [x] _{\beta } = \begin{pmatrix} a_{1}\\ a_{2}\\ \vdots\\ a_{n}\\ \end{pmatrix}, [y] _{\beta } = \begin{pmatrix} b_{1}\\ b_{2}\\ \vdots\\ b_{n}\\ \end{pmatrix} \implies c[x] _{\beta } + [y] _{\beta } = \begin{pmatrix} ca_{1} + b_1\\ ca_{2} + b_2\\ \vdots\\ ca_{n} + b_n\\ \end{pmatrix}\]\[ \begin{align}\begin{split} \phi _{\beta }(cx + y) &= [cx + y] _{\beta } \\ &= [(ca_1+b_1)v_1 + (ca_2+b_2)v_2 + \dots + (ca_n+b_n)v_n] _{\beta } \\ &= \begin{pmatrix} ca_1 + b_1\\ ca_2 + b_2\\ \vdots \\ ca_n + b_n\\ \end{pmatrix}\\ \end{split}\end{align} \tag*{} \]\[ \therefore [cx + y] _{\beta } = c[x] _{\beta } + [y]_{\beta } \tag*{■} \]
정리 2.21
유한차원 벡터공간 \(\mathbf{V}\) 의 순서기저 \(\beta\) 에 대하여 \(\phi _{\beta }\) 는 동형사상이다.
-
증명
\(\beta = \{v_1, v_2, \dots, v_n \}\) 라고 하자.
\([x] _{\beta } \in \mathbf{F} ^{n}\) 에 대하여 \(x\) 가 유일하게 존재한다는 것을 보여야 한다. \([x] _{\beta } = \begin{pmatrix} a_{1}\\ a_{2}\\ \vdots\\ a_{n}\\ \end{pmatrix}\) 라고 하면 좌표벡터의 정의 에 의하여 \(x = \sum_{i=1}^{n}a_iv_i\) 인 \(x \in \mathbf{V}\) 가 존재한다.
벡터 \(x\) 의 \(\beta\) 일차결합 표현은 정리 1.8 에 의하여 유일하다. ■
\(n\)차원 벡터공간은 \(\mathbf{F} ^{n}\) 과 동형이다.
-
증명
정리 2.19 따름정리와 정리 2.21 에 의하여 증명이 끝난다. ■
Relation between Linear Map and Matrix✔
그림 2.2
차원이 각각 \(n, m\) 이고 순서기저가 각각 \(\beta, \gamma\) 인 벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 와 행렬 \(A = [\operatorname{T} ] ^{\gamma}_{\beta}\) 에 대하여 다음이 성립한다. 즉, \(\operatorname{L}_{A} \circ \phi _{\beta } = \phi _{\gamma } \circ \operatorname{T}\) 이다.
-
동형사상 \(\phi _{\beta }\) 를 통해 \(\mathbf{V}\) 와 \(\mathbf{F} ^{n}\) 을 동일시할 수 있고 동형사상 \(\phi _{\gamma }\) 를 통해 \(\mathbf{W}\) 와 \(\mathbf{F} ^{m}\) 을 동일시할 수 있다.
물론 \(\operatorname{T}\) 가 동형사상이면 \(\mathbf{V}\) 와 \(\mathbf{W}\) 을 동일시할 수 있고 \(\operatorname{L}_A\) 가 동형사상이면 \(\mathbf{F} ^{n}\) 와 \(\mathbf{F} ^{m}\) 을 동일시할 수 있다.
-
이 그림은 다루기 힘든 추상적인 두 벡터공간 사이에 정의된 연산을 우리에게 친숙한 \(\mathbf{F} ^{n}\) 와 \(\mathbf{F} ^{m}\) 사이에 정의된 연산으로 나타낼 수 있다는 것을 말해준다.
-
예시
선형변환 \(\operatorname{T} :\mathbf{P}_{3}(\R) \to \mathbf{P}_{2}(\R), f(x) \mapsto f'(x)\) 에서 \(\beta , \gamma\) 를 각각 \(\mathbf{P}_{3}(\R), \mathbf{P}_{2}(\R)\) 의 순서기저라 하자.
또한 \(\phi _{\beta }: \mathbf{P}_{3}(\R) \to \R ^{4}, \phi _{\gamma } : \mathbf{P}_{2}(\R) \to \R ^{3}\) 을 각각의 기저에 대한 표준표현이라고 하자.
\(\operatorname{T}\) 의 행렬표현은 다음과 같다.
\[ [\operatorname{T} ] ^{\gamma}_{\beta} = A = \begin{pmatrix} 0&1&0&0\\ 0&0&2&0\\ 0&0&0&3\\ \end{pmatrix} \]이제 위 그림이 말하는 \(\operatorname{L}_{A} \circ \phi _{\beta } = \phi _{\gamma } \circ \operatorname{T}\) 가 정말 성립하는지 다항식 \(p(x) = 2 + x - 3x ^{2} + 5x ^{3}\) 에 대하여 확인해보자.
\[ \operatorname{L}_{A} (\phi _{\beta }(p(x))) = \begin{pmatrix} 0&1&0&0\\ 0&0&2&0\\ 0&0&0&3\\ \end{pmatrix} \begin{pmatrix} 2\\ 1\\ -3\\ 5\\ \end{pmatrix}=\begin{pmatrix} 1\\ -6\\ 15\\ \end{pmatrix} \]\[ \phi _{\gamma }(T(p(x))) = \phi _{\gamma }(p'(x))= \phi _{\gamma }(1-6x+15x ^{2}) = \begin{pmatrix} 1\\ -6\\ 15\\ \end{pmatrix} \]
문제 2.4-17
유한차원 벡터공간 \(\mathbf{V} , \mathbf{W}\) 와 동형사상 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\), \(\mathbf{V}\) 의 부분공간 \(\mathbf{V}_0\) 에 대하여 다음이 성립한다.
-
\(\operatorname{T} (\mathbf{V} _0)\) 은 \(\mathbf{W}\) 의 부분공간이다.
-
\(\dim (\mathbf{V} _0) = \dim (\operatorname{T} (\mathbf{V} _0))\)
-
증명
1:
선형변환의 성질 에 의하여 \(\operatorname{T} (0) = 0 \in \mathbf{W}\) 이다. ▲
\(x, y \in \mathbf{V} _0\) 에 대하여 \(\operatorname{T} (x) \in \operatorname{T} (\mathbf{V} _0), \operatorname{T} (y) \in \operatorname{T} (\mathbf{V} _0)\) 이다. 이때 \(\mathbf{V} _0\) 이 부분공간이므로 \(x + y \in \mathbf{V} _0\) 이다. 그러므로 \(\operatorname{T} (x + y) = \operatorname{T} (x) + \operatorname{T} (y) \in \operatorname{T} (\mathbf{V} _0)\) 이다. ▲
\(a \in \mathbf{F}, x \in \mathbf{V} _0\) 에 대하여 \(\mathbf{V} _0\) 가 부분공간이므로 \(ax \in \mathbf{V} _0\) 이다. 그러므로 \(\operatorname{T} (ax) = a \operatorname{T} (x) \in \operatorname{T} (\mathbf{V} _0)\) 이다. ▲
정리 1.3 에 의하여 \(\operatorname{T} (\mathbf{V} _0)\) 은 \(\mathbf{W}\) 의 부분공간이다. ■
2:
변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\) 의 제한 \(\operatorname{T} | _{\mathbf{V}_0}: \mathbf{V} _0 \to \operatorname{T}(\mathbf{V} _0)\) 은 전사이다. 동형사상 \(\operatorname{T}\) 가 단사이므로 \(\operatorname{T}\) 의 대응규칙을 유지한채 논의영역을 축소시킨 \(\operatorname{T}|_{\mathbf{V} _0}\) 도 단사이다. 그러므로 \(\operatorname{T}|_{\mathbf{V} _0}\) 는 동형사상이며 \(\mathbf{V} _0 \cong \operatorname{T} (\mathbf{V} _0)\) 이다. 그러므로 정리 2.19 에 의하여 다음이 성립한다.
\[ \dim (\mathbf{V} _0) = \dim (\operatorname{T} (\mathbf{V} _0)) \tag*{■}\]
문제 2.4-20
\(n\)차원 벡터공간 \(\mathbf{V}\) 와 \(m\)차원 벡터공간 \(\mathbf{W}\), 선형변환 \(\operatorname{T} : \mathbf{V} \to \mathbf{W}\), \(\mathbf{V}\) 의 순서기저 \(\beta\), \(\mathbf{W}\) 의 순서기저 \(\gamma\), 행렬 \(A = [\operatorname{T} ]^{\gamma}_{\beta}\) 에 대하여 다음이 성립한다.
-
\(\operatorname{rank} (\operatorname{T} ) = \operatorname{rank} (\operatorname{L}_{A})\)
-
\(\operatorname{nullity} (\operatorname{T} ) = \operatorname{nullity} (\operatorname{L}_{A})\)
-
증명
1:
\(\phi _{\beta }\) 가 전사이고 \(\operatorname{L}_{A} \circ \phi _{\beta } = \phi _{\gamma } \circ \operatorname{T}\) 이므로 다음을 얻는다.
\[ \operatorname{im} (\operatorname{L}_A) = \operatorname{L}_{A}(\mathbf{F} ^{n}) = \operatorname{L}_{A}\phi _{\beta }(\mathbf{V} ) = \phi _{\gamma }\operatorname{T} (\mathbf{V} ) = \phi _{\gamma }(\operatorname{im} (\operatorname{T}) ) \]그러므로 \(\phi _{\gamma }(\operatorname{im} (\operatorname{T}) ) = \operatorname{im} (\operatorname{L} _A)\) 이다. \(\operatorname{im} (\operatorname{T})\) 가 \(\mathbf{W}\) 의 부분공간이고 정리 2.21 에 의하여 \(\phi _{\gamma }\) 가 동형사상이므로 \(\dim (\operatorname{im} (\operatorname{T})) = \dim (\operatorname{im} (\operatorname{L}_A))\) 이다. 그러므로 다음이 성립한다.
\[ \operatorname{rank} (\operatorname{T}) = \operatorname{rank} (\operatorname{L}_{A}) \tag*{■}\]2:
\(y \in \phi _{\beta }(\ker (\operatorname{T}) )\) 이면 \(x \in \ker (\operatorname{T})\) 에 대하여 \(y = \phi _{\beta }(x)\) 이다. 그러므로 \(\operatorname{L}_{A} \circ \phi _{\beta } = \phi _{\gamma } \circ \operatorname{T}\) 와 \(\phi _{\gamma }\) 가 선형인 것에 의하여 다음을 얻는다.
\[ \operatorname{L}_{A}(y) = \operatorname{L}_{A}(\phi _{\beta }(x)) = \phi _{\gamma }\operatorname{T} (x) = \phi _{\gamma }(0) = 0 \]즉, \(y \in \phi _{\beta }(\ker (\operatorname{T}) ) \implies y \in \ker (\operatorname{L}_A)\) 이므로 \(\phi _{\beta }(\ker (\operatorname{T}) ) \subset \ker (\operatorname{L}_A)\) 이다. ▲
역으로 \(y \in \ker (\operatorname{L}_A)\) 이면 \(\operatorname{L}_{A}(y) = 0\) 이다. \(\phi _{\beta }\) 가 전사이므로 \(y = \phi _{\beta }(x)\) 인 \(x \in \mathbf{V}\) 가 존재한다.
만약 \(\operatorname{T} (x) = 0\) 이라면 \(x \in \ker (\operatorname{T}) \implies y \in \phi _{\beta }(\ker (\operatorname{T}) )\) 이다. 그러면 \(y \in \ker (\operatorname{L}_A) \implies y \in \phi _{\beta }(\ker (\operatorname{T}) )\) 이므로 \(\ker (\operatorname{L}_A) \subset \phi _{\beta }(\ker (\operatorname{T}) )\) 이고 결국 \(\phi _{\beta }(\ker (\operatorname{T}) ) = \ker (\operatorname{L}_A)\) 가 된다. 그러면 \(\ker (\operatorname{T})\) 가 \(\mathbf{V}\) 의 부분공간 이고 정리 2.21 에 의하여 \(\phi _{\beta }\) 가 동형사상이므로 \(\dim (\ker (\operatorname{T}) ) = \dim (\ker (\operatorname{L}_A))\) 을 얻고 모든 증명이 끝난다.
다음이 성립한다.
\[ \phi _{\gamma }(\operatorname{T} (x)) = \operatorname{L}_{A}(\phi _{\beta }(x)) = \operatorname{L}_{A}(y) = 0 \]\(\phi _{\gamma }\) 가 단사이므로 정리 2.4 에 의하여 \(\operatorname{T} (x) = 0\) 이다. ■
Change of basis✔
정리 2.22
유한차원 벡터공간 \(\mathbf{V}\) 의 두 순서기저 \(\beta , \beta '\) 에 대하여 \(Q = [\operatorname{I} _{\mathbf{V} }] ^{\beta}_{\beta'}\) 라고 하면 다음이 성립한다.
-
\(Q\) 는 가역행렬이다.
-
\(\forall v \in \mathbf{V} : [v] _{\beta } = Q[v] _{\beta '}\)
-
증명
정리 2.18 에 의하여 \(\operatorname{I} _{\mathbf{V}}\) 가 가역이므로 \(Q\) 도 가역이다. ▲
정리 2.14 에 의하여 다음이 성립한다.
\[ \forall v \in \mathbf{V} : [v] _{\beta } = [\operatorname{I} _{\mathbf{V} }(v)]_{\beta} = Q[v]_{\beta '} \tag*{■}\]
좌표변환 행렬(change of coordinate matrix, change of basis matrix)
유한차원 벡터공간 \(\mathbf{V}\) 의 두 순서기저 \(\beta , \beta '\) 에 대하여 \(\beta '\) 좌표를 \(\beta\) 좌표로 변환하는 행렬 \(Q = [\operatorname{I} _{\mathbf{V} }] ^{\beta}_{\beta'}\) 이다.
-
예시
\(\R ^{2}\) 의 서로 다른 기저 \(\beta = \{(1,1), (1, -1)\}, \beta ' = \{(2,4), (3,1)\}\) 에 대하여
\[ (2, 4) = 3(1, 1) - 1(1, -1) \]\[ (3, 1) = 2(1, 1) + 1(1, -1) \]이므로 \(Q = \begin{pmatrix} 3&2\\ -1&1\\ \end{pmatrix}\) 이다. 그러므로 다음이 성립한다.
\[ [(2, 4)] _{\beta } = Q[(2, 4)] _{\beta '} = Q \begin{pmatrix} 1\\ 0\\ \end{pmatrix} = \begin{pmatrix} 3\\ -1\\ \end{pmatrix} \] -
이것은 벡터공간 \(\mathbf{V}\) 의 서로 다른 기저 \(\beta' , \beta\) 와 어떤 벡터 \(v\) 에 대하여
\[ v \to [v] _{\beta' } \qquad v \to [v] _{\beta } \]와 같이 좌표벡터를 구한 것에서
\[ [v] _{\beta' } \to [v] _{\beta} \]와 같이 어떤 좌표를 다른 기저에 대한 좌표로 변환하는 수학적 장치이다.
-
유한차원 벡터공간 \(\mathbf{V}\) 가 차원이 \(n\) 이고 서로 다른 기저 \(\beta' = (u_1, u_2, \dots, u_n), \beta = (w_1, w_2, \dots, w_n)\) 을 갖는다고 하자. 어떤 벡터 \(v \in \mathbf{V}\) 가 \([v] _{\beta' }\) 나 \([v] _{\beta}\) 와 같은 좌표벡터로 표현되어 있을 때 이것으로부터 어떻게 다른 기저에 대한 좌표벡터를 구할 수 있을까? 이것을 정리 2.14 를 사용하지 말고 행렬 성분을 실제로 다뤄보면서 알아보자.
먼저 좌표벡터 의 정의에 의하여 \([v] _{\beta' }= \begin{pmatrix} c_1\\ c_2\\ \vdots \\ c_n\\ \end{pmatrix}\) 는 다음과 같은 기저 \(\beta'\) 의 일차결합이다. \(c_1, c_2, \dots, c_n\) 은 스칼라이다.
\[ v = c_1u_1 + c_2u_2 + \dots + c_nu_n \]이때 기저 \(\beta'\) 의 벡터 \(u_1, u_2, \dots, u_n\) 들을 다음과 같이 기저 \(\beta\) 에 대한 좌표벡터로 나타낼 수 있다. \(a_{ij}\) 들은 스칼라이다.
\[ [u_1] _{\beta} = \begin{pmatrix} a _{11}\\ a _{21}\\ \vdots\\ a _{n1}\\ \end{pmatrix}, [u_2] _{\beta} = \begin{pmatrix} a _{12}\\ a _{22}\\ \vdots\\ a _{n2}\\ \end{pmatrix}, \dots, [u_n] _{\beta} = \begin{pmatrix} a _{1n}\\ a _{2n}\\ \vdots\\ a _{nn}\\ \end{pmatrix} \tag{1} \]그러므로 \(\beta'\) 를 다음과 같이 \(\beta\) 의 일차결합으로 나타낼 수 있다.
\[ u_1 = a _{11}w_1+ a _{21}w_2+ \dots+ a _{n1}w_n \]\[ u_2 = a _{12}w_1+ a _{22}w_2+ \dots+ a _{n2}w_n \]\[ \vdots \]\[ u_n = a _{1n}w_1+ a _{2n}w_2+ \dots+ a _{nn}w_n \]그렇다면 \(v = c_1u_1 + c_2u_2 + \dots + c_nu_n\) 와 같이 표현된 일차결합에서 \(u_i\) 들을 위와 같은 \(\beta\) 의 일차결합 표현으로 치환해버리면 \([v] _{\beta' }\) 를 \([v] _{\beta}\) 로 변환할 수 있다. 즉, 다음과 같이 \(v\) 의 \(\beta'\) 일차결합 표현을 \(\beta\) 일차결합 표현으로 변환하는 것이다.
\[ \begin{align}\begin{split} v = \enspace & c_1(a _{11}w_1+ a _{21}w_2+ \dots+ a _{n1}w_n ) + \\ &c_2(a _{12}w_1+ a _{22}w_2+ \dots+ a _{n2}w_n ) + \\ &\dots + \\ &c_n(a _{1n}w_1+ a _{2n}w_2+ \dots+ a _{nn}w_n ) \\ \end{split}\end{align} \tag*{} \]\[ \begin{align}\begin{split} v = \enspace & (c_1a _{11}+ c_2a _{21}+ \dots+ c_na _{n1} )w_1 + \\ &(c_1a _{12}+ c_2a _{22}+ \dots+ c_na _{n2} )w_2 + \\ &\dots + \\ &(c_1a _{1n}+ c_2a _{2n}+ \dots+ c_na _{nn} )w_n \\ \end{split}\end{align} \tag*{} \]그렇다면 좌표벡터 의 정의에 의하여 다음과 같이 된다.
\[ \begin{align}\begin{split} [v] _{\beta} &= \begin{pmatrix} c_1 a _{11} & c_2 a _{21} & \dots & c_n a _{n1} & \\ c_1 a _{12} & c_2 a _{22} & \dots & c_n a _{n2} & \\ \vdots \\ c_1 a _{1n} & c_2 a _{2n} & \dots & c_n a _{nn} & \\ \end{pmatrix} \\ &=\begin{pmatrix} a_{11}&a_{12}&\dots&a_{1n}\\ a_{21}&a_{22}&\dots&a_{2n}\\ \vdots& \vdots& \ddots& \vdots \\ a_{n1}&a_{n2}&\dots&a_{nn}\\ \end{pmatrix} \begin{pmatrix} c_{1}\\ c_{2}\\ \vdots\\ c_{n}\\ \end{pmatrix} \\ &= \begin{pmatrix} a_{11}&a_{12}&\dots&a_{1n}\\ a_{21}&a_{22}&\dots&a_{2n}\\ \vdots& \vdots& \ddots& \vdots \\ a_{n1}&a_{n2}&\dots&a_{nn}\\ \end{pmatrix} [v] _{\beta' } \\ \end{split}\end{align} \tag*{} \]그러면 행렬 \(\begin{pmatrix} a_{11}&a_{12}&\dots&a_{1n}\\ a_{21}&a_{22}&\dots&a_{2n}\\ \vdots& \vdots& \ddots& \vdots \\ a_{n1}&a_{n2}&\dots&a_{nn}\\ \end{pmatrix}\) 은 좌표벡터 \([v] _{\beta' }\) 를 \([v] _{\beta}\) 로 변환해주는 변환행렬이 되는 것이다. 이 행렬을 \(A\) 라고 하면 기저 \(\beta'\) 를 \(\beta\) 로 변환해준다는 의미로 아래첨자를 써서 \(A _{\beta' \to \beta}\) 로 표기하기도 한다. 그러면 간략하게
\[ [v] _{\beta} = A _{\beta' \to \beta}[v] _{\beta' } \]라고 표기할 수 있다.
-
그러면 어떤 기저 \(\beta'\) 를 다른 기저 \(\beta\) 로 변환해주는 행렬 \(A _{\beta' \to \beta}\) 이 정말로 다음을 만족할까?
\[ \boxed{[\operatorname{I} _{\mathbf{V} }] ^{\beta}_{\beta'} = A _{\beta' \to \beta}} \tag{2} \]선형변환의 행렬표현 에 의하여 \([\operatorname{I} _{\mathbf{V} }] ^{\beta'}_{\beta}\) 의 \(j\) 열은 \([\operatorname{I} _{\mathbf{V} }(u_j)] _{\beta}\) 인데 항등변환의 정의에 의하여 이는 곧 \([u_j] _{\beta}\) 가 되고 좌표벡터 의 정의와 위에서 정의했었던 \((1)\) 의하여 결국
\[ [u_j] _{\beta} = \begin{pmatrix} a _{1j}\\ a _{2j}\\ \vdots \\ a _{nj}\\ \end{pmatrix} \]가 된다. 즉, \([\operatorname{I} _{\mathbf{V} }] ^{\beta}_{\beta'}\) 의 \(j\) 열과 \(A _{\beta' \to \beta}\) 의 \(j\) 열이 같으므로 \((2)\) 가 성립함을 알 수 있다.
유한차원 벡터공간 \(\mathbf{V}\) 의 두 순서기저 \(\beta , \beta '\) 에 대하여 \(\beta '\) 좌표를 \(\beta\) 좌표로 변환하는 좌표변환 행렬 \(Q = [\operatorname{I} _{\mathbf{V} }] ^{\beta}_{\beta'}\) 에 대하여 역행렬 \(Q^{-1}\) 는 \(\beta\) 의 좌표를 \(\beta '\) 으로 변환한다.
-
증명
\[ [v] _{\beta } = Q[v]_{\beta '} \iff Q ^{-1} [v] _{\beta } = [v]_{\beta '} \tag*{■} \]
Linear Operator✔
선형연산자(linear operator)
벡터공간 \(\mathbf{V}\) 에 대하여 \(\mathbf{V}\) 의 선형연산자는 \(\mathbf{V} \to \mathbf{V}\) 에서 정의된 선형변환이다.
정리 2.23
유한차원 벡터공간 \(\mathbf{V}\) 의 선형연산자 \(\operatorname{T}\) 와 \(\mathbf{V}\) 의 순서기저 \(\beta , \beta '\) 와 \(\beta '\) 좌표를 \(\beta\) 좌표로 변환하는 좌표변환 행렬 \(Q\) 에 대하여 다음이 성립한다.
- 정리 2.22 가 한 기저로 표현된 벡터를 다른 기저 표현의 벡터로 변환하는 방법을 알려주었다면, 이 정리는 한 기저로 표현된 선형변환을 다른 기저로 표현된 선형변환으로 변환하는 방법을 알려준다.
-
증명
항등변환 \(\operatorname{I}\) 가 \(\operatorname{T} = \operatorname{T} \operatorname{I} = \operatorname{I} \operatorname{T}\) 인 것과 정리 2.11 인 것으로부터 다음이 성립한다.
\[ Q[\operatorname{T} ] _{\beta '} = [\operatorname{I} ]^{\beta}_{\beta'} [\operatorname{T} ]^{\beta'}_{\beta'} = [\operatorname{I} \operatorname{T} ]^{\beta}_{\beta'} = [\operatorname{T} \operatorname{I} ]^{\beta}_{\beta'} = [\operatorname{T} ]^{\beta}_{\beta} [\operatorname{I} ]^{\beta}_{\beta'} = [\operatorname{T} ]_{\beta }Q \]그러므로 \([\operatorname{T} ] _{\beta '} = Q ^{-1}[\operatorname{T} ] _{\beta }Q\) 이다.
정리 2.23 따름정리
\(A \in \mathbf{F}^{n \times n}\) 와 \(\mathbf{F} ^{n}\) 의 순서기저 \(\gamma\) 와 \(\gamma\) 의 벡터들을 열로 구성한 행렬 \(Q\) 에 대하여 다음이 성립한다.
-
이 정리는 좌측곱변환을 임의의 기저로 표현하는 방법을 알려준다.
-
증명
정리 2.23 에 의하여 \(\mathbf{F}^{n}\) 의 표준순서기저 \(\beta\) 와 \(\gamma\) 좌표를 \(\beta\) 좌표로 변환하는 좌표변환행렬 \(Q\) 에 대하여 다음이 성립한다.
\[ [\operatorname{L}_{A}]_{\gamma } = Q ^{-1}[\operatorname{L}_{A}]_{\beta }Q \]정리 2.15-(1) 에 의하여 \([\operatorname{L}_{A}]_{\beta} = A\) 이므로 다음이 성립한다.
\[ [\operatorname{L}_{A}]_{\gamma } = Q ^{-1}AQ \tag*{▲} \]\(\gamma = \{v_1, v_2, \dots, v_n\}, v_j = \begin{pmatrix} a_{1j}\\ a_{2j}\\ \vdots\\ a_{nj}\\ \end{pmatrix}\) 로 두면 다음이 성립한다.
\[ \operatorname{I}_{\mathbf{V}}(v_j) = v_j = a_{1j} e_1 + a_{2j} e_2 + \dots + a_{nj}e_n = \sum_{i=1}^{n}a_{ij}e_i \]따라서 \((Q)_{ij} = ([\operatorname{I}_{\mathbf{V}}]_{\gamma }^{\beta }) _{ij} = a_{ij}\) 이다. 즉, \(Q\) 는 \(\gamma\) 의 벡터들을 열로 구성한 행렬이다. ■
-
예시
다음과 같은 집합 \(A\) 와 \(\R ^{3}\) 의 순서기저를 생각하자.
\[ A = \begin{pmatrix} 2&1&0\\ 1&1&3\\ 0&-1&0\\ \end{pmatrix}, \gamma = \Bigg \{ \begin{pmatrix} -1\\ 0\\ 0\\ \end{pmatrix}, \begin{pmatrix} 2\\ 1\\ 0\\ \end{pmatrix}, \begin{pmatrix} 1\\ 1\\ 1\\ \end{pmatrix} \Bigg \} \]그러면 \(Q, Q ^{-1}\) 은 다음과 같다.
\[ Q = \begin{pmatrix} -1&2&1\\ 0&1&1\\ 0&0&1\\ \end{pmatrix}, Q ^{-1} = \begin{pmatrix} -1&2&-1\\ 0&1&-1\\ 0&0&1\\ \end{pmatrix} \]그러므로 다음이 성립한다.
\[ [\operatorname{L}_{A}]_{\gamma } = Q ^{-1}AQ = \begin{pmatrix} 0&2&8\\ -1&4&6\\ 0&-1&-1\\ \end{pmatrix} \]
Matrix Similarity✔
행렬의 닮음(matrix similarity)
\(A, B \in \mathbf{F}^{n \times n}\) 에 대하여 \(B = Q ^{-1}AQ\) 인 가역행렬 \(Q\) 가 존재하면 \(A\) 와 \(B\) 는 서로 닮음이다.
-
행렬의 닮음은 두 행렬이 같은 선형변환의 서로 다른 기저에 대한 행렬표현임을 나타내는 관계이다.
-
행렬의 닮음은 동치관계이다.
정리 2.23 의 일반화
유한차원 벡터공간 \(\mathbf{V}, \mathbf{W}\) 의 선형변환 \(\operatorname{T}: \mathbf{V} \to \mathbf{W}\) 와 \(\mathbf{V}\) 의 순서기저 \(\beta , \beta '\) 와 \(\mathbf{W}\) 의 순서기저 \(\gamma , \gamma '\) 와 \(\beta '\) 좌표를 \(\beta\) 좌표로 변환하는 좌표변환 행렬 \(Q\) 와 \(\gamma '\) 좌표를 \(\gamma\) 좌표로 변환하는 좌표변환 행렬 \(P\) 에 대하여 다음이 성립한다.
-
증명
-
이 정리는 서로 다른 벡터공간 \(\mathbf{V} , \mathbf{W}\) 사이에 정의된 선형변환에서도 성립한다. 이 경우 \(\mathbf{V}\) 의 기저를 바꾸듯이 \(\mathbf{W}\) 의 기저도 바꿀 수 있다.
문제 2.5-13
유한차원 \(\mathbf{F}\)-벡터공간 \(\mathbf{V}\) 와 순서기저 \(\beta = \{x_1, x_2, \dots, x_n\}\), 가역행렬 \(Q \in \mathbf{F}^{n \times n}\) 와 \(j \in \{1, \dots, n\}\) 에 대하여 \(x'_j\) 를 다음과 같이 정의하자.
집합 \(\beta ' = \{x'_1, x'_2, \dots, x'_n\}\) 은 \(\mathbf{V}\) 의 기저이고 \(Q\) 는 \(\beta '\) 좌표를 \(\beta\) 좌표로 변환하는 좌표변환 행렬이다.
-
증명
\(|\beta '| = n\) 이므로 \(\beta '\) 가 일차독립임을 보이면 된다. \(a_1, a_2, \dots, a_n \in \mathbf{F}\) 에 대하여 다음이 성립한다.
\[ \begin{align}\begin{split} a_1x'_1 + a_2x'_2 + \dots + a_nx'_n &= \sum_{j=1}^{n}a_jx'_j = \sum_{j=1}^{n}a_j \bigg ( \sum_{i=1}^{n}Q _{ij}x_i\bigg ) \\ &= \sum_{j=1}^{n}\sum_{i=1}^{n}a_jQ _{ij}x_i = \sum_{i=1}^{n}\sum_{j=1}^{n}a_j Q _{ij}x_i \\ &= \sum_{j=1}^{n} a_j Q _{1j}x_1 + \sum_{j=1}^{n} a_j Q _{2j}x_2 + \dots + \sum_{j=1}^{n} a_j Q _{nj}x_n = 0 \end{split}\end{align} \tag*{} \]\[ \implies \sum_{j=1}^{n}a_j Q _{1j} = \sum_{j=1}^{n}a_j Q _{2j} = \dots = \sum_{j=1}^{n}a_j Q _{nj} = 0 \tag{1} \]\(Q\) 의 \(j\)열을 \(Q_j\) 라 하면 \(Q_j = \begin{pmatrix} Q_{1j}\\ Q_{2j}\\ \vdots \\ Q_{nj}\\ \end{pmatrix}\) 이다. \(Q\) 가 가역이므로 \(\operatorname{rank} (Q) = n\) 이다. 또한 랭크는 행렬의 열들의 극대 일차독립 집합의 기수를 뜻하므로 \(Q\) 의 모든 열이 일차독립이다. 즉, 다음이 성립한다.
\[ \forall c_1, c_2, \dots, c_n \in \mathbf{F} : c_1Q_1 + c_2Q_2 + \dots + c_nQ_n = 0 \implies c_1 = c_2 = \dots = c_2 = 0 \]이는 다음이 성립함을 뜻한다.
\[ \sum_{i=1}^{n}c_i Q _{1i} = 0 \land \sum_{i=1}^{n}c_i Q _{2i} = 0 \land \dots \land \sum_{i=1}^{n}c_i Q _{ni} = 0 \implies c_1 = c_2 = \dots = c_2 = 0 \]따라서 \((1)\) 에 의하여 다음이 성립한다.
\[ a_1 = a_2 = \dots = a_n = 0 \]그러므로 \(\beta '\) 는 기저이다. ▲
선형변환의 행렬표현에 의하여 다음이 성립한다는 것은 \([\operatorname{I}_{\mathbf{V}}] _{\beta '}^{\beta }\) 의 \(i\)행 \(j\)열 성분이 \(Q _{ij}\) 임을 뜻한다.
\[ \operatorname{I}_{\mathbf{V}}(x'_j) = x'_j = \sum_{i=1}^{n}Q _{ij}x_i \]즉, \(Q = [\operatorname{I}]_{\beta '} ^{\beta }\) 이다. 좌표변환 행렬의 정의에 의하여 \(Q\) 는 \(\beta '\) 좌표를 \(\beta\) 좌표로 변환하는 좌표변환 행렬이다. ■
Dual Space✔
선형범함수(linear functional, linear form, one-form, covector)
\(\mathbf{F}\)-벡터공간 \(\mathbf{V}\) 에 대하여 \(\mathbf{V}\to \mathbf{F}\) 에서 정의된 선형변환이다.
- 체 \(\mathbf{F}\) 는 \(\mathbf{F}\) 에서의 1차원 벡터공간이다.
-
예시
\(\mathbf{V}= \mathbf{F}^{n \times n}\) 에 대하여 함수 \(\operatorname{f}: \mathbf{V}\to \mathbf{F}, A \to \operatorname{tr} (A)\) 는 선형범함수이다.
Coordinate Function✔
좌표함수(coordinate function)
순서기저 \(\beta = \{x_1, x_2, \dots, x_n\}\) 를 가지는 유한차원 벡터공간 \(\mathbf{V}\) 와 \(i \in \{1,\dots,n\}\) 에 대하여 다음과 같이 정의된 함수 \(\operatorname{f}_i: \mathbf{V}\to \mathbf{F}\) 를 기저 \(\beta\) 에 대한 \(i\)번째 좌표함수라 한다.
-
좌표함수는 \(\mathbf{V}\) 의 선형범함수이다.
-
\(\operatorname{f}_i(x_j) = \delta _{ij}\) 이다.
쌍대공간(dual space)
\(\mathbf{F}\)-벡터공간 \(\mathbf{V}\) 에 대한 벡터공간 \(\mathbf{V}^{*} := \mathcal{L}(\mathbf{V},\mathbf{F})\) 를 \(\mathbf{V}\) 의 쌍대공간이라 한다.
- \(\mathbf{V}^{*}\) 은 함수의 합과 스칼라곱 이 정의된 \(\mathbf{V}\) 의 모든 선형범함수로 이루어진 벡터공간이다.
유한차원 벡터공간 \(\mathbf{V}\) 와 쌍대공간 \(\mathbf{V}^{*}\) 에 대하여 다음이 성립한다.
-
증명
\(\mathbf{F}\) 는 1차원 벡터공간이므로 \(\dim (\mathbf{F}) = 1\) 이다. 따라서 정리 2.20 따름정리 에 의하여 다음이 성립한다.
\[ \dim (\mathbf{V}^{*}) = \dim (\mathcal{L}(\mathbf{V}, \mathbf{F})) = \dim (\mathbf{V}) \dim (\mathbf{F}) = \dim (\mathbf{V}) \]정리 2.19 에 의하여 \(\mathbf{V}\) 와 \(\mathbf{V}^{*}\) 은 동형이다. ■
Double Dual✔
이중 쌍대공간(double dual)
벡터공간 \(\mathbf{V}\) 의 쌍대공간 \(\mathbf{V}^{*}\) 의 쌍대공간 \(\mathbf{V}^{**}\) 을 \(\mathbf{V}\) 의 이중 쌍대공간이라 한다.
정리 2.24
순서기저 \(\beta = \{x_1, x_2, \dots, x_n \}\) 을 가지는 유한차원 벡터공간 \(\mathbf{V}\) 와 \(\beta\) 의 \(i\)번째 좌표함수 \(\operatorname{f}_i\) 에 대하여 \(\beta ^{*} = \{\operatorname{f}_1, \operatorname{f}_2, \dots, \operatorname{f}_n \}\) 는 \(\mathbf{V}^{*}\) 의 순서기저이다. 즉, 다음이 성립한다.
-
증명
\(\dim (\mathbf{V}^{*}) = n\) 이므로 다음과 같이 \(\beta ^{*}\) 가 \(\mathbf{V}^{*}\) 을 생성함을 보이면 증명이 끝난다.
\[ \forall \operatorname{f}\in \mathbf{V}^{*} : \operatorname{f} = \sum_{i=1}^{n}\operatorname{f}(x_i)\operatorname{f}_i \]\(\displaystyle \operatorname{g} = \sum_{i=1}^{n}\operatorname{f}(x_i)\operatorname{f}_i\) 로 두면 \(j \in \{1,\dots,n\}\) 에 대하여 함수의 합의 정의 에 의하여 다음이 성립한다.
\[ \begin{align}\begin{split} \operatorname{g}(x_j) &= \bigg (\sum_{i=1}^{n}\operatorname{f}(x_i)\operatorname{f}_i \bigg )(x_j) = \sum_{i=1}^{n}\operatorname{f}(x_i)\operatorname{f}_i(x_j) \\ &= \sum_{i=1}^{n}\operatorname{f}(x_i)\delta _{ij} = \operatorname{f}(x_j)\\ \end{split}\end{align} \tag*{} \]정리 2.6 따름정리에 의하여 \(\operatorname{f} = \operatorname{g}\) 이다. ■
Dual Basis✔
쌍대기저(dual basis)
순서기저 \(\beta = \{x_1, x_2, \dots, x_n \}\) 을 가지는 유한차원 벡터공간 \(\mathbf{V}\) 와 \(i, j \in \{1,\dots,n\}\) 에 대하여 \(\operatorname{f}_i(x_j) = \delta _{ij}\) 를 만족하는 \(\mathbf{V}^{*}\) 의 순서기저 \(\beta ^{*} = \{\operatorname{f}_1, \operatorname{f}_2, \dots, \operatorname{f}_n \}\) 를 \(\beta\) 의 쌍대기저라고 한다.
-
순서기저 \(\beta\) 의 원소 \(x_j\) 에 대하여 \(\operatorname{f}_i(x_j) = \delta _{ij}\) 인 것은 좌표함수라는 뜻이다. 따라서 쌍대기저의 정의는 정리 2.24 에서의 집합 \(\beta ^{*}\) 와 같다.
또한 정리 2.24 는 쌍대기저 \(\beta ^{*}\) 의 존재성을 보장해준다.
쌍대기저의 존재성이 보장된 것을 기반으로 이 쌍대기저의 정의는 정리 2.24 에서 말하는 쌍대공간 \(\mathbf{V}^{*}\) 의 기저를 구하는 방법을 알려준다. 아래 예시를 보자.
-
예시
벡터공간 \(\R ^{2}\) 의 순서기저 \(\beta = \{(2,1), (3,1)\}\) 에 대한 \(\beta\) 의 쌍대기저 \(\beta ^{*}=\{\operatorname{f}_1, \operatorname{f}_2\}\) 를 구해보자.
\[ 1 = \operatorname{f}_1(2, 1) = \operatorname{f}_1(2e_1 + e_2) = 2 \operatorname{f}_1(e_1) + \operatorname{f}_1(e_2) \]\[ 0 = \operatorname{f}_1(3, 1) = \operatorname{f}_1(3e_1 + e_2) = 3 \operatorname{f}_1(e_1) + \operatorname{f}_1(e_2) \]연립방정식을 풀면 \(\operatorname{f}_{1}(e_1) = -1, \operatorname{f}_{1}(e_2) = 3\) 을 얻는다. 따라서 \(\operatorname{f}_{1}(x, y) = -x + 3y\) 이다. 같은 방식으로 \(\operatorname{f}_{2}(x,y)=x-2y\) 를 얻을 수 있다.
Transpose of Linear Map✔
정리 2.25
\(\mathbf{F}\)-벡터공간 \(\mathbf{V}\) 와 \(\mathbf{W}\) 의 각각의 순서기저 \(\beta , \gamma\) 와 선형변환 \(\operatorname{T}: \mathbf{V}\to \mathbf{W}\) 에 대하여 다음을 만족하는 함수 \(\operatorname{T}^{\top}: \mathbf{W}^{*}\to \mathbf{V}^{*}\) 를 가정하자.
함수 \(\operatorname{T}^{\top}\) 는 선형변환이고, \([\operatorname{T}^{\top}]^{\beta ^{*}}_{\gamma ^{*}} = ([\operatorname{T}]^{\gamma}_{\beta} )^{\top}\) 를 만족한다.
-
정리 2.20 은 선형변환 \(\operatorname{T}\) 에 대응하는 행렬 \(A = [\operatorname{T}]^{\gamma}_{\beta}\) 가 존재함을 말해준다. 이 정리는 \(A ^{\top}\) 에 대응하는 선형변환이 무엇인지 알려준다.
-
증명
\(\operatorname{g}_{}\in \mathbf{W}^{*}\) 는 \(\mathbf{W}\to \mathbf{F}\) 에서 정의된 선형변환이다. 따라서 \(\operatorname{T}^{\top}(\operatorname{g}_{})=\operatorname{g}_{}\operatorname{T}:\mathbf{V}\to \mathbf{F}\) 는 \(\mathbf{V}\) 의 선형범함수이다. 그러므로 \(\operatorname{g}_{}\operatorname{T}\in \mathbf{V}^{*}\) 이다. 따라서 \(\operatorname{T}^{\top}\) 는 \(\mathbf{W}^{*}\to \operatorname{T}^{*}\) 에서 정의된 함수이다. ▲
이제 \(\operatorname{T}^{\top}\) 가 선형인지 확인하자. 먼저 \(\operatorname{T}^{\top}\) 의 정의에 의하여 다음이 성립한다.
\[ \operatorname{T}^{\top}(c \operatorname{g}_{1} + \operatorname{g}_{2})= (c \operatorname{g}_{1} + \operatorname{g}_{2}) \circ \operatorname{T} \]그러면 \(\operatorname{g}_{1}, \operatorname{g}_{2}\in \mathbf{W}^{*}\) 에 대하여 함수의 합과 스칼라 곱의 정의에 의하여 다음이 성립한다.
\[ \begin{align}\begin{split} (c \operatorname{g}_{1} + \operatorname{g}_{2}) \circ \operatorname{T}(x) &= (c \operatorname{g}_{1} + \operatorname{g}_{2}) (\operatorname{T}(x)) \\ &= (c \operatorname{g}_{1})(\operatorname{T}(x)) + (\operatorname{g}_{2}) (\operatorname{T}(x)) \\ &= c (\operatorname{g}_{1})(\operatorname{T}(x)) + (\operatorname{g}_{2}) (\operatorname{T}(x)) \\ &= c (\operatorname{g}_{1} \operatorname{T})(x) + (\operatorname{g}_{2}\operatorname{T})(x) \\ &= c (\operatorname{T}^{\top}(\operatorname{g}_{1})) (x) + (\operatorname{T}^{\top}(\operatorname{g}_{2}))(x) \\ \end{split}\end{align} \tag*{} \]그러므로 함수의 합과 스칼라 곱의 정의에 의하여 다음이 성립한다. 따라서 \(\operatorname{T}^{\top}\) 는 선형이다.
\[ \operatorname{T}^{\top}(c \operatorname{g}_{1} + \operatorname{g}_{2})= (c \operatorname{g}_{1} + \operatorname{g}_{2}) \circ \operatorname{T} = c (\operatorname{T}^{\top}(\operatorname{g}_{1})) + (\operatorname{T}^{\top}(\operatorname{g}_{2})) \tag*{▲} \]순서기저를 \(\beta = \{x_1, x_2, \dots, x_n \}\), \(\gamma = \{y_1, y_2, \dots, y_m\}\) 으로 두고 각각의 쌍대기저를 \(\beta ^{*} = \{\operatorname{f}_{1}, \operatorname{f}_{2}, \dots, \operatorname{f}_{n}\}, \gamma ^{*}= \{\operatorname{g}_{1}, \operatorname{g}_{2}, \dots, \operatorname{g}_{m}\}\) 로 두고 \(A = [\operatorname{T}]^{\gamma}_{\beta}\) 로 두자. 선형변환의 행렬표현을 구하기 위하여 \([\operatorname{T}^{\top}]^{\beta ^{*}}_{\gamma ^{*}}\) 의 \(j\) 열을 구하기 위해 \(\operatorname{T}^{\top}(\operatorname{g}_{j})\) 를 \(\beta ^{*}\) 의 일차결합으로 나타내자. \(\operatorname{g}_{j}\operatorname{T}: \mathbf{V}\to \mathbf{F}\in \mathbf{V}^{*}\) 이므로 정리 2.24 에 의하여 다음이 성립한다.
\[ \operatorname{T}^{\top}(\operatorname{g}_{j}) = \operatorname{g}_{j}\operatorname{T} = \sum_{s=1}^{n}(\operatorname{g}_{j}\operatorname{T})(x_s)\operatorname{f}_{s} \]\([\operatorname{T}^{\top}]^{\beta ^{*}}_{\gamma ^{*}}\) 의 \(j\) 열은 \([\operatorname{T}^{\top}(\operatorname{g}_{j})]_{\beta ^{*}}\) 이다. 따라서 \(i\)행 \(j\)열의 성분은 \(s = i\) 일 때 \(\beta ^{*}\) 의 \(i\)번째 순서기저 \(\operatorname{f}_{i}\) 를 제외한 스칼라 \((\operatorname{g}_{j}\operatorname{T})(x_i)\) 이다. 이때 선형변환의 행렬표현 에 의하여 다음이 성립한다.
\[ \begin{align}\begin{split} (\operatorname{g}_{j}\operatorname{T})(x_i) = \operatorname{g}_{j}(\operatorname{T}(x_i))&=\operatorname{g}_{j}\bigg (\sum_{k=1}^{m}A _{ki}y _{k} \bigg ) \\ &= \sum_{k=1}^{m}A _{ki}\operatorname{g}_{j}(y_k) = \sum_{k=1}^{m}A _{ki}\delta _{jk}=A _{ji} \\ \end{split}\end{align} \tag*{} \]따라서 \([\operatorname{T}^{\top}]^{\beta ^{*}}_{\gamma ^{*}} = A ^{\top}\) 이다. ■
선형변환의 전치(transpose of linear map)
\(\mathbf{F}\)-벡터공간 \(\mathbf{V}\) 와 \(\mathbf{W}\) 의 각각의 순서기저 \(\beta , \gamma\) 와 선형변환 \(\operatorname{T}: \mathbf{V}\to \mathbf{W}\) 에 대하여 다음을 만족하는 선형변환 \(\operatorname{T}^{\top}: \mathbf{W}^{*}\to \mathbf{V}^{*}\) 를 \(\operatorname{T}\) 의 전치라 한다.
-
이렇게 정의한 \(\operatorname{T}^{\top}\) 가 \(([\operatorname{T}]^{\gamma}_{\beta} )^{\top} = [\operatorname{T}^{\top}]^{\beta ^{*}}_{\gamma ^{*}}\) 를 만족하기 때문에 선형변환의 전치라고 부른다.
-
예시
선형변환 \(\operatorname{T}: \mathbf{P}_{1}(\R)\to \R ^{2}\) 를 \(\operatorname{T}(p(x)) = (p(0), p(2))\) 로 정의하자. \(\mathbf{P}_{1}(\R)\) 의 표준순서기저 \(\beta\) 와 \(\R ^{2}\) 의 표준순서기저 \(\gamma\) 에 대하여 \([\operatorname{T}]^{\gamma}_{\beta} =\begin{pmatrix} 1&0\\ 1&2\\ \end{pmatrix}\) 이다. 이제 \([\operatorname{T}^{\top}]^{\beta^{*}}_{\gamma^{*}}\) 를 구해보자.
\(\beta ^{*}=\{\operatorname{f}_{1},\operatorname{f}_{2}\}\) 와 \(\gamma ^{*}=\{\operatorname{g}_{1}, \operatorname{g}_{2}\}\) 에 대하여 \([\operatorname{T}^{\top}]^{\beta^{*}}_{\gamma^{*}} = \begin{pmatrix} a&b\\ c&d\\ \end{pmatrix}\) 로 두면 선형변환의 행렬표현에 의하여 다음이 성립한다.
\[\operatorname{T}^{\top}(\operatorname{g}_{1}) = a \operatorname{f}_{1} + c \operatorname{f}_{2}\]\[\operatorname{T}^{\top}(\operatorname{g}_{2}) = b \operatorname{f}_{1} + d \operatorname{f}_{2}\]\(\beta = \{1, x\}\) 이므로 \(\operatorname{f}_{1}(1) = 1, \operatorname{f}_{2}(1) = 0, \operatorname{f}_{1}(x) = 0, \operatorname{f}_{2}(x) = 1\) 이다. 따라서 다음이 성립한다.
\[ \operatorname{T}^{\top}(\operatorname{g}_{1})(1) = (a \operatorname{f}_{1}+ c \operatorname{f}_{2})(1) = a \operatorname{f}_{1}(1) + c \operatorname{f}_{2}(1) = a \cdot 1 + c \cdot 0 = a \]또한 \(\gamma = \{(1, 0), (0, 1)\}\) 이므로 \(\operatorname{g}_{1}(1, 0) = 1 \operatorname{g}_{2}(1, 0) = 0, \operatorname{g}_{1}(0, 1) = 0, \operatorname{g}_{2}(0, 1) = 1\) 이다. 따라서 다음이 성립한다.
\[ (\operatorname{T}^{\top}(\operatorname{g}_{1}))(1) = \operatorname{g}_{1}(\operatorname{T}(1)) = \operatorname{g}_{1}(1,1) = \operatorname{g}_{1}(e_1) + \operatorname{g}_{1}(e_2) = 1 \]즉, \(a = 1\) 이다. 같은 논리로 \(c = 0, b = 1, d = 2\) 를 얻는다. 결국 \([\operatorname{T}^{\top}]^{\beta ^{*}}_{\gamma ^{*}} = \begin{pmatrix} 1&1\\ 0&2\\ \end{pmatrix} = ([\operatorname{T}]^{\gamma}_{\beta} )^{\top}\) 를 직접 계산으로 확인하였다. 이는 본 정리와 같은 결과이다.
정리 2.25 보조정리
유한차원 벡터공간 \(\mathbf{V}\) 와 벡터 \(x \in \mathbf{V}\) 와 \(\operatorname{f}_{}\in \mathbf{V}^{*}\) 에 대하여 함수 \(\hat{x}: \mathbf{V}^{*}\to \mathbf{F}\) 를 \(\hat{x}(\operatorname{f}_{}) = \operatorname{f}_{}(x)\) 라 정의하면 다음이 성립한다.
-
\(\hat{x}\) 이 \(\mathbf{V}^{*}\) 의 선형범함수라는 것은 쉽게 확인할 수 있다. 즉, \(\hat{x} \in \mathbf{V}^{**}\) 이다.
-
증명
대우명제 \(x \neq 0 \implies \hat{x}(\operatorname{f}_{}) = 0\) 를 보여도 된다. 즉, \(x \neq 0\) 일 때 \(\hat{x}(\operatorname{f}_{}) \neq 0\) 인 \(\operatorname{f}_{}\in \mathbf{V}^{*}\) 가 존재함을 보이면 된다.
\(x_1 = x\) 인 \(\mathbf{V}\) 의 순서기저 \(\beta = \{x_1, x_2, \dots, x_n \}\) 가 존재한다. 정리 2.24 는 기저 \(\beta\) 에 따른 쌍대기저 \(\beta ^{*} = \{\operatorname{f}_{1}, \operatorname{f}_{2}, \dots, \operatorname{f}_{n}\}\) 의 존재를 보장해준다. \(\operatorname{f}_{1}(x_1) = \delta _{11} = 1 \neq 0\) 이다. \(\operatorname{f}_{1} = \operatorname{f}_{}\) 로 두면 증명이 끝난다. ■
- \(x_1 = x\) 인 순서기저 \(\beta\) 의 존재성을 보장하는 정리가 존재하지 않는다. 증명을 보완해야 함. 하지만 not now..
정리 2.26
유한차원 벡터공간 \(\mathbf{V}\) 와 \(x \in \mathbf{V}\) 와 \(\operatorname{f}_{}\in \mathbf{V}^{*}\) 에 대한 함수 \(\hat{x}: \mathbf{V}^{*}\to \mathbf{F}, \operatorname{f}_{} \to \operatorname{f}_{}(x)\) 에 대하여 함수 \(\psi : \mathbf{V}\to \mathbf{V}^{**}\) 를 \(\psi (x) = \hat{x}\) 으로 정의하면 \(\psi\) 는 동형사상이다.
-
이 정리가 보여주는 \(x\) 와 \(\hat{x}\) 사이의 대응으로 유한차원 벡터공간 \(\mathbf{V}\) 와 이중 쌍대공간 \(\mathbf{V}^{**}\) 을 동일화하는 방법을 찾을 수 있다. 이는 두 벡터공간의 기저와 관계없이 \(\mathbf{V}\) 와 \(\mathbf{V}^{**}\) 사이의 동형사상이 존재함을 뜻한다.
-
증명
\(x, y \in \mathbf{V}, c \in \mathbf{F}\) 와 임의의 \(\operatorname{f}_{}\in \mathbf{V}^{*}\) 에 대하여 함수의 합의 정의 에 의하여 다음이 성립한다.
\[ \begin{align}\begin{split} \psi (cx+y)(\operatorname{f}_{})&= \operatorname{f}_{}(cx+y) = c \operatorname{f}_{}(x) + \operatorname{f}_{}(y) = c \hat{x}(\operatorname{f}_{})+ \hat{y}(\operatorname{f}_{}) \\ &= (c \hat{x}+ \hat{y})(\operatorname{f}_{})\\ \end{split}\end{align} \tag*{} \]즉, \(\psi (cx + y) = c \hat{x} + \hat{y} = c \psi (x) + \psi (y)\) 이다. 따라서 \(\psi\) 는 선형이다. ▲
\(x \in \mathbf{V}\) 에 대하여 \(\psi (x) \in \mathbf{V}^{**}\) 를 \(\mathbf{V}^{*}\to \mathbf{F}, \hat{x}(\operatorname{f}_{}) \mapsto 0\) 으로 두자. 그러면 임의의 \(\operatorname{f}_{}\in \mathbf{V}^{*}\) 에 대하여 \(\hat{x}(\operatorname{f}_{}) = 0\) 이다. 정리 2.25 보조정리에 의하여 \(x = 0\) 를 얻는다. 이는 \(\ker (\psi ) = \{0\}\) 을 뜻한다. 정리 2.4 에 의하여 \(\psi\) 는 단사이다. ▲
\(\psi\) 가 단사이므로 정리 2.5 에 의하여 \(\psi\) 는 가역이다. 또한 \(\dim (\mathbf{V}) = \dim (\mathbf{V}^{**})\) 이므로 \(\psi\) 는 동형사상이다. ■
유한차원 벡터공간 \(\mathbf{V}, \mathbf{W}\) 에 대하여 동형사상 \(\psi_1 : \mathbf{V}\to \mathbf{V}^{**}, x \mapsto \hat{x}\) 과 동형사상 \(\psi _2: \mathbf{W}\to \mathbf{W}^{**}, x \mapsto \hat{x}\) 을 정의하고, \(\operatorname{T}: \mathbf{V}\to \mathbf{W}\) 가 선형일 때 \(\operatorname{T}^{tt}=(\operatorname{T}^{\top})^{\top}\) 라 정의하면 다음과 같이 \(\psi _2 \operatorname{T}= \operatorname{T}^{tt}\psi _1\) 가 성립한다.
-
동형사상 \(\psi _1, \psi _2\) 는 정리 2.26 과 같이 정의된 것이다.
-
증명
정리 2.26 따름정리
유한차원 벡터공간 \(\mathbf{V}\) 와 쌍대공간 \(\mathbf{V}^{*}\) 에 대하여 \(\mathbf{V}^{*}\) 의 모든 순서기저는 \(\mathbf{V}\) 의 어떤 기저의 쌍대기저이다.
-
증명
먼저 \(x \in \mathbf{V}\) 와 \(\operatorname{f}_{}\in \mathbf{V}^{*}\) 에 대한 함수 \(\hat{x}: \mathbf{V}^{*}\to \mathbf{F}, \operatorname{f}_{} \to \operatorname{f}_{}(x)\) 를 정의하자. \(\mathbf{V}^{*}\) 의 순서기저를 \(\{\operatorname{f}_{1}, \operatorname{f}_{2}, \dots, \operatorname{f}_{n}\}\) 으로 두자.
정리 2.24 와 정리 2.26 에 의하여 \(\mathbf{V}^{*}\) 의 기저와 \(i, j \in \{1, \dots, n\}\) 에 대하여 \(\delta _{ij} = \hat{x_i}(\operatorname{f}_{i}) = \operatorname{f}_{j}(x_i)\) 인 쌍대기저 \(\{\hat{x}_1, \hat{x}_2, \dots, \hat{x}_n\} \subset \mathbf{V}^{**}\) 가 존재한다. 쌍대기저의 정의 에 의하여 \(\{\operatorname{f}_{1}, \operatorname{f}_{2}, \dots, \operatorname{f}_{n}\}\) 는 \(\{x_1, x_2, \dots, x_n\}\) 의 쌍대기저이다. ■