行列の正則性には大量の同値な条件があるので、それの備忘録。 この節では数ベクトル空間は実でも複素でも共通である。
\(n \times n\) 行列 \(A\) に対し、\(AB = BA = I_n\) を満たす行列 \(B\) を \(A\) の逆行列と呼ぶ。 \(n \times n\) 行列 \(A\) が逆行列を持つとき、\(A\) は正則であると言う。
逆行列の性質としては以下が挙げられる。
正則性の必要十分条件として以下が挙げられる。
これらの同値性はベクトル空間の次元の有限性が重要である。無限次元ベクトル空間の場合これらの同値性は成立せず、もっと精密な議論を必要とする。
\(B, B'\) がともに \(A\) の逆行列であるとき、\(B=B'\)であることを示せばよい。
\(I_n = BA\) より両辺右から \(B'\) をかけて \(B' = (BA)B' = B(AB') = BI_n = B\) となり示される。
\(A A^{-1} = A^{-1} A = I_n\) は逆行列の性質であるが、これを \(A^{-1}\) を中心に見ると \(A\) が \(A^{-1}\) の逆行列であることを意味する。
\(A_1 A_2\) に右から \(A_2^{-1} A_1^{-1}\) をかけると、
\[(A_1 A_2) (A_2^{-1} A_1^{-1}) = A_1 (A_2 A_2^{-1}) A_1^{-1} = A_1 I_n A_1^{-1} = A_1 A_1^{-1} = I_n\]同様にして \((A_2^{-1} A_1^{-1}) (A_1 A_2) = I_n\) も得られるため、\(A_2^{-1} A_1^{-1}\) が \(A_1 A_2\) の逆行列であることがわかる。
\(e_1, \ldots, e_n\) を \(\bk^n\) の標準的基底、つまり
\[e_1 = \begin{bmatrix} 1 \\ 0 \\ \vdots \\ 0 \end{bmatrix}, \ldots, e_n = \begin{bmatrix} 0 \\ \vdots \\ 0 \\ 1 \end{bmatrix}\]とする。
8 ⇔ 9 は次元公式からわかる。 8 ⇔ 10 は階数の定義そのもので、9 ⇔ 11 は良く知られた線形代数の定理である。 よってこの4つの条件は同値である。
行列 \(A\) を \(A = [a_1, \ldots, a_n]\) と縦ベクトルを横に並べたものとして表したとき、 $\im A = \left<a_1, \ldots, a_n\right>$ である。
よって 6 が成立するならば \(\im A = \bk^n\) であるので \(\rank A = n\) であり 8 が成立する。 逆に 8 が成立するならば \(a_1, \ldots, a_n\) はベクトル空間の次元がわかっている場合の基底の条件より基底なので 6 が成立する。
2 を満たす行列 \(B\) の要素を \((B_{ij})\) で表す。すると \(AB = I_n\) より
\(AB = \begin{bmatrix} a_1, \ldots, a_n \end{bmatrix} \begin{bmatrix} B_{11} & \cdots & B_{1n} \\ \vdots & & \vdots \\ B_{n1} & \cdots & B_{nn} \end{bmatrix} = \begin{bmatrix} \sum_{i=1}^n B_{i1} a_i & \cdots & \sum_{i=1}^n B_{i1} a_i \end{bmatrix} = \begin{bmatrix} e_1 & \cdots & e_n \end{bmatrix}\) より、\(e_1, \ldots, e_n\) は \(a_1, \ldots, a_n\) の一次結合で表現できる。よって 任意の \(\bk^n\) のベクトルは \(a_1, \ldots, a_n\) の一次結合で表現できる。 すると ベクトル空間の次元がわかっている場合の基底の条件 より \(a_1, \ldots, a_n\) は \(\bk^n\) の基底である。
6が成立するとすると、\(e_1, \ldots, e_n\) は \(a_1, \ldots, a_n\) の一次結合で表されるので、 \(\exists B_{ij}\) for \(i, j = 1, \ldots, n\) s.t.
\[e_j = \sum_{i=1}^n B_{ij} a_i\]すると、\(B = (B_{ij})_{i=1,\ldots, j=1,\ldots,n}\) とすると、
\[AB = \begin{bmatrix} a_1, \ldots, a_n \end{bmatrix} \begin{bmatrix} B_{11} & \cdots & B_{1n} \\ \vdots & & \vdots \\ B_{n1} & \cdots & B_{nn} \end{bmatrix} = \begin{bmatrix} e_1 & \cdots & e_n \end{bmatrix} = I_n\]となり2が成立する。
条件2 \(AB = I_n\) を考える。2→6→8,9,10,11より \(x \mapsto Ax\) という写像は全単射である。よって逆写像 $g: \bk^n \to \bk^n$ が存在する。 この逆写像は $y \mapsto By$ と一致することを示し、利用する。
\(AB = I_n\) より任意の \(y \in \bk^n\) に対し \(AB y = y\) である。すると \(g(ABy) = g(y)\) である。すると \(g(ABy) = By\) より $By = g(y)$ が得られる。\(y\) は任意に取れたので、特に $y$ の所を \(Ax\) と置くと \(BAx = g(Ax)\) である。この右辺は \(g\) が逆写像であることより \(x\) と一致する。 つまり \(BAx = x\) が任意の \(x\) で成立する。つまり \(x \mapsto BAx\) は恒等写像であり、恒等写像の表現行列は \(I_n\) であることより \(BA = I_n\) である。よって条件1が示された。
2→1はかなり強い命題であり、次元の有限性が本質的に効いている。
これは $\t(AB) = \t B \t A$よりわかる。
条件6,4から7が言える。 一方7の条件から \(\t A\) が正則であることが言え、そこから条件4より \(A\) の正則性がわかる。
\(AB = I_n\) の両辺の行列式を計算すると。
\[\det(AB) = \det A \det B = \det I_n = 1\]よって \(\det A \not = 0\) である。
対偶を示す。つまり \(\ker A \not = \{0\}\) ならば \(\det A = 0\) を示す。
\(\ker A \not = \{0\}\) より \(\exists x \in \bk^n \backslash \{0\}\) s.t. \(Ax = 0\) である。 \(x \not = 0\) より \(x\) の要素で0でないものがある。 そこで、\(x = \t[x_1, \ldots, x_n]\) とし、\(x_i \not = 0\) とする。 すると、単位行列 \(I_n\) の \(i\) 列目を \(x\) に置き換えた行列 \(X\) を考えると、
\[X = \begin{bmatrix} 1 & & x_1 & \\ & \ddots & \vdots & \\ & & x_i & \\ & & \vdots & \ddots \\ & & x_n & & 1 \end{bmatrix}\]であるので、 \(\det X = x_i\) である。一方
\[AX = A\begin{bmatrix} e_1 & \cdots & x & \cdots & e_n \end{bmatrix} = \begin{bmatrix} Ae_1 & \cdots & Ax & \cdots & Ae_n \end{bmatrix} = \begin{bmatrix} Ae_1 & \cdots & \zv & \cdots & Ae_n \end{bmatrix}\]であるので \(AX\) は 0 からなる列を持つ。すると \(\det AX = 0\) がわかるが、 一方 \(\det AX = \det A \det X = \det A \cdot x_i\) となるので \(\det A = 0\) である。
これは行列式が重複を含めた固有値の積であることからわかる。