Eerder hebben we al enkele inverteerbaarheidscriteria voor lineaire afbeeldingen gezien. In verband met de stelling Lineaire afbeelding bepaald door het beeld van een basis levert dit ook inverteerbaarheidscriteria voor matrices. We voegen daar een criterium in termen van de rang aan toe.
Laat #n# een natuurlijk getal zijn. Voor elke #(n\times n)#-matrix #A# zijn de volgende uitspraken gelijkwaardig:
- De rang van #A# is #n#
- De rijen van #A# zijn onafhankelijk
- De kolommen van #A# zijn onafhankelijk
- De gereduceerde trapvorm van #A# is de identiteitsmatrix
- De matrix #A# is inverteerbaar
#1\Rightarrow 2# en #1\Rightarrow 3#: Als de rang van #A# gelijk is aan #n#, dan spannen zowel de #n# rijen als de #n# kolommen een #n#-dimensionale ruimte op en dat betekent dat ze onafhankelijk zijn.
#2\Rightarrow 1# en #3\Rightarrow 1#: Als de #n# rijen (of kolommen) onafhankelijk zijn, dan spannen de rijen (of kolommen) een #n#-dimensionale ruimte op en is de rang van de matrix gelijk aan #n#. Bovendien is dan de kolommenruimte (of rijenruimte) ook #n#-dimensionaal en zijn dus ook de kolommen (of rijen) onafhankelijk.
De uitspraken 1, 2 en 3 zijn dus gelijkwaardig.
#1\Leftrightarrow 4#: De matrix #A# en de gereduceerde trapvorm van #A# hebben dezelfde rang. We zien uit de structuur van de gereduceerde trapvorm direct dat deze matrix rang #n# heeft dan en slechts dan als zij de identiteitsmatrix is.
#1\Leftrightarrow 5#: Vanwege Inverteerbaarheidscriteria voor een lineaire afbeelding is #L_A# dan en slechts dan inverteerbaar als #\im{L_A} =\mathbb{R}^n#, dat wil zeggen: dan en slechts dan als de rang van #A# gelijk is aan #n#.
Een #(1\times1)#-matrix #A=\matrix{a}# voldoet dan en slechts dan aan de voorwaarden als #a\ne0#.
Bekijk de matrix \[A=\matrix{a&b\\ c & d}\] De kolommen van #A# zijn dan en slechts dan lineair afhankelijk als er een niet-triviale lineaire combinatie is die de nulvector oplevert, dus dan en slechts dan als er scalairen #\lambda# en #\mu# zijn, niet beide gelijk aan #0#, zodat \[\lambda\rv{a,c}+\mu\rv{b,d} = \rv{0,0}\] wat overeenkomt met het stelsel \[\lineqs{\lambda\cdot a+\mu\cdot b=0\\\lambda\cdot c+\mu\cdot d=0}\] Deze voorwaarde kan herschreven worden als \[\matrix{a&b\\ c&d}\matrix{\lambda\\ \mu} = \matrix{0\\ 0}\]
en zegt dus dat de vector #\rv{\lambda,\mu}# in de kern van #A# ligt. Als dit het geval is, dan geeft vermenigvuldiging van links met de matrix #B = \matrix{d&-b\\ -c &a}#:
\[(a\cdot d -b\cdot c)\cdot \matrix{\lambda\\ \mu} = B\,A\,\matrix{\lambda\\ \mu} = \matrix {0\\ 0}\]
Omdat ten minste één van #\lambda# en #\mu# ongelijk aan nul is, vinden we dat #a\cdot d -b\cdot c\ne0# geldt.
Andersom, als #a\cdot d -b\cdot c\ne0#, dan geldt\[I_2 = \frac{1}{a\cdot d -b\cdot c}B \,A\] zodat #A# inverteerbaar is en de kern van #A# gelijk aan #\{\vec{0}\}# is, waaruit volgt dat de kolommen lineair onafhankelijk zijn. We concluderen dat de kolommen van #A# dan en slechts dan lineair afhankelijk zijn als #a\cdot d-b\cdot c=0#.
Omdat de linker leden, zeg #l_1# en #l_2#, beide gelijk aan nul zijn, mogen we ze vervangen door lineaire combinaties van #l_1# en #l_2#. In het bijzonder zien we door de combinaties #d\cdot l_1-b\cdot l_2# respectievelijk #a\cdot l_2-c\cdot l_1# te nemen: \[\lineqs{\lambda\cdot \left(a\cdot d-b\cdot c\right)=0\\\mu\cdot\left(a\cdot d-b\cdot c\right)=0}\] Omdat #\lambda# en #\mu# niet beide gelijk aan nul mogen zijn, concluderen we dat de kolommen van #A# dan en slechts dan lineair afhankelijk zijn als #a\cdot d-b\cdot c=0#. Deze afhankelijkheidsvoorwaarde op de kolommen van #A# is invariant onder de verwisseling van #b# en #c#, en geldt daarom ook voor de rijen van #A#, oftewel, voor de kolommen van #A^\top#. Dit verklaart dat de rang van #A# dan en slechts dan gelijk is aan #2# als de rang van #A^\top# gelijk is aan #2#. Dit laat nogmaals zien dat zowel uitspraak 2 als uitspraak 3 equivalent is met uitspraak 1.
Uitspraak 5 kunnen we zelfs illustreren aan de hand van de volgende eenvoudig na te rekenen formule:
\[\text{Voor }B = \matrix{d&-b\\ -c&a}\text{ geldt } A\,B = (a\cdot d -b\cdot c)\cdot I_2\]
Dus als #a\cdot d -b\cdot c\ne0#, dan is \[A^{-1} =\frac{1}{a\cdot d -b\cdot c}\cdot B\] de inverse van #A#. Stel nu #a\cdot d -b\cdot c=0#, zodat #A\,B# de nulmatrix is. Als #A# de nulmatrix is, dan is #A# niet inverteerbaar. Als #A# ongelijk is aan de nulmatrix, dan is een kolom van #B# een vector ongelijk #\vec{0}# die tot de kern van #A# behoort, zodat #A# niet inverteerbaar is. We concluderen dat #A# dan en slechts dan inverteerbaar is als #a\cdot d -b\cdot c\ne0#.
De uitdrukking #a\cdot d -b\cdot c# staat bekend als de determinant van #A#, die we later uitgebreider behandelen.
De gegeven lijst kan als volgt worden aangevuld:
- #A# is injectief
- #A# is surjectief
- #\ker{A}=\{\vec{0}\}#
- #\im{A}=\mathbb{R}^n#
- #\det(A)\neq0#
Volgens de stelling Inverteerbaarheid bij gelijke dimensies domein en codomein zijn uitspraken 6 en 7 gelijkwaardig aan uitspraak 5.
Volgens de Criteria voor injectiviteit en surjectiviteit zijn uitspraken 6 en 7 gelijkwaardig aan uitspraken 8 respectievelijk 9. Overigens zijn uitspraken 8 en 9 gelijkwaardig aan \[\dim{\ker{A}}=0\qquad\text{respectievelijk}\qquad\dim{\im{A}}=n\] in overeenstemming met de dimensiestelling. Volgens Rang is dimensie kolommenruimte is de laatste vergelijking gelijkwaardig aan #\text{rang}(A)=n#, wat direct de gelijkwaardigheid van uitspraken 1 en 9 bevestigt.
De gelijkwaardigheid van uitspraak 10 aan uitspraak 5 bewijzen we later in Inverteerbaarheid in termen van determinant. In die stelling bewijzen we tevens \[\det\left(A^{-1}\right)=\frac{1}{\det(A)}\] mits #A^{-1}# bestaat. Tezamen met uitspraak 10 volgt daaruit dat elke uitspraak voor #A# in de lijst gelijkwaardig is aan de overeenkomstige uitspraak voor #A^{-1}#, mits deze inverse bestaat.
Later in Determinant van getransponeerde en van product bewijzen we #\det(A)=\det(A^\top)#. Tezamen met uitspraak 10 volgt daaruit dat elke uitspraak voor #A# in de lijst gelijkwaardig is aan de overeenkomstige uitspraak voor #A^\top#.
Volgens het afhankelijkheidscriterium zijn uitspraken 2 en 3 gelijkwaardig aan de uitspraken dat er geen niet-triviale relatie bestaat tussen de rijen respectievelijk kolommen van #A#.
We bespreken de gelijkwaardigheid van enkele uitspraken voor het geval #n=2#. We noteren de elementen van de #(2\times2)#-matrix als volgt: \[A=\matrix{a&b\\ c & d}\]
#3\Leftrightarrow 8# Eerst laten we zien dat de kolommen van #A# onafhankelijk zijn (dat wil zeggen, geen niet-triviale relatie met elkaar hebben) dan en slechts dan als de kern van #A# enkel de nulvector bevat.
De kern van #A# bestaat uit alle vectoren #\rv{\lambda,\mu}# die voldoen aan \[\matrix{a&b\\ c&d}\matrix{\lambda\\ \mu}=\matrix{0\\ 0}\] Het linker lid kunnen we herschrijven als een lineaire combinatie van de kolommen van #A#: \[\lambda\cv{a\\c}+\mu\cv{b\\d}=\cv{0\\0}\] Als de kern van #A# slechts de nulvector bevat, dan heeft deze vergelijking #\rv{\lambda,\mu}=\rv{0,0}# als enige oplossing. Dat betekent dat de kolommen van #A# onafhankelijk zijn. Omgekeerd: als de kolommen van #A# onafhankelijk zijn, dan heeft de laatste vergelijking #\rv{\lambda,\mu}=\rv{0,0}# als enige oplossing. Uit de herschrijving naar de voorgaande vergelijking volgt dan dat de kern van #A# enkel de nulvector bevat.
#8\Leftrightarrow 10# We laten nu zien dat de kern van #A# enkel de nulvector bevat dan en slechts dan als de determinant #a\cdot d-b\cdot c# van #A# ongelijk is aan nul. Dit doen we door aan te tonen dat de kern van #A# vectoren bevat ongelijk aan de nulvector dan en slechts dan als de determinant van #A# gelijk is aan nul.
We introduceren de matrix \[M=\matrix{d&-b\\ -c&a}\] die voldoet aan \[ A\,M=M\,A=\left(a\cdot d-b\cdot c\right)I_2\] Zoals we hierboven al zagen, voldoet een vector #\vec{\lambda}# in de kern van #A# aan \[A\vec{\lambda}=\vec{0}\] Vermenigvuldigen we beide zijden van deze vergelijking van links met #M# dan vinden we: \[(a\cdot d-b\cdot c)\cdot\vec{\lambda}=\vec{0}\] Als de kern van #A# een vector bevat die ongelijk is aan de nulvector, dan moet de determinant van #A# dus wel nul zijn. Omgekeerd: als de determinant van #A# gelijk is aan nul, dan is #A\, M# de nulmatrix, wat aantoont dat de kolommen van #M# tot de kern van #A# behoren. Als #A# de nulmatrix is, dan zit elke vector uit #\mathbb{R}^2# in de kern van #A#. Als #A# niet de nulmatrix is, dan is minstens één van de kolommen van #M# ongelijk aan de nulvector. In beide gevallen bevat de kern van #A# vectoren ongelijk aan de nulvector.
#5\Leftrightarrow 10# Eerder zagen we dat #A# inverteerbaar is dan en slechts dan als de determinant van #A# ongelijk is aan nul, en dat de inverse in dat geval gelijk is aan \[A^{-1}=\frac{1}{a\cdot d-b\cdot c}M\] waarin de matrix #M# hierboven is gedefinieerd. Later zullen we zien dat de matrix #M# de geadjugeerde van #A# is. De determinant #a\cdot d-b\cdot c# verandert niet wanneer we #b# en #c# met elkaar verwisselen. Dat laat zien dat de determinanten van #A# en #A^\top# gelijk aan elkaar zijn, zoals in het algemeen geldt. Eveneens in overeenstemming met de algemene regel vinden we: \[\det\left(A^{-1}\right)=\frac{\det(M)}{\left(a\cdot d-b\cdot c\right)^2}=\frac{1}{a\cdot d-b\cdot c}=\frac{1}{\det(A)}\]
Is de volgende matrix inverteerbaar?
\[
\matrix{
1 &-4 & 3 \\
1 &-20 &15 \\
-1 &4 &-19}
\]
Ja
We breiden de matrix uit met een identiteitsmatrix en passen
Gauss-eliminatie toe:
\[\begin{aligned}\left(\begin{array}{ccc|ccc}
1&-4&3&1 & 0 & 0 \\
1&-20&15&0 &1 &0\\
-1&4&-19&0 &0 &1\\
\end{array}
\right)&\sim
\left(
\begin{array}{ccc|ccc}
1 &-4&3&1 & 0 & 0\\
0 &-16&12&-1& 1 & 0 \\
0 &0&-16&1& 0 & 1 \\
\end{array}
\right)
&{\color{blue}{\begin{array}{ccc}
\mbox{}\\
R_2 \to R_2 - R_1\\
R_3 \to R_3 +R_1
\end{array}}}\\
&\sim
\left(
\begin{array}{ccc|ccc}
1 &-4&3 &1 & 0 & 0 \\
0 &1 &-\frac{3}{4}&\frac{1}{16}&-\frac{1}{16} &0 \\
0 &0&-16&1& 0 & 1 \\
\end{array}
\right)
&{\color{blue}{\begin{array}{ccc}
\mbox{}\\
R_2 \to -\frac{1}{16}R_2\\
\mbox{}
\end{array}}}\\
&\sim
\left(
\begin{array}{ccc|ccc}
1 &0 &0&\frac{5}{4}&-\frac{1}{4}&0 \\
0 &1 &-\frac{3}{4}&\frac{1}{16}&-\frac{1}{16}&0 \\
0 &0 &-16&1&0&1\\
\end{array}
\right)
&{\color{blue}{\begin{array}{ccc}
{}R_1\to R_1+4R_2\\
\mbox{}\\
\phantom{X}
\end{array}}}\\
&\sim
\left(
\begin{array}{ccc|ccc}
1 &0 &0&\frac{5}{4}&-\frac{1}{4}&0\\
0 &1 &-\frac{3}{4}&\frac{1}{16}&-\frac{1}{16}&0\\
0 &0 &1 &-\frac{1}{16}&0&-\frac{1}{16} \\
\end{array}
\right)
&{\color{blue}{\begin{array}{ccc}
{}\\
{}\\
R_3\to -\frac{1}{16}R_3
\end{array}}}\\
&\sim
\left(
\begin{array}{ccc|ccc}
1 &0 &0 &\frac{5}{4}&-\frac{1}{4}&0\\
0 &1 &0 &\frac{1}{64}&-\frac{1}{16}&-\frac{3}{64}\\
0 &0 &1 &-\frac{1}{16}&0&-\frac{1}{16} \\
\end{array}
\right)
&{\color{blue}{\begin{array}{ccc}
{}\phantom{X}\\
R_2 \to R_2 +\frac{3}{4}R_3\\
{}
\end{array}}}
\end{aligned}
\] De linker matrix van het resultaat heeft rang #3#. Het antwoord is dus: Ja.
Rijreductie van de gegeven matrix uitgebreid met de #(3\times3)#-identiteitsmatrix laat niet alleen zien dat de gegeven matrix inverteerbaar is, maar ook dat de inverse gelijk is aan de #(3\times3)#-matrix rechtsonder in het resultaat.