De determinant van een #(n\times n)#-matrix is een getal. Dat getal hangt af van de matrix, en in het bijzonder van de rijen van de matrix. De afhankelijkheid van de rijen is het uitgangspunt bij de definitie van een zogenaamde determinantfunctie.
Een determinantfunctie op #\mathbb{R}^n# is een functie #D# die aan ieder #n#-tal vectoren #\vec{a}_1,\ldots ,\vec{a}_n# een getal toevoegt, zodanig dat aan de volgende eigenschappen voldaan is:
- Multilineariteit: voor #i=1,\ldots,n# geldt \[
\begin{array}{l}
D(\vec{a}_1, \ldots , \vec{a}_{i-1}, \sum_{k=1}^m\beta_k\vec{b}_k ,\vec{a}_{i+1},
\ldots ,\vec{a}_n)
=\sum_{k=1}^m\beta_k D(\vec{a}_1, \ldots, \vec{a}_{i-1},\vec{b}_k,\vec{a}_{i+1},\ldots ,\vec{a}_n)
\end{array}
\]
- Antisymmetrie: door verwisseling van twee vectoren in de argumenten gaat de waarde van de determinant in zijn tegengestelde over.
- Normering: #D(\vec{e}_1,\vec{e}_2,\ldots ,\vec{e}_n)=1#.
De multilineariteit zegt dat, voor elke #i#, de functie #D# lineair is in het #i#-de argument (waarbij alle andere argumenten constant gehouden worden). De multineariteit stelt dus dat #D# lineair is in elk argument.
Bovenstaande definitie hangt af van #n#. Bovendien volgt niet uit de definitie dat er voor iedere #n# inderdaad een determinantfunctie bestaat. Dit is echter wel het geval, zoals hieronder te zien is.
De antisymmetrie kan ook geformuleerd worden als #D(\vec{a}_1, \ldots , \vec{a}_n) = 0# wanneer twee argumenten gelijk zijn (dus als \(\vec{a}_i=\vec{a}_j\) voor onderling verschillende #i# en #j#). Zie Determinantfuncties verdwijnen op afhankelijke vectoren hieronder.
Ook zonder normering zijn multilineaire antisymmetrische functies te bepalen, zoals in het laatste onderdeel van onderstaande stelling Karakterisering van de determinant duidelijk wordt.
De functie #D# kan ook worden gezien als een functie #D(A)# met als argument de #(n\times n)#-matrix #A# waarvan de #i#-de rij #\vec{a}_i# is.
Laat #D(\vec{x},\vec{y}) = x_1y_2-x_2y_1# voor #\vec{x} = \rv{x_1,x_2}# en #\vec{y} = \rv{y_1,y_2}# in #\mathbb{R}^2#. Dan is #D# een determinantfunctie op #\mathbb{R}^2#:
- Multilineariteit: in elke term van de som in de definitie komt een coördinaat van elk argument één keer voor.
- Antisymmetrie: #D(\vec{x},\vec{y}) = x_1y_2-x_2y_1= -(y_1x_2-y_2x_1)=-D(\vec{y},\vec{x})#
- Normering: #D(\vec{e}_1,\vec{e}_2)=1\cdot 1 - 0\cdot 0 =1#.
Schrijven we #\vec{x} = \rv{a,b}# en #\vec{y} = \rv{c,d}#, dan zien we dat deze definitie overeenkomt met de determinant van de matrix #\matrix{a&b\\ c &d}# uit een eerder gegeven definitie.
Laat #D(\vec{x},\vec{y},\vec{z}) = \dotprod{\vec{x}}{(\vec{y}\times \vec{z})}# voor #\vec{x} = \rv{x_1,x_2,x_3}#, #\vec{y} = \rv{y_1,y_2,y_3}# en #\vec{z} = \rv{z_1,z_2,z_3}# in #\mathbb{R}^3#, waarbij #\dotprod{}{}# het inproduct en #\times # het uitproduct weergeeft. Dan is #D# een determinantfunctie op #\mathbb{R}^3#:
- Multilineariteit: de vectoren \(\vec{x}\), \(\vec{y}\), \(\vec{z}\) komen elk precies één keer voor en het inproduct en het uitproduct zijn beide lineair in elk van hun argumenten.
- Antisymmetrie: We laten zien dat als twee van de drie argumenten gelijk zijn, dan #D(\vec{x},\vec{y},\vec{z})=0# volgt. Het uitproduct is antisymmetrisch, dus #D(\vec{x},\vec{y},\vec{y})= \dotprod{\vec{x}}{(\vec{y}\times \vec{y})} =\dotprod{\vec{x}}{\vec{0}}= 0#. Omdat #\vec{y}\times \vec{z}# loodrecht staat op zowel #\vec{y}# als #\vec{z}#, geldt zowel #D(\vec{y},\vec{y},\vec{z}) = \dotprod{\vec{y}}{(\vec{y}\times \vec{z})} = 0# als #D(\vec{z},\vec{y},\vec{z}) = \dotprod{\vec{z}}{(\vec{y}\times \vec{z})} = 0#.
- Normering: #D(\vec{e}_1,\vec{e}_2,\vec{e}_3)=\dotprod{\vec{e}_1}{(\vec{e}_2\times \vec{e}_3)}=\dotprod{\vec{e}_1}{\vec{e}_1}=1#.
We gaan aantonen dat er voor iedere #n# inderdaad precies één determinantfunctie bestaat en die ook daadwerkelijk bepalen; die heet dan de determinant. We trekken eerst enige conclusies uit de definitie.
Als #D# een determinantfunctie op #\mathbb{R}^n# is, dan heeft ze de volgende eigenschappen.
- #D(\vec{a}_1,\ldots, \vec{a} ,\ldots, \vec{a} ,\ldots ,\vec{a}_n)=0#: als onder de vectoren #\vec{a}_1,\ldots ,\vec{a}_n# twee dezelfde voorkomen, dan is de determinant gelijk aan #0#.
- #D (\vec{a}_1,\ldots ,\vec{a}_n)=0# als het stelsel #\vec{a}_1,\ldots ,\vec{a}_n# lineair afhankelijk is.
1. Door verwisseling van de twee argumenten die gelijk zijn aan de vector #\vec{a}# gaat de determinant in zijn tegengestelde over, maar tegelijkertijd verandert het argument niet zodat de determinant hetzelfde blijft. Dat kan alleen als de determinant #0# is.
2. Veronderstel gemakshalve dat \[ \vec{a}_1=\alpha_2\vec{a}_2+\cdots +\alpha_n\vec{a}_n\]Dan is\[\begin{array}{rl}D(\vec{a}_1,\vec{a}_2,\ldots ,\vec{a}_n)& =D(\sum_{k=2}^n\alpha_k\vec{a}_k,\vec{a}_2,\ldots ,\vec{a}_n)\\& =\sum_{k=2}^n\alpha_k D(\vec{a}_k ,\vec{a}_2,\ldots ,\vec{a}_n)\\&=0\end{array}\]vanwege het eerste onderdeel.
Als #D# multilineair is, dan kan de antisymmetrie ook geformuleerd worden als #D(\vec{a}_1, \ldots , \vec{a}_n) = 0# wanneer twee argumenten gelijk zijn (dus als \( \vec{a}_i=\vec{a}_j\) voor onderling verschillende #i# en #j#).
We hebben in punt 1 van het bewijs al gezien dat de aanname dat #D# antisymmetrisch is, impliceert dat #D(\vec{a}_1, \ldots , \vec{a}_n) = 0# wanneer twee argumenten gelijk zijn. We bewijzen nu de omgekeerde implicatie die zegt dat uit de aanname dat #D(\vec{a}_1, \ldots,\vec{a}_n)=0# als #\vec{a}_i=\vec{a}_j# volgt dat #D# antisymmetrisch in de argumenten #i# en #j# is.
We bekijken de eerste twee argumenten en schrijven #F(\vec{a}_1,\vec{a}_2) = D(\vec{a}_1,\vec{a}_2,\vec{a}_3,\ldots,\vec{a}_n) #. Dankzij de multilineariteit geldt \[ F(\vec{a}_1+\vec{a}_2,\vec{a}_1+\vec{a}_2) = F(\vec{a}_1,\vec{a}_2)+F(\vec{a}_2,\vec{a}_1)+F(\vec{a}_1,\vec{a}_1)+F(\vec{a}_2,\vec{a}_2)\]
Als #D(\vec{a}_1, \ldots , \vec{a}_n) = 0# wanneer twee argumenten gelijk zijn, dan geldt #F(\vec{x}, \vec{x}) = 0# voor alle vectoren #\vec{x}#. Dus wordt bovenstaande gelijkheid\[ 0= F(\vec{a}_1,\vec{a}_2)+F(\vec{a}_2,\vec{a}_1)\] waaruit antisymmetrie van #F# volgt, en dus ook antisymmetrie van #D# in de eerste twee argumenten.
Antisymmetrie voor elk ander tweetal argumenten kan net zo bewezen worden.
Voor de onderstaande karakterisering van determinantfuncties gebruiken we enkele feiten over permutaties.
Bekijk de functie #\det# op #\mathbb{R}^n# gedefinieerd door
\[
\det(\vec{a}_1,\ldots ,\vec{a}_n)=\sum_{\sigma}\text{sg}(\sigma)\cdot a_{1\sigma(1)}\cdots a_{n\sigma(n)}
\]waarbij de som loopt over alle #n!# permutaties #\sigma# van #\{1,\ldots ,n\}#. Hierbij is #\vec{a}_i = \rv{a_{i1},a_{i2},\ldots,a_{in}}#, zodat #\det(\vec{a}_1,\ldots ,\vec{a}_n) =\det(A)#, de determinant van #A#, de #(n\times n)#-matrix waarvan de #i#-de rij gelijk is aan #\vec{a}_i#.
- De functie #\det# is een determinantfunctie.
- De functie #\det# is de enige determinantfunctie op #\mathbb{R}^n#.
- Als #E# een functie met #n# argumenten uit #\mathbb{R}^n# is die multilineair en antisymmetrisch is, dan geldt \(E(A) = E(I)\cdot \det(A)\).
In plaats van #\det\left(\matrix{a_{11}&\cdots&a_{1n}\\ \vdots &\ddots&\vdots\\ a_{n1}&\cdots&a_{nn}}\right)# schrijven we ook wel #\left|\begin{array}{ccc}a_{11}&\cdots&a_{1n}\\ \vdots&\ddots&\vdots\\ a_{n1}&\cdots&a_{nn}\end{array}\right|#. We zullen naar bovenstaande uitdrukking voor #\det# verwijzen als de somformule voor de determinant.
Neem #n=2# en bekijk de matrix \[A = \matrix{a&b\\ c&d}\] De rijen zijn dus #\vec{a}_1=\rv{a,b}# en #\vec{a}_2=\rv{c,d}#.
Er zijn nu slechts twee permutaties van #\{1,2\}#, namelijk #\rv{1,2}# en #\rv{2,1}#. De eerste permutatie heeft al de goede volgorde; het bijbehorende teken is dus #1#. De tweede permutatie heeft één verwisseling nodig om in de volgorde #\rv{1,2}# te komen, zodat het teken ervan gelijk is aan #-1#. We vinden dus
\[
\det(A) = \left|\,\begin{array}{rr}
a & b\\
c & d
\end{array}\,\right|=a\,d - b\,c\
\]in overeenstemming met de eerder gegeven definitie.
Nu #n=3#. Bekijk de determinant van de #(3\times3)#-matrix #A # met #(i,j)#-element #a_{ij}#:
\[\det(A) =
\left|\,\begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}
\end{array}\,\right|
\]Er zijn zes permutaties van #\rv{1,2,3}#; met een plusteken corresponderen #\rv{1,2,3}#, #\rv{2,3,1}# en #\rv{3,1,2}# en met een minteken #\rv{1,3,2}#, #\rv{2,1,3}# en #\rv{3,2,1}#. We vinden
\[
\left|\,\begin{array}{rrr}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}
\end{array}\,\right|=\begin{array}{l l}
& a_{11} a_{22} a_{33} + a_{12} a_{23} a_{31} + a_{13} a_{21} a_{32}\\
&{}-a_{11} a_{23} a_{32} - a_{12} a_{21} a_{33} - a_{13} a_{22} a_{31}
\end{array}
\]Deze uitdrukking staat bekend als de regel van Sarrus. Hij is eenvoudig te onthouden: zet de eerste twee kolommen achter de matrix
\[
\begin{array}{rrrrr}
a_{11} & a_{12} & a_{13} & a_{11} & a_{12}\\
a_{21} & a_{22} & a_{23} & a_{21} & a_{22}\\
a_{31} & a_{32} & a_{33} & a_{31} & a_{32}
\end{array}
\]en neem nu de drie termen op de hoofddiagonaal of daar evenwijdig aan met een plusteken en de termen op de nevendiagonaal (dat wil zeggen: #a_{13}, a_{22}, a_{31}#) of daar evenwijdig aan met een minteken.
In 2-dimensionale determinanten zagen we al dat #(2\times 2)#-determinanten een interpretatie als oppervlakte hebben. Iets dergelijks geldt ook voor #(n\times n)#-determinanten: deze meten volumina van parallellopipida in #\mathbb{R}^n#.
Als we de determinant schrijven als een som van termen waar \(D(\vec{e}_{j_1} ,\ldots ,\vec{e}_{j_n})\) in voorkomt, zoals in het bewijs gebeurt, dan komt elke lijst indices #\rv{j_1,\ldots ,j_n}# voor. Maar veel termen verdwijnen. Immers, als twee van de indices gelijk zijn, dan staat er in het rechter lid een determinant met twee gelijke vectoren en die is #0#. Dus: als #D# bestaat, dan is
\[
D(\vec{a}_1,\ldots ,\vec{a}_n)=\sum_{\text{alle}\ j_i\ \text{ verschillend}}\ a_{1j_1}\cdots a_{nj_n} D(\vec{e}_{j_1} ,\ldots ,\vec{e}_{j_n})
\]Welke indices #\rv{j_1,\ldots ,j_n}# staan er in deze som, en uit hoeveel termen bestaat deze som? Uit het feit dat alle getallen #j_1,\ldots ,j_n# verschillend moeten zijn en dat ieder tussen #1# en #n# ligt, volgt dat in #\rv{j_1,\ldots ,j_n}# alle getallen tussen #1# en #n# precies één keer voorkomen. Zo'n rijtje heet een permutatie van de getallen #1,\ldots ,n#. Alle permutaties van #\{1,2,3\}# zijn bijvoorbeeld
\[
\rv{1,2,3},\, \rv{1,3,2},\, \rv{2,1,3},\, \rv{2,3,1},\, \rv{3,1,2},\, \rv{3,2,1}
\]Deze permutaties vinden we als volgt: we kiezen een element uit #\rv{1,2,3}#. Dat kan op drie manieren. Daarna blijven er nog twee keuzen voor het tweede element over. Het derde element ligt dan vast. Er zijn dus #3\times 2\times 1=3!=6# mogelijke permutaties van #\{1,2,3\}#.
Uniciteit: We zijn nu in staat voor iedere #n# de determinantfunctie uit te schrijven. Dat gaat op dezelfde manier als bij #(2\times 2)#-matrices: schrijf elke rij uit als lineaire combinatie van de standaardbasisvectoren en gebruik de multilineariteit om de determinant uit te schrijven als een som van vele determinanten van standaardbasisvectoren. Bekijk daartoe de matrix
\[
A=\left(\,\begin{array}{cccc}
a_{11} & a_{12} & \ldots & a_{1n}\\
a_{21} & a_{22} & \ldots & a_{2n}\\
\vdots & \vdots & \vdots & \vdots\\
a_{n1} & \ldots & \ldots & a_{nn}
\end{array}\,\right)
\]met rijen #\vec{a}_1 ,\ldots ,\vec{a}_n#. Dan is voor iedere #i#
\[
\vec{a}_i=\sum_{j=1}^n\ a_{ij}\vec{e}_j
\]en dus
\[
\begin{array}{ll}
D\ (\vec{a}_1 ,\ldots ,\vec{a}_n)\
&=\ D\Big(\sum_{j_1=1}^na_{1j_1}\vec{e}_{j_1},\ldots ,\sum_{j_n=1}^n a_{nj_n}\vec{e}_{j_n}\Big)\\
&=\ \sum_{j_1=1}^n\ldots \sum_{j_n=1}^na_{1j_1}\ldots a_{nj_n}D(\vec{e}_{j_1},\ldots ,\vec{e}_{j_n})
\end{array}
\]Dit is een som met heel veel termen. Er zijn #n# sommatie-indices ieder met #n# mogelijke waarden dus het aantal termen is #n^n#. Voor een toch vrij lage waarde als #n=8# staan hier \(16\,777\,216\) termen.
Omdat termen waarin twee indices #j_i# en #j_k# gelijk zijn, nul opleveren, kunnen we ons beperken tot permutaties \(\rv{j_1,\ldots ,j_n}\) van #\{1,2,\ldots,n\}#. We tellen deze permutaties als volgt. Voor het eerste element zijn er #n# mogelijkheden, dan voor het tweede element nog #n-1#, voor het derde element nog #n-2,\ldots#, voor het voorlaatste nog #2#, waarna het laatste element vastligt. Er zijn dus #n\cdot(n-1)\cdots 2\cdot 1=n!# permutaties van #\{1,\ldots ,n\}#.
De som voor #D# telt dus in deze vorm #n!# termen. Dat is heel wat minder dan #n^n#, maar voor #n=8# zijn het er altijd nog #8!=40\,320#. Als sommige termen #D(\vec{e}_{j_1},\ldots ,\vec{e}_{j_n})# in de som over alle permutaties #\rv{j_1,\ldots, j_n}# gelijk aan #0# zouden zijn, dan zou de som uit nog minder termen bestaan. Dat is echter niet het geval. Omdat #\rv{j_1,\ldots, j_n}# uit alle getallen #1,\ldots ,n# bestaat, kunnen we door herhaald verwisselen de volgorde #1,\ldots ,n# bereiken. Iedere verwisseling betekent een factor #-1#. Als het aantal verwisselingen even is, dan is #D(\vec{e}_{j_1},\ldots ,\vec{e}_{j_n})# gelijk aan #1# en anders gelijk aan #-1#. We vinden dus:
Als #D# bestaat, dan is
\[
D(\vec{a}_1,\ldots ,\vec{a}_n)=\sum_{j_1,\ldots ,j_n}\pm a_{1j_1}\ldots a_{nj_n}
\]waarbij de som loopt over alle #n!# permutaties van #\rv{1,\ldots ,n}# en in de som het plusteken genomen moet worden als de permutatie in een even aantal verwisselingen in de volgorde #\rv{1,\ldots ,n}# gebracht kan worden en anders het minteken.
det is een determinantfunctie: Om dit te bewijzen, gaan we na dat #\det# aan de drie eisen voor een determinantfunctie voldoet.
Multilineariteit: Laat #i# een van de getallen #1,\ldots,n# zijn. We willen laten zien dat #\det# lineair is in het #i#-de argument #\vec{a}_i#. Omdat \(\det(\vec{a}_1,\ldots ,\vec{a}_n)\) een som van termen van de vorm \(\text{sg}(\sigma) a_{1\sigma(1)}\cdots a_{n\sigma(n)}\) is, volstaat het om na te gaan dat elk van deze termen lineair in #\vec{a}_i# is. Dat is inderdaad het geval, want alleen de factor #a_{i\sigma(i)}# komt van #\vec{a}_i#.
Antisymmetrie: door verwisseling van twee vectoren in de argumenten gaat de waarde van de determinant in zijn tegengestelde over. Als we de argumenten #i# en #j# verwisselen, dan krijgen we dezelfde uitdrukking, met #a_{i\sigma(i)}# en #a_{j\sigma(j)}# in elke term vervangen door respectievelijk #a_{j\sigma(i)}# en #a_{i\sigma(j)}#. Omdat het alleen om een verwisseling gaat, mogen we #i\lt j# veronderstellen. Als we #\tau# de samenstelling van #\sigma# en de verwisseling van #i# en #j# laten zijn, dan krijgen we dus
\[\begin{array}{rcl}&&a_{1\sigma(1)}\cdots a_{i-1\sigma(i-1)}a_{j\sigma(i)}a_{i+1\sigma(i+1)}\cdots a_{j-1\sigma(j-1)}a_{i\sigma(j)}a_{j+1\sigma(j+1)}\cdots a_{n\sigma(n)}\\&&\phantom{xx}=a_{1\tau(1)}\cdots a_{i-1\tau(i-1)}a_{j\tau(j)}a_{i+1\tau(i+1)}\cdots a_{j-1\tau(j-1)}a_{i\tau(i)}a_{j+1\tau(j+1)}\cdots a_{n\tau(n)}\\ &&\phantom{xx}= a_{1\tau(1)}\cdots a_{n\tau(n)}\end{array}\]Voor de duidelijkheid behandelen we deze gelijkheden nogmaals, maar nu met meer woorden:
\[\begin{array}{lcc}&{\left.a_{1\sigma(1)}\cdots a_{n\sigma(n)}\right.}&\qquad\left({\text{met }a_{i\sigma(i)} \text{ en }a_{j\sigma(j)}\text{ vervangen door }a_{j\sigma(i)}\text{ en }a_{i\sigma(j)} }\right)\\ &\phantom{1234}={\left.a_{1\tau(1)}\cdots a_{n\tau(n)}\right.}&\qquad\left({\text{met }a_{i\tau(i)}\text{ en }a_{j\tau(j)}\text{verwisseld} }\right)\\ &\phantom{1234}=a_{1\tau(1)}\cdots a_{n\tau(n)}&\qquad\left(\text{in een product van scalairen is volgorde onbelangrijk}\right)\end{array}\]
Uit #\tau\equiv\sigma\,(i,j)# volgt dat #\sigma# één transpositie minder heeft dan #\tau# zodat #\text{sg}(\sigma)=-\text{sg}(\tau)#. De som over alle permutaties #\sigma# is gelijk aan de som over alle permutaties #\tau#. Met al deze resultaten vinden we:
\[\begin{array}{rcll}\det\overbrace{(\vec{a}_1,\ldots ,\vec{a}_n)}^{\vec{a}_i\quad\leftrightarrow\quad\vec{a}_j}&=&\sum_{\sigma}\text{sg}(\sigma)\cdot \overbrace{a_{1\sigma(1)}\cdots a_{n\sigma(n)}}^{\begin{array}{rcl}a_{i\sigma(i)}&\leftrightarrow&a_{j\sigma(i)}\\a_{j\sigma(j)}&\leftrightarrow&a_{i\sigma(j)}\end{array}}&\color{blue}{\text{definitie }\det}\\&=&\sum_{\sigma}\text{sg}(\sigma)\cdot a_{1\tau(1)}\cdots a_{n\tau(n)}&\color{blue}{\text{resultaat hierboven}}\\&=&\sum_{\sigma}-\text{sg}(\tau)\cdot a_{1\tau(1)}\cdots a_{n\tau(n)}&\color{blue}{\text{sg}(\sigma)=-\text{sg}(\tau)}\\&=&\sum_{\tau}-\text{sg}(\tau)\cdot a_{1\tau(1)}\cdots a_{n\tau(n)}&\color{blue}{\sum_{\sigma}=\sum_{\tau}}\\&=&-\sum_{\tau}\text{sg}(\tau)\cdot a_{1\tau(1)}\cdots a_{n\tau(n)}&\color{blue}{\text{minteken naar voren}}\\&=&-\det(\vec{a}_1,\ldots ,\vec{a}_n)&\color{blue}{\text{definitie }\det}\end{array}\]
Normering: #D(\vec{e}_1,\vec{e}_2,\ldots ,\vec{e}_n)=1#.
Een standaardbasisvector #\vec{e}_i# van #\mathbb{R}^n# bestaat uit #n-1# nullen en één #1# op positie #i#:\[\vec{e}_i=\rv{e_{i1},e_{i2},\ldots,e_{in}}=[0,0,\ldots,0,\underbrace{1}_{\text{positie }i},0,\ldots,0,0]\]Dit betekent:\[e_{ij}=\left\{\begin{array}{rl}1&\text{voor }i=j\\0&\text{voor }i\neq j\end{array}\right.\]In onderstaande som over alle permutaties #\sigma# is #e_{11}\cdots e_{nn}#, die hoort bij #\sigma=\rv{1,2,\ldots,n}#, dus de enige term ongelijk aan nul:\[\begin{array}{rcl}\det(\vec{e}_1,\vec{e}_2,\ldots ,\vec{e}_n) &=&\sum_{\sigma}\text{sg}(\sigma)\cdot e_{1\sigma(1)}\cdots e_{n\sigma(n)}\\ &=&\text{sg}(\rv{1,2,\ldots,n})\cdot e_{11}\cdots e_{nn}\\&=& 1\cdot 1\cdots 1\\&=& 1\end{array}\]
Laatste uitspraak: Als #E(I) = 0#, dan is elke term in de uitwerking van #E(A)# gelijk aan nul omdat er een factor #E(I)# in voorkomt. Dan geldt #E(A) = 0 = E(I)\cdot \det(A)#, als vereist. Stel daarom #E(I)\ne0#. Dan is #\frac{E(A)}{E(I)}# gedefinieerd; het is een functie die voldoet aan alle drie de eisen voor een determinantfunctie, zodat vanwege de uniciteit geldt \[ \frac{E(A)}{E(I)} = \det(A)\] De uitspraak volgt nu na vermenigvuldiging van beide leden met #E(I)#.
De somformule heeft #n!# termen, waarbij #0! = 1# en #n! = n\cdot (n-1)!# voor #n\gt0#. Dat is veel te veel om zelfs voor relatief kleine #n# nog bruikbaar te zijn. Wel volgen uit de formule resultaten die we bij het berekenen van determinanten gebruiken.
Voor welke waarde van #k# is de determinant van onderstaande matrix #A# gelijk aan nul?
\[ A = \matrix{1 & 2 & -5\\ 3 & 7 &-2\\ 6& k& -4} \]
Geef je antwoord in de vorm van een geheel getal of onvereenvoudigbare breuk.
#k = # #14#
We berekenen de determinant van #A#:
\[ \begin{array}{rcl}\det(A)&=& a_{11}\cdot a_{22}\cdot a_{33} -a_{11}\cdot a_{23}\cdot a_{32} \\
&&{}-a_{12}\cdot a_{21}\cdot a_{33}+a_{12}\cdot a_{23}\cdot a_{31} \\
&&{}+a_{13}\cdot a_{21}\cdot a_{32}-a_{13}\cdot a_{22}\cdot a_{31} \\
&=& 1\cdot 7\cdot (-4) -1\cdot (-2)\cdot k \\
&&{}-2\cdot 3\cdot (-4)+2\cdot (-2)\cdot 6 \\
&&{}-5\cdot 3\cdot k+5\cdot 7\cdot 6 \\
&=&182-13 k
\end{array} \] De determinant is dus dan en slechts dan gelijk aan nul als #k = 14#.