Eerder hebben we gezien dat, als een orthogonale afbeelding een deelruimte invariant laat, deze ook een complementaire deelruimte invariant laat. Dit geldt ook voor unitaire afbeeldingen.
Laat #W# een lineaire deelruimte van een complexe eindigdimensionale inproductruimte #V# zijn en #L:V\rightarrow V# een unitaire afbeelding die #W# invariant laat. Dan is ook #W^\perp# invariant onder #L#.
Het bewijs hiervoor gaat vrijwel analoog aan het reële geval.
Ook hebben we eerder gezien dat orthogonale afbeeldingen complex diagonaliseerbaar zijn. Dit geldt ook voor unitaire afbeeldingen.
Laat #L:V\to V# een unitaire afbeelding zijn op een complexe eindigdimensionale inproductruimte #V#. Dan is er een orthonormale basis #\alpha# voor #V# zodanig dat \(L_\alpha \) een diagonaalmatrix is met uitsluitend complexe getallen van absolute waarde #1# op de diagonaal.
Stel dat #\lambda# een complexe eigenwaarde van #L# is. We laten zien dat de gegeneraliseerde eigenruimte bij #\lambda# samenvalt met de eigenruimte #\ker{L-\lambda\,I_V}#. Hiervoor is het is voldoende te laten zien dat #\ker{(L-\lambda\,I_V)^2}# gelijk is aan #\ker{L-\lambda\,I_V}#. Laat #\vec{w}# een vector in #\ker{(L-\lambda\,I_V)^2}# zijn en schrijf #\vec{v} = (L-\lambda\, I_V)(\vec{w})#. Dan behoort #\vec{v}# tot #\ker{L-\lambda\,I_V}#, zodat #\vec{v}# een eigenvector is van #L# bij eigenwaarde #\lambda#.
We gaan na wat het betekent dat #L# het inproduct van #\vec{v}# en #\vec{w}# behoudt:
\[\begin{array}{rcl}\dotprod{\vec{v}}{\vec{w}}& =& \dotprod{L(\vec{v})}{L(\vec{w})} \\&&\phantom{xxx}\color{blue}{L\text{ is unitair}}\\&=& \dotprod{(\lambda\cdot\vec{v})}{(\lambda\,\vec{w}+\vec{v})} \\&&\phantom{xxx}\color{blue}{\vec{v}\text{ ligt in }\ker{L-\lambda\,I_V}\text{ en }\vec{v} = L(\vec{w})-\lambda\, \vec{w}}\\&=& {\lambda\cdot\overline\lambda}\cdot\dotprod{\vec{v}}{\vec{w}}+\lambda\cdot\dotprod{\vec{v}}{\vec{v}} \\&&\phantom{xxx}\color{blue}{\text{hermiticiteit van het inproduct }}\\&=& \dotprod{\vec{v}}{\vec{w}}+\lambda\cdot\dotprod{\vec{v}}{\vec{v}} \\&&\phantom{xxx}\color{blue}{|\lambda| = 1}\end{array}\]
Door aan beide kanten #\dotprod{\vec{v}}{\vec{w}}# af te trekken, zien we dat #\lambda\cdot\dotprod{\vec{v}}{\vec{v}}=0#. Omdat #|\lambda| = 1#, is #\lambda\ne0#, zodat # \dotprod{\vec{v}}{\vec{v}}=0#. Vanwege de positief-definietheid van het inproduct volgt hieruit #\vec{v} = \vec{0}#. We concluderen dat #\vec{w}# tot #\ker{L-\lambda\,I_V}# behoort. Hiermee is bewezen dat #\ker{(L-\lambda\,I_V)^2}=\ker{L-\lambda\,I_V}#. Met inductie naar de exponent #j# leiden we hieruit onmiddellijk af dat #\ker{(L-\lambda\,I_V)^j}=\ker{L-\lambda\,I_V}# voor alle natuurlijke getallen #j#, zodat de gegeneraliseerde eigenruimte van #L# bij #\lambda# gelijk is aan de eigenruimte.
Volgens de stelling over de directesomdecompositie en de stelling over gegeneraliseerde eigenruimten is #V# de directe som van de gegeneraliseerde eigenruimten van #L#. Vanwege bovenstaande is #V# dus de directe som van de eigenruimten van #L#. De eigenruimten staan loodrecht op elkaar: Als #\lambda# en #\mu# eigenwaarden zijn met eigenvectoren #\vec{v}# en #\vec{w}#, dan geldt \[\dotprod{\vec{v}}{\vec{w}} = \dotprod{L(\vec{v})}{L(\vec{w})} = \dotprod{(\lambda\cdot \vec{v})}{(\mu\cdot \vec{w})}=\lambda\cdot\overline{\mu}\cdot \dotprod{\vec{v}}{\vec{w}}\]Na vermenigvuldiging met #\mu# (die absolute waarde #1# heeft omdat het de eigenwaarde van een unitaire afbeelding is) leidt dit tot \[(\lambda-\mu)\cdot (\dotprod{\vec{v}}{\vec{w}} )= 0\]Als #\lambda\ne \mu#, dan moet dus gelden #\dotprod{\vec{v}}{\vec{w}} = 0#, dat wil zeggen: #\vec{v}# staat loodrecht op #\vec{w}#.
Als we dus orthonormale bases kiezen voor elk van die eigenruimten, dan is #\alpha#, de samenstelling van al deze orthonormale bases, een orthonormale basis van #V# en is de matrix #L_\alpha# diagonaal.
Volgens de stelling staan eigenvectoren van #L# bij verschillende eigenwaarden loodrecht op elkaar. Dit maakt het makkelijk om een orthonormale basis van eigenvectoren te vinden.
Terwijl de orthogonale Jordannormaalvorm nog #(2\times2)#-blokken van draaiingen kan hebben, zegt de stelling ons dat de unitaire Jordan(normaal)vorm van een unitaire afbeelding altijd diagonaal is. Op de diagonaal staan de eigenwaarden, die alle absolute waarde #1# hebben.
Het omgekeerde is ook waar: Stel dat #L:V\to V# een lineaire afbeelding is op een complexe eindigdimensionale inproductruimte #V#. Als er een orthonormale basis #\alpha# voor #V# is zodanig dat \(L_\alpha \) een diagonaalmatrix is met uitsluitend complexe getallen van absolute waarde #1# op de diagonaal, dan is #L# unitair.
De absolute waarde van de determinant van een unitaire matrix is gelijk aan #1#. Immers, de determinant van een matrix hangt niet af van de gekozen basis voor de vectorruimte #V# van de afbeelding #L:V\to V# bepaald door die matrix. Dankzij bovenstaande stelling mogen we de basis #\alpha# zodanig kiezen dat de matrix #L_\alpha# van een unitaire afbeelding #L# ten opzichte van #\alpha# diagonaal is met uitsluitend getallen van absolute waarde #1# op de diagonaal. De matrix #L_\alpha# is geconjugeerd met de oorspronkelijke matrix en heeft dus dezelfde determinant. De determinant van een diagonaalmatrix is gelijk aan het product van de diagonaalelementen, zodat de absolute waarde van de determinant van #L_\alpha# ook gelijk aan #1# is.
De stellingen over classificaties van orthogonale afbeeldingen hebben hun analoge unitaire versies.
Laat #V# een complexe inproductruimte van eindige dimensie zijn en stel dat #L# en #M# unitaire afbeeldingen #V\to V# zijn. Dan zijn de volgende uitspraken over #L# en #M# equivalent:
- Er is een unitaire afbeelding #X:V\to V#, zo dat #M = X\, L\, X^{-1}#.
- Er is een inverteerbare lineaire afbeelding #Y: V\to V#, zo dat #M = Y\, L\, Y^{-1}#.
- De karakteristieke veeltermen van #L# en #M# zijn gelijk.
- De eigenwaarden met multipliciteiten van #L# zijn gelijk aan die van #M#.
We bewijzen de implicaties volgens het schema #1\Rightarrow 2\Rightarrow 3\Rightarrow 4\Rightarrow 1#. Dit volstaat voor het bewijs van alle equivalenties.
#1\Rightarrow 2# is triviaal.
#2\Rightarrow 3# geldt omdat van De karakteristieke veelterm van een lineaire afbeelding bekend is dat de veelterm niet van de keuze van een basis afhangt.
#3\Rightarrow 4# Uitspraken 3 en 4 zijn equivalent omdat de karakteristieke veelterm het product van de lineaire factoren #x-\lambda# is waarbij #\lambda# de eigenwaarden doorloopt (met de juiste multipliciteiten).
#4\Rightarrow 1# Stel dat uitspraak 4 geldt. Uit de stelling Unitaire afbeeldingen zijn diagonaliseerbaar hierboven volgt dat er orthonormale bases #\alpha# en #\beta# zijn zodat #L_\alpha# en #M_\beta# diagonaalmatrices zijn. Op deze diagonaalmatrices voor #L# en #M# staan dezelfde elementen, namelijk de eigenwaarden. We mogen dus aannemen dat #L_\alpha = M_\beta#, zodat #\alpha \,L\,\alpha^{-1}=\beta \,M\,\beta^{-1}#. Schrijf nu #X =\beta^{-1} \alpha#. Omdat #\alpha# en #\beta# orthonormale bases zijn, zijn de bijbehorende lineaire afbeeldingen unitair. Vanwege Eigenschappen van isometrieën is dan ook #X# unitair. Ten slotte geldt
\[X\, L\, X^{-1} = \beta^{-1} \alpha \, L\, (\beta^{-1} \alpha)^{-1}= \beta^{-1} \alpha \, L\, \alpha^{-1} \beta = \beta^{-1}\beta \,M\,\beta^{-1} \beta = M\]Hiermee is uitspraak 1 afgeleid uit uitspraak 4.
Als we twee vierkante matrices #A# en #B# unitair geconjugeerd noemen als er een unitaire matrix #T# is met #A = T\, B \, T^{-1}#, dan hebben we hiermee een equivalentierelatie gedefinieerd. Het bewijs van transitiviteit loopt als in het bewijs van de implicatie #4\Rightarrow 1# in de stelling.
De matrix \[A = \matrix{{{\complexi-1}\over{2}} & {{\complexi+1}\over{2}} \\ {{\complexi+1}\over{2}} & {{\complexi-1}\over{2}} \\ }\] is unitair. Geef een unitaire matrix #T# zodanig dat \( T^{-1} \, A \, T\) diagonaal is.
# T = # # \matrix{-{{1}\over{\sqrt{2}}} & -{{1}\over{\sqrt{2}}} \\ -{{1}\over{\sqrt{2}}} & {{1}\over{\sqrt{2}}} \\ }#
De karakteristieke veelterm van #A# is \[ p_A(x) = \det(A-x\, I_2) = \left(x+1\right)\cdot \left(x-\complexi\right)\]De eigenwaarden van #A# zijn dus #\complexi# en #-1#. Omdat #A# unitair is, is #A# diagonaliseerbaar, zodat #A# geconjugeerd is met \[ D =\matrix{\complexi&0\\ 0& -1}\]Om de gevraagde unitaire matrix #T# te vinden, bepalen we eerst een basis van #\mathbb{C}^2# bestaande uit eigenvectoren van #A#.
De eigenruimte van #A# bij #\complexi# wordt gevonden door de kern van #A- \complexi\cdot I_2# te bepalen. Een opspannende vector is #\rv{ -1 , -1 } #. Net zo wordt de eigenruimte van #A# bij #-1# gevonden door de kern van #A+1\cdot I_2# te bepalen. Een opspannende vector is #\rv{ -1 , 1 } #.
De twee gevonden opspannende vectoren van de eigenruimten staan loodrecht op elkaar. Om een orthonormale basis #\alpha# van #\mathbb{C}^2# te krijgen delen we deze twee vectoren nog door hun lengte:
\[\begin{array}{rclcl}\vec{a}_1 &=& \dfrac{1}{\sqrt{2}}\cdot \rv{ -1 , -1 } &=&\displaystyle \rv{ -{{1}\over{\sqrt{2}}} , -{{1}\over{\sqrt{2}}} } \\ \vec{a}_2 &=& \dfrac{1}{\sqrt{2}} \cdot \rv{ -1 , 1 } &=& \displaystyle \rv{ -{{1}\over{\sqrt{2}}} , {{1}\over{\sqrt{2}}} }
\end{array}\]De basis #\alpha=\basis{\vec{a}_1, \vec{a}_2}# wordt dus gegeven door de volgende matrix #T# waarvan de kolommen de twee vectoren #\vec{a}_1# en # \vec{a}_2# zijn:\[T = \matrix{-{{1}\over{\sqrt{2}}} & -{{1}\over{\sqrt{2}}} \\ -{{1}\over{\sqrt{2}}} & {{1}\over{\sqrt{2}}} \\ } \]Het antwoord is niet uniek: de kolommen van #T# kunnen worden verwisseld omdat de volgorde van de diagonaalelementen in #D# niet uitmaakt; daarnaast mogen de kolommen van #T# afzonderlijk van elkaar worden vermenigvuldigd met #-1# omdat de tekens van de basisvectoren in #\alpha# niet uitmaken.
Het antwoord is te verifiëren door conjugatie met de inverse van het antwoord uit te voeren en te bezien of dit de diagonaalmatrix #D# oplevert. We doen dit voor het antwoord \( T = \matrix{-{{1}\over{\sqrt{2}}} & -{{1}\over{\sqrt{2}}} \\ -{{1}\over{\sqrt{2}}} & {{1}\over{\sqrt{2}}} \\ }\):
\[\begin{array}{rcl}T^{-1}\, A\, T &=& {\matrix{-{{1}\over{\sqrt{2}}} & -{{1}\over{\sqrt{2}}} \\ -{{1}\over{\sqrt{2}}} & {{1}\over{\sqrt{2}}} \\ }}^{-1}\, \matrix{{{\complexi-1}\over{2}} & {{\complexi+1}\over{2}} \\ {{\complexi+1}\over{2}} & {{\complexi-1}\over{2}} \\ } \, \matrix{-{{1}\over{\sqrt{2}}} & -{{1}\over{\sqrt{2}}} \\ -{{1}\over{\sqrt{2}}} & {{1}\over{\sqrt{2}}} \\ }\\
&&\phantom{xxx}\color{blue}{\text{matrices ingevuld}}\\
&=& \matrix{-{{1}\over{\sqrt{2}}} & -{{1}\over{\sqrt{2}}} \\ -{{1}\over{\sqrt{2}}} & {{1}\over{\sqrt{2}}} \\ }\, \matrix{-{{\complexi}\over{\sqrt{2}}} & {{1}\over{\sqrt{2}}} \\ -{{\complexi}\over{\sqrt{2}}} & -{{1}\over{\sqrt{2}}} \\ } \\ &&\phantom{xxx}\color{blue}{\text{inverse bepaald en }A\, T\text{ berekend}}\\
&=& \matrix{\complexi & 0 \\ 0 & -1 \\ }
\end{array}\]