We zagen voorbeelden van orthogonale afbeeldingen in de vorm van draaiingen, spiegelingen en combinaties daarvan. We zullen zien dat de #2#-dimensionale orthogonale afbeeldingen ingedeeld kunnen worden in spiegelingen en draaiingen.
Voor elke eindigdimensionale inproductruimte #V# en een orthogonale afbeelding #L:V\to V# geldt \[\det(L)=\pm 1\]
We schrijven #n# voor de dimensie van #V# en kiezen een orthonormale basis #\alpha# voor de vectorruimte #V#. Laat nu \[A=L_{\alpha}\]Vanwege Orthogonaliteitscriteria voor matrices is de matrix #A# orthogonaal, zodat #A^{\top}A=I_n#. Voor de determinant van #A# hebben we nu de volgende gelijkheden: \[ \begin{array}{rcl}\det(A)^2 &=&\det(A^\top)\cdot \det(A)\\ &&\phantom{xxx}\color{blue}{\det(A)=\det(A^\top)}\\ &=& \det(A^\top\,A)\\&&\phantom{xxx}\color{blue}{\det(X\, Y)=\det(X)\cdot\det(Y)}\\&=& \det(I_n)\\&&\phantom{xxx}\color{blue}{A^\top\, A = I_n}\\&=&1\end{array}\]Hieruit concluderen we dat #\det(L)=\det(A)=\pm 1#.
Laat #V# en #L# zijn als in de stelling en schrijf #n=\dim{V}#. We weten dat de determinant #\det(L)# gelijk is aan het product van de complexe eigenwaarden #\lambda_1,\ldots,\lambda_n# van #L#. Omdat de lengte invariant is onder de afbeelding #L#, ligt iedere eigenwaarde op de eenheidscirkel. Als #\lambda# een niet-reële eigenwaarde is, wordt deze vergezeld door de eigenwaarde #\overline{\lambda}#, terwijl het product van deze twee eigenwaarden gelijk is aan #1#. Als #\det(L) = -1#, dan moet dus minstens één eigenwaarde gelijk zijn aan #-1#.
We zullen aan de hand van deze stelling de orthogonale afbeeldingen op eindigdimensionale vectorruimten indelen in twee groepen.
Laat #V# een eindigdimensionale vectorruimte zijn en #L# een orthogonale afbeelding #L:V\to V#. We definiëren de volgende tweedeling in de orthogonale afbeeldingen:
- Als #\det(L)=1# noemen we #L# een direct orthogonale afbeelding.
- Als #\det(L)=-1# noemen we #L# een gespiegeld orthogonale afbeelding.
Eerder hebben we gezien dat een elke orthogonale afbeelding #L:V\rightarrow V# met #\dim {V}=1# ofwel de identieke afbeelding is ofwel vermenigvuldiging met #-1#. In het eerste geval is #L# een direct orthogonale afbeelding; in het tweede geval een gespiegeld orthogonale afbeelding.
Laat #V# en #L# zijn als in de stelling en veronderstel #\dim{V}=2#. Als #L# gespiegeld orthogonaal is, dan heeft #L# een eigenwaarde #-1# (zie hierboven), en dus ook een eigenwaarde #1#. In dat geval staan de eigenruimten bij de verschillende eigenwaarden vanwege eigenschap 5 van orthogonale afbeeldingen loodrecht op elkaar, dus #L# is een loodrechte spiegeling om de eigenruimte bij eigenwaarde #1#. Als #L# direct orthogonaal is en ongelijk aan #I_2# en ongelijk aan #-I_2#, dan heeft #L# twee verschillende, complex geconjugeerde, eigenwaarden #\lambda# en #\overline\lambda#. We zullen hieronder zien dat #L# dan een draaiing is om de hoek \[\varphi=\arccos\left(\frac{\lambda+\overline{\lambda}}2\right)\]
De volgende stelling laat concreet zien dat deze twee groepen corresponderen met spiegelingen en draaiingen in het tweedimensionale geval.
Laat #V# een inproductruimte van dimensie #2# zijn en #L:V\to V# een orthogonale afbeelding.
- Als #L# direct orthogonaal is, dan bestaat er een orthonormale basis #\alpha# voor #V# zodat \[L_\alpha=\matrix{\cos(\varphi )& -\sin(\varphi)\\ \sin(\varphi )& \cos(\varphi)}\]waarbij de hoek #\varphi# behoort tot #\ivcc{0}{\pi}#. In dat geval noemen we #L# een draaiing over de georiënteerde hoek #\varphi#.
- Als #L# gespiegeld orthogonaal is, dan bestaat er een orthonormale basis #\beta# voor #V# zodat \[L_{\beta}=\matrix{1&0\\0&-1}\]Dan is #L# een spiegeling.
Kies een orthonormale basis #\alpha=\basis{\vec{a}_1,\vec{a}_2}# van #V#. We merken op dat we een vector in #\mathbb{R}^2# met lengte #1# kunnen schrijven als #\rv{\cos(\varphi),\sin(\varphi)}#, want \[\norm{\rv{\cos(\varphi),\sin(\varphi)}}=\sqrt{\cos(\varphi)^2+\sin(\varphi)^2}=1\] We kunnen de matrix #L# ten opzichte van #\basis{\vec{a}_1,\vec{a}_2}# dus schrijven als \[
L_\alpha=\left(\,\begin{array}{ll}
\cos(\varphi )& \cos(\psi)\\
\sin(\varphi) & \sin(\psi)
\end{array}\,\right)
\]waarbij #\varphi# en #\psi# in het interval #\ivcc{-\pi}{\pi}# liggen. Er moet immers gelden dat de kolommen van #L_\alpha# beide lengte #1# hebben. De andere eis is dat het inproduct van de kolommen nul moet zijn. Dit geeft \[
\cos(\varphi)\cdot \cos(\psi)+\sin(\varphi)\cdot\sin(\psi) =\cos (\psi-\varphi )=0
\] Hieruit volgt \(\psi -\varphi =\pm \frac{\pi}{2}+k\cdot 2\pi\) voor een \( k\in\mathbb{Z}\), zodat
\[
\psi=\varphi\pm\frac{\pi}{2}+k\cdot 2\pi
\] We bekijken eerst het geval waarin #\psi=\varphi+\frac{\pi}{2}+k\cdot 2\pi#. Dan is
\[
L_\alpha=\matrix{
\cos(\varphi) & \cos(\varphi+\frac{\pi}{2})\\
\sin(\varphi) & \sin(\varphi+\frac{\pi}{2})} =\ \matrix{
\cos(\varphi )& -\sin(\varphi)\\
\sin(\varphi )& \cos(\varphi)
}
\]De determinant is #1#; de draaiing is direct orthogonaal. We willen enkel nog laten zien dat we #\varphi# altijd kunnen kiezen zodat deze in #\ivcc{0}{\pi}# zit.
Stel #\varphi\in\ivco{-\pi}{0}#, dan geldt #-\varphi\in\ivoc{0}{\pi}# en geeft verwisseling van de twee vectoren in de orthonormale basis weer een orthonormale basis ten opzichte waarvan de matrix van #L# gelijk is aan \[\begin{array}{rcl}\matrix{0&1\\ 1&0}\,\matrix{ \cos(\varphi )& -\sin(\varphi)\\ \sin(\varphi )& \cos(\varphi)}\, \matrix{0&1\\ 1&0}^{-1}&=&\matrix{ \cos(\varphi )& \sin(\varphi)\\ -\sin(\varphi )& \cos(\varphi)}\\&=&\matrix{ \cos(-\varphi )& -\sin(-\varphi)\\ \sin(-\varphi )& \cos(-\varphi)}\end{array}\] Dit laat zien dat we altijd #\varphi\in\ivcc{0}{\pi}# kunnen kiezen.
Nu bekijken we het geval met #\psi =\varphi-\frac{\pi}{2}+k\cdot 2\pi#. Dit leidt tot
\[
L_\alpha= \matrix{
\cos(\varphi) & \sin(\varphi)\\
\sin(\varphi) & -\cos(\varphi)
}
\]Deze matrix heeft determinant #-1#. In de tab Eigenwaarden hierboven zagen we dat #L# daarom minstens één eigenwaarde #-1# heeft. Omdat de determinant van #L# gelijk is aan het product van twee eigenwaarden, betekent dit dat de andere eigenwaarde gelijk aan #1# is. Er is dus een basis #\beta =\basis{\vec{b}_1,\vec{b}_2}# van eigenvectoren bij eigenwaarden #1# en #-1#. De matrix van #L# ten opzichte van deze basis is\[
L_\beta=\left(\,\begin{array}{rr}
1 & 0\\
0 & -1
\end{array}\,\right)
\]De eigenvectoren #\vec{b}_1# en #\vec{b}_2# staan loodrecht op elkaar, want \[
\dotprod{\vec{b}_1}{\vec{b}_2}=\dotprod{L(\vec{b}_1)}{L(\vec{b}_2)}=\dotprod{\vec{b}_1}{(-\vec{b}_2)}=-\,(\dotprod{\vec{b}_1}{\vec{b}_2})
\] Hieruit volgt #\dotprod{\vec{b}_1}{\vec{b}_2}=0#.
We lichten nu verder toe hoe deze matrices corresponderen met draaiingen en spiegelingen.
Draaiing \(L_\alpha=\matrix{\cos(\varphi )& -\sin(\varphi)\\ \sin(\varphi )& \cos(\varphi)}\): We bekijken het beeld van de vector #\vec{x}=\lambda\, \vec{a}_1 +\mu\, \vec{a}_2#, waar #\alpha=\basis{\vec{a}_1,\vec{a}_2}# een orthonormale basis is van #V#. Er geldt nu \[\begin{array}{rcl}\dotprod{\vec{x}}{L(\vec{x})}&=&\dotprod{\vec{x}}{L\left(\lambda\,\vec{a}_1+\mu\,\vec{a}_2\right)}\\&&\phantom{xx}\color{blue}{\vec{x}\text{ gesubstitueerd in het argument van }L}\\&=&\dotprod{\vec{x}}{\left(\lambda\,L(\vec{a}_1)+\mu\,L(\vec{a}_2)\right)}\\&&\phantom{xx}\color{blue}{\text{lineariteit van }L}\\&=&\dotprod{\vec{x}}{\left(\lambda\left(\cos(\varphi)\vec{a}_1+\sin(\varphi)\vec{a}_2\right)+\mu\left(-\sin(\varphi)\vec{a}_1+\cos(\varphi)\vec{a}_2\right)\right)}\\&&\phantom{xx}\color{blue}{\text{eerste kolom van }L_\alpha\text{ is het beeld van }\vec{a}_1\text{ t.o.v. }\alpha}\\&&\phantom{xx}\color{blue}{\text{tweede kolom van }L_\alpha\text{ is het beeld van }\vec{a}_2\text{ t.o.v. }\alpha}\\&=&\dotprod{\left(\lambda\vec{a}_1 +\mu \vec{a}_2\right)}{\left((\lambda \cos (\varphi) -\mu \sin(\varphi))\vec{a}_1 + (\lambda \sin(\varphi) +\mu \cos(\varphi))\vec{a}_2\right)}\\&&\phantom{xx}\color{blue}{\text{links }\vec{x}\text{ gesubstitueerd en rechts termen geordend}}\\&=&\lambda\cdot (\lambda \cos (\varphi) -\mu \sin(\varphi))+\mu \cdot (\lambda \sin(\varphi) +\mu \cos(\varphi))\\&&\phantom{xx}\color{blue}{\text{bilineariteit van het inproduct en orthornomaliteit van } \alpha}\\&=&(\lambda^2+\mu^2)\cdot \cos (\varphi) \\&&\phantom{xx}\color{blue}{\text{uitdrukking vereenvoudigd}}\\&=&\norm{\vec{x}}^2\cdot \cos(\varphi)\\&&\phantom{xx}\color{blue}{\text{definitie norm}}\end{array}\] Voor de cosinus van de hoek tussen de twee vectoren #\vec{x}# en #L(\vec{x})# geldt dus \[\dfrac{\dotprod{\vec{x}}{L(\vec{x})}}{\norm{\vec{x}}\cdot \norm{L(\vec{x})}}=\dfrac{\norm{\vec{x}}^2\cdot \cos(\varphi)}{\norm{\vec{x}}\cdot\norm{L(\vec{x})}}=\cos(\varphi)\] We hebben hier gebruik gemaakt van het feit dat #\norm{\vec{x}}=\norm{L(\vec{x})}#. We zien dat #L# vectoren inderdaad draait over de hoek #\varphi#.
Spiegeling \(L_{\beta}=\matrix{1&0\\0&-1}\): Dit is de spiegeling in de lijn die wordt opgespannen door #\vec{b}_1#, waarbij #\beta=\basis{\vec{b}_1,\vec{b}_2}# een orthonormale basis is: een vector #\vec{x}=x_1\vec{b}_1+x_2\vec{b}_2# met componenten #x_1\vec{b}_1# langs de rechte opgespannen door #\vec{b}_1# en #x_2\vec{b}_2# daar loodrecht op wordt afgebeeld op #x_1\vec{b}_1-x_2 \vec{b}_2#.
Bekijk de matrix \[ A = \matrix{
\cos(\varphi) & -\sin(\varphi)\\
\sin(\varphi) & \cos(\varphi)
}\]van een draaiing om de oorsprong in het vlak over een georiënteerde hoek #\varphi\in\ivoo{\pi}{2\pi}#. We kunnen #A# conjugeren met één van de twee volgende matrices \[\matrix{0&1\\ 1&0},\phantom {xxx} \matrix{1&0\\ 0 & -1}\] naar de matrix \[\matrix{
\cos(-\varphi) & -\sin(-\varphi)\\
\sin(-\varphi) & \cos(-\varphi)
}\] van een draaiing over de georiënteerde hoek #2\pi-\varphi\in\ivoo{0}{\pi}#.
De eerste conjugator komt overeen met het verwisselen van de twee basisvectoren, de tweede met de vervanging van de tweede basisvector door zijn negatieve.
Van de matrix lezen we af dat de karakteristieke veelterm van een #2#-dimensionale orthogonale afbeelding gelijk is aan #x^2-1# in het geval van een spiegeling en #x^2-2\cos(\varphi)\cdot x +1# in het geval van een draaiing.
Deze veeltermen zijn als volgt te ontbinden in lineaire factoren:\[\begin{array}{rcl} x^2-2\cos(\varphi)\cdot x +1&=&(x-\ee^{\varphi\ii})\cdot(x-\ee^{-\varphi\ii})\\x^2-1&=&(x-1)\cdot(x+1)\\ \end{array}\] De twee factoren vallen alleen samen als we in het eerste geval #\sin(\varphi) = 0# hebben. Dan is de matrix #L_\alpha=I_2# diagonaal. Als #\sin(\varphi)\ne0#, dan verschillen de twee factoren onderling, dus is #L# complex diagonaliseerbaar. Dankzij de stelling Herkenning van diagonaliseerbaarheid aan de hand van de minimumveelterm blijkt dus dat #L# altijd complex diagonaliseerbaar is.
In het tweede geval is de matrix al diagonaal. In het eerste geval levert conjugatie van #L_{\alpha}# met de matrix \[T=\matrix{1&\ii \\ 1&-\ii}\] de diagonaalmatrix met diagonaalelementen #\ee^{\varphi\ii},\ee^{-\varphi\ii}#:\[\begin{array}{rcl}TL_\alpha T^{-1}&=&\dfrac{1}{2}\matrix{1&\ii \\ 1&-\ii}\matrix{\cos(\varphi )& -\sin(\varphi)\\ \sin(\varphi)& \cos(\varphi)}\matrix{1&1\\-\ii&\ii}\\&=&\dfrac{1}{2}\matrix{1&\ii\\1&-\ii}\matrix{\cos(\varphi)+\ii\sin(\varphi)&\cos(\varphi)-\ii\sin(\varphi)\\\sin(\varphi)-\ii\cos(\varphi)&\sin(\varphi)+\ii\cos(\varphi)}\\&=&\matrix{\cos(\varphi)+\ii\sin(\varphi)&0\\0&\cos(\varphi)-\ii\sin(\varphi)}\\&=&\matrix{\ee^{\varphi\ii}&0\\0&\ee^{-\varphi\ii}}\end{array}\]
Als #L# direct orthogonaal is, dan is #L#, zoals we gezien hebben, een draaiing. Uit bovenstaande uitdrukking voor #L_\alpha# volgt direct dat het spoor van deze matrix gelijk is aan #\text{tr}(L_\alpha)=2\cos(\varphi)#. Het spoor is invariant onder basistransformaties, dus mogen we schrijven #\text{tr}(L)=2\cos(\varphi)#. Dit resultaat is in overeenstemming met het feit dat er een basis #\gamma# bestaat ten opzichte waarvan de matrix van #L# een diagonaalmatrix is met diagonaalelementen #\lambda=\ee^{\varphi\ii}# en #\overline{\lambda}=\ee^{-\varphi\ii}#, zoals we zagen in de vorige tab Diagonaliseerbaarheid: \[\text{tr}(L)=\text{tr}(L_\gamma)=\lambda+\overline{\lambda}=\ee^{\varphi\ii}+\ee^{-\varphi\ii}=\cos(\varphi)+\ii\sin(\varphi)+\cos(\varphi)-\ii\sin(\varphi)=2\cos(\varphi)\]Omgekeerd kunnen we de draaiingshoek #\varphi# uitdrukken in het spoor van de afbeelding #L#:\[\varphi=\arccos\left(\frac{\text{tr}(L)}{2}\right)\]
We zullen de draaiingsmatrix noteren als \[D_{\varphi}=\matrix{
\cos(\varphi) & -\sin(\varphi)\\
\sin(\varphi) & \cos(\varphi)
}\] Deze notatie zullen we later gebruiken in de bespreking van de orthogonale Jordannormaalvorm.
Bekijk de matrix:\[A = \dfrac{1}{41}\, \matrix{9 & -40 \\ 40 & 9 \\ }\] Deze matrix is orthogonaal en zijn determinant is #1#, dus #A# is een draaiing.
Bepaal de hoek #\varphi# van die draaiing in graden. Rond je antwoord af tot een geheel getal.
#\varphi \approx# #77##{}^\circ#
De vector #\rv{1,0}# wordt door #A# afgebeeld op # \left[ {{9}\over{41}} , {{40}\over{41}} \right] #. Omdat deze vectoren lengte #1# hebben, wordt de hoek #\varphi# tussen deze twee vectoren gegeven door
\[\cos(\varphi) = \dotprod{\rv{1,0}}{\left[ {{9}\over{41}} , {{40}\over{41}} \right] }={{9}\over{41}}\]Bijgevolg is \[\varphi = \arccos\left({{9}\over{41}}\right)\approx 1.349 = \left(\frac{1.349\cdot 180}{\pi}\right) ^\circ\approx \left({{243}\over{\pi}} \right)^\circ\approx 77^\circ\]