Het volgende voorbeeld van een lineaire afbeelding tussen coördinaatruimten is essentieel voor het vervolg van dit hoofdstuk.
Laat #m# en #n# natuurlijke getallen zijn en #A# een reële #(m\times n)#-matrix. We schrijven elementen uit #\mathbb{R}^n# en #\mathbb{R}^m# als kolommen.
Definieer de afbeelding #L_A: \mathbb{R}^n \rightarrow \mathbb{R}^m# door
\[
L_A(\vec{x}) = A\vec{x}
\] Deze afbeelding is lineair.
We noemen #L_A# de lineaire afbeelding bepaald door #A#. Vaak zullen we ook over #A# als lineaire afbeelding spreken, in welk geval we #L_A# bedoelen.
Als #m=n=1# en #A=\matrix{a}#, dan is #L_A# de afbeelding # \mathbb{R} \rightarrow \mathbb{R}# gegeven door
\[
L_A(x) = a\cdot x
\] Linksvermenigvuldiging met een getal #a# is dus een lineaire afbeelding #\mathbb{R} \rightarrow \mathbb{R}#.
Als
\[
A=\matrix{ 1 & -1 & 2 \\ 1 & -1 & 2 }
\]
dan is
- het beeld van de vector #\cv{3\\ 1\\ 1}# onder #L_A# gelijk aan #\matrix{ 1 & -1 & 2 \\ 1 & -1 & 2 }\cv{3\\ 1\\ 1}= \cv{4\\ 4}#;
- het beeld van #5 \cdot \cv{3\\ 1\\ 1}# onder #L_A# gelijk aan #5\cdot \cv{4\\ 4}=\cv{20\\ 20}# dankzij de lineariteit van #L_A#.
We zullen later zien dat elke lineaire afbeelding tussen twee coördinaatruimten geschreven kan worden als de lineaire afbeelding van een matrix.
Als #\vec{x}# en #\vec{y}# twee elementen uit #\mathbb{R}^n# zijn, dan volgt uit de regels voor matrixvermenigvuldiging dat voor alle scalairen #\alpha# en #\beta# geldt:
\[\begin{array}{rcl}L_A(\alpha \vec{x} + \beta \vec{y}) &=& A(\alpha \vec{x} + \beta \vec{y}) \\ &&\phantom{xxx}\color{blue}{\text{definitie }L_A}\\ &=&\alpha A\vec{x} + \beta A\vec{y}\\ &&\phantom{xxx}\color{blue}{\text{lineariteit van matrixvermenigvuldiging}}\\ &=& \alpha L_A(\vec{x}) + \beta L_A (\vec{y}) \\ &&\phantom{xxx}\color{blue}{\text{definitie }L_A}\end{array}\]
Daarmee is de lineariteit van #L_A# vastgesteld.
Met behulp van het standaardinproduct, dat we hieronder definiëren voor alle vectorruimten #\mathbb{R}^n#, kunnen we matrices met één rij goed interpreteren.
Het standaardinproduct op #\mathbb{R}^n# is gedefinieerd als de afbeelding die aan twee vectoren #\vec{x}=\rv{x_1,\ldots,x_n}# en #\vec{y}=\rv{y_1,\ldots,y_n}# het getal
\[\dotprod{\vec{x}}{\vec{y}} = x_1\cdot y_1+\cdots +x_n\cdot y_n\]
toevoegt. De vectoren \(\vec{x}\) en \(\vec{y}\) heten loodrecht als \(\dotprod{\vec{x}}{\vec{y}} =0\). De lengte van de vector #\vec{x}# is het getal #\sqrt{\dotprod{\vec{x}}{\vec{x}}}#.
Kies nu #\vec{a}\in\mathbb{R}^n# vast.
- De afbeelding die aan #\vec{x}# in #\mathbb{R}^n# het getal \( \dotprod{\vec{x}}{\vec{a}}\) toevoegt, is een lineaire afbeelding #\mathbb{R}^n\to\mathbb{R}#.
- Als #\vec{a}# ongelijk is aan #\vec{0}#, dan is er een unieke lineaire afbeelding #P_\ell# die elk punt van de lijn #\ell = \linspan{\vec{a}}# door de oorsprong op zichzelf afbeeldt en elke vector loodrecht op #\vec{a}# op de oorsprong. De afbeelding #P_\ell# heet de loodrechte projectie op #\ell# en heeft als afbeeldingsvoorschrift
\[
P_\ell(\vec{x}) =\frac{\dotprod{\vec{x}}{\vec{a}}}{\dotprod{\vec{a}}{\vec{a}}}\cdot\vec{a}
\]
Als #n=2# of #n=3# dan is \(\dotprod{\vec{x}}{\vec{y}}\) het bekende standaardinproduct van #\vec{x}# en #\vec{y}#.
De afbeelding die aan #\vec{x}# in #\mathbb{R}^n# het getal \(\dotprod{\vec{x}}{\vec{a}}\) toevoegt, is de lineaire afbeelding #L_A# bepaald door de #(1\times n)#-matrix #A = \matrix{a_1&a_2&\cdots &a_n}#.
Om het afbeeldingsvoorschrift van #P_\ell# af te leiden, veronderstellen we #\vec{x}\in\mathbb{R}^n#. Stel dat we #\vec{x}# kunnen schrijven als de som van een scalair veelvoud #\lambda \cdot\vec{a}# van #\vec{a}# en een vector #\vec{u}# loodrecht op #\vec{a}#: \[\vec{x} = \lambda\cdot\vec{a}+\vec{u}\]
Lineariteit van het standaardinproduct met #\vec{a}# geeft dan \[\dotprod{\vec{a}}{\vec{x}}=\lambda\cdot(\dotprod{\vec{a}}{\vec{a}})+\dotprod{\vec{a}}{\vec{u}}=\lambda\cdot(\dotprod{\vec{a}}{\vec{a}})\] zodat we dankzij de aanname #\vec{a}\neq\vec{0}# mogen schrijven
\[\lambda = \frac{\dotprod{\vec{a}}{\vec{x}}}{\dotprod{\vec{a}}{\vec{a}}}\]
Als we deze waarde voor #\lambda# kiezen en #\vec{u} = \vec{x}-\lambda\cdot\vec{a}#, dan hebben we inderdaad een schrijfwijze van #\vec{x}# als een som van het scalaire veelvoud #\lambda\cdot\vec{a}# van #\vec{a}# en een vector #\vec{u}# loodrecht op #\vec{a}#. Dit betekent dat we het afbeeldingsvoorschrift van #P_\ell# kunnen bepalen:
\[\begin{array}{rcl} P_\ell(\vec{x}) &=& P_\ell(\lambda\cdot\vec{a}+\vec{u})\\&&\phantom{xxx}\color{blue}{\text{gevonden decompositie van }\vec{x}}\\ &=& \lambda\cdot P_\ell(\vec{a})+P_\ell(\vec{u})\\ &&\phantom{xxx}\color{blue}{\text{lineariteit van }P_\ell}\\ &=& \lambda\cdot \vec{a}\\&&\phantom{xxx}\color{blue}{\vec{a}\in\ell\text{ en }\vec{u} \text{ staat loodrecht op }\vec{a}}\\&=&\dfrac{\dotprod{\vec{a}}{\vec{x}}}{\dotprod{\vec{a}}{\vec{a}}}\cdot \vec{a}\\&&\phantom{xxx}\color{blue}{\text{gevonden uitdrukking voor }\lambda}\\\end{array}\]
De definitie van #P_{\ell}# hangt niet af van de keuze van #\vec{a}# op de lijn #\ell# zolang deze maar ongelijk is aan de oorsprong: als we #\vec{a}# vervangen door een andere vector #\mu\vec{a}# in #\ell#, waarbij #\mu# een scalar ongelijk aan #0# is, dan geldt
\[\frac{\dotprod{\vec{x}}{(\mu\vec{a})} }{\dotprod{(\mu\vec{a})}{(\mu\vec{a})}}\cdot\mu\vec{a}=\frac{\mu^2\dotprod{\vec{x}}{\vec{a}}}{\mu^2\dotprod{\vec{a}}{\vec{a}}}\cdot\vec{a}=P_\ell(\vec{x})\]
In het bijzonder kunnen we #\dotprod{\vec{a}}{\vec{a}}# (wat positief is als #\vec{a}# niet de oorsprong is) gelijk aan #1# kiezen, in welk geval #P_\ell(\vec{x}) = \left(\dotprod{\vec{x}}{\vec{a}}\right)\vec{a}#.
Een soortgelijke uitdrukking bestaat voor de loodrechte projectie #P_U# op een willekeurige lineaire deelruimte #U# van #\mathbb{R}^n#, de lineaire afbeelding die elke vector in #U# op zichzelf afbeeldt en elke vector in #U^\perp# op de nulvector. Als #\basis{\vec{a}_1, \ldots , \vec{a}_k}# een orthonormale basis van de deelruimte #U# is (dat wil zeggen: #\dotprod{\vec{a}_i}{ \vec{a}_j}# is gelijk aan #0# als #i\ne j# en gelijk aan #1# als #i=j#), dan geldt voor de loodrechte projectie #P_U#:
\[
P_U(\vec{x}) = (\dotprod{\vec{x}}{\vec{a}_1})\vec{a}_1 +\cdots +
(\dotprod{\vec{x}}{\vec{a}_k})\vec{a}_k
\]
De lineaire afbeelding #L:\mathbb{R}^2\to\mathbb{R}^2# gedefinieerd door
\[ L\left(\rv{x,y}\right) = \rv{-2 x,2 y-7 x}\] is bepaald door een matrix #A#.
Welke matrix?
#A =# #\matrix{-2 & 0 \\ -7 & 2 \\ }#
Het gegeven dat #L# bepaald is door een matrix #A# betekent dat #L = L_A#. De matrix #A=\matrix{a&b\\ c & d}# moet dus voldoen aan \[\matrix{a&b\\ c & d}\cv{x\\ y} =\matrix{-2 x \\ 2 y-7 x}\]Vergelijking per element geeft
\[\eqs{a\cdot x+ b\cdot y &=& -2 x\\ c\cdot x+ d\cdot y &=& 2 y-7 x}\]
Hieruit volgt #a = -2#, #b = 0#, #c = -7# en #d=2#, zodat
\[ A = \matrix{-2 & 0 \\ -7 & 2 \\ }\]