Volgens Lineariteit van som en scalaire veelvoud van lineaire afbeeldingen kunnen we lineaire afbeeldingen van een vectorruimte naar een andere optellen en met scalairen vermenigvuldigen. Deze operaties voldoen aan de regels voor een vectorruimte:
Laat #V# en #W# vectorruimten zijn. De verzameling #L(V,W)# van lineaire afbeeldingen van #V# naar #W# is een vectorruimte met de bekende optelling en scalaire vermenigvuldiging.
Als #V# eindige dimensie #n# heeft en #W# eindige dimensie #m#, dan is de vectorruimte #L(V,W)# isomorf met de vectorruimte #M_{m\times n}# van alle #(m\times n)#-matrices. Preciezer: als we een basis #\alpha# van #V# en een basis #\beta # van #W# kiezen, dan is de afbeelding #\varphi : L(V,W)\to M_{m\times n}# gegeven door #\varphi(L) =\left(\beta L\alpha^{-1}\right)_\varepsilon# een isomorfisme.
Dat #L(V,W)# een vectorruimte is, is eenvoudig is na te gaan, met voor de hand liggende nulvector en tegengestelde.
Laat #L#, #M#, #N# in #L(V,W)# en #\lambda#, #\mu# getallen zijn. We gaan de acht regels van een vectorruimte na:
- Commutativiteit: #L+M =M+L#. Dit volgt uit de commutativiteit van de optelling in #W#, want, voor #\vec{v}# in #V#, geldt \[\begin{array}{rcl}(L+M)(\vec{v})& =& L(\vec{v})+M(\vec{v}) \\&&\phantom{xx}\color{blue}{\text{definitie optelling in }L(V,W)}\\ &=& M(\vec{v})+L(\vec{v})\\&&\phantom{xx}\color{blue}{\text{commutativiteit optelling in }W}\\ &=& (M+L)(\vec{v})\\&&\phantom{xx}\color{blue}{\text{definitie optelling in }L(V,W)} \end{array}\]
- Associativiteit van de optelling: #(L+M)+N =L+(M+N)#. Dit volgt uit de associativiteit van de optelling in #W#: \[\begin{array}{rcl}((L+M)+N)(\vec{v})& =& (L+M)(\vec{v})+N(\vec{v}) \\&&\phantom{xx}\color{blue}{\text{definitie optelling in }L(V,W)}\\& =& \left(L(\vec{v})+M(\vec{v})\right)+N(\vec{v}) \\&&\phantom{xx}\color{blue}{\text{definitie optelling in }L(V,W)}\\ &=& L(\vec{v})+\left(M(\vec{v})+N(\vec{v}))\right)\\&&\phantom{xx}\color{blue}{\text{associativiteit optelling in }W}\\ &=& L(\vec{v})+(M+N)(\vec{v})\\&&\phantom{xx}\color{blue}{\text{definitie optelling in }L(V,W)} \\&=& (L+(M+N))(\vec{v})\\&&\phantom{xx}\color{blue}{\text{definitie optelling in }L(V,W)} \end{array}\]
- Nulvector: De functie #0# die aan elke vector in #V# de vector #\vec{0}# van #W# toevoegt voldoet aan de eigenschap #L+0=L#.
- Tegengestelde: de tegengestelde #-L# van #L# is de functie die aan #\vec{v}# in #V# de vector #-L(\vec{v})# in #W# toevoegt.
- Scalar één: het getal #1# voldoet aan #1\cdot L=L#, want als #\vec{v}# in #V#, dan geldt \[(1\cdot L)(\vec{v}) =1\cdot L(\vec{v}) = L(\vec{v})\]
- Associativiteit van de scalaire vermenigvuldiging: # (\lambda \cdot\mu )\cdot L=\lambda \cdot(\mu\cdot L)#. Dit volgt uit de associativiteit van de scalaire vermenigvuldiging in #W#.
- Distributiviteit van de scalaire vermenigvuldiging over de scalaire optelling: # (\lambda +\mu )\cdot L=\lambda\cdot L +\mu \cdot L#. Dit volgt uit de distributiviteit van de scalaire vermenigvuldiging over de scalaire optelling in #W#.
- Distributiviteit van de scalaire vermenigvuldiging over de vectoroptelling: #\lambda\cdot (L+M)=\lambda\cdot L +\lambda\cdot M#. Dit volgt uit de distributiviteit van de scalaire vermenigvuldiging over de scalaire optelling in #W#.
Voor het bewijs van de tweede uitspraak kiezen we een basis #\alpha# van #V# en een basis #\beta # van #W#. Laat #L# een element van #L(V,W)# zijn. Dan is #\beta L\alpha^{-1}# de lineaire afbeelding van #\mathbb{R}^n# naar #\mathbb{R}^m# bepaald door de matrix #\left(\beta L\alpha^{-1}\right)_\varepsilon# in #M_{m\times n}#.
We bewijzen dat de afbeelding #\varphi : L(V,W)\to M_{m\times n}# gegeven door #\varphi(L) =\left(\beta L\alpha^{-1}\right)_\varepsilon# een isomorfisme is.
Ten eerste is #\varphi# lineair, want, als #L# en #M# tot #L(V,W)# behoren en #\lambda#, #\mu# scalairen zijn dan geldt
\[\begin{array}{rcl}\varphi(\lambda\,L+\mu\, M) &=&\left(\beta (\lambda\,L+\mu\, M)\alpha^{-1}\right)_\varepsilon \\ &=& \left(\left(\lambda\,\beta (L)+\mu\, \beta(M)\right)\alpha^{-1}\right)_\varepsilon \\ &=& \left(\lambda\,\beta (L)\alpha^{-1}+\mu\, \beta(M)\alpha^{-1}\right)_\varepsilon \\ &=&\lambda\, \left(\beta (L)\alpha^{-1}\right)_\varepsilon+\mu\, \left(\beta(M)\alpha^{-1}\right)_\varepsilon \\ &=&\lambda\, \varphi(L)+\mu\, \varphi( M)\end{array}\]
Ten tweede is #\varphi# inverteerbaar, want de afbeelding #\psi: M_{m\times n}\to L(V,W)# gegeven door #\psi(A)=\beta^{-1} L_A \alpha# is de inverse van #\varphi#: \[\begin{array}{rcl}\varphi(\psi(A)) &=& \varphi(\beta^{-1} L_A \alpha) \\ &=& \left(\beta(\beta ^{-1}L_A \alpha) \alpha^{-1}\right)_\varepsilon \\ &=& \left(L_A \right)_\varepsilon \\ &=& A\end{array}\]
De afbeelding #\varphi# voegt aan de lineaire afbeelding #L:V\to W# de matrix van de lineaire afbeelding #L# ten opzichte van de basis #\alpha# van #V# en de basis #\beta# van #W# toe.
Omdat isomorfe vectorruimten gelijke dimensie hebben en #\dim{M_{m\times n} = m\cdot n#, geldt
\[\dim{L(V,W)} = m\cdot n\] als #\dim{V} = n# en #\dim{W} = m#.
Een bijzonder geval treedt op als #W=\mathbb{R}#. We spreken dan van lineaire functies of lineaire functionalen op #V#. We concentreren ons nu op de ruimte van lineaire functies.
Laat #V# een reële vectorruimte zijn. De vectorruimte #L(V,\mathbb{R})# van lineaire afbeeldingen #V\rightarrow \mathbb{R}# heet de duale ruimte van #V#. Deze vectorruimte noteren we ook als #V^\star#.
De "som van de eerste en tweede coördinaat'' is een lineaire functie #L:\mathbb{R}^3\to\mathbb{R}#, dat wil zeggen: een element van #(\mathbb{R}^3)^*#. In formulevorm: #L(\rv{x_1, x_2, x_3})= x_1 + x_2#. De functie #M:\mathbb{R}^3 \rightarrow \mathbb{R}# gegeven door #M(\rv{x_1, x_2, x_3}) = x_1^2# is niet lineair, en behoort dus niet tot #(\mathbb{R}^3)^*#.
- Laat #F# de vectorruimte van alle functies van #\mathbb{R}# naar zichzelf zijn. De afbeelding\[A : F \rightarrow \mathbb{R}, \quad A(f)= f(0)\]is lineair, want # A (\lambda \,f+\mu\, g)=(\lambda \,f+\mu\, g)(0) = \lambda\, f(0) + \mu\, g(0) = \lambda\, A( f) +\mu\, A (g)#. Dus #A# behoort tot #F^\star#.
- Laat #W# de ruimte van oneindig vaak differentieerbare functies op #\mathbb{R}# zijn. De afbeelding\[D_0 : W \rightarrow \mathbb{R}, \quad D_0(f) = f'(0)\]is eveneens lineair. Dus #D_0# is behoort tot #W^\star#.
Vanwege bovenstaande stelling De lineaire ruimte van lineaire afbeeldingen is de dimensie van de duale ruimte #V^\star# van #V# gelijk aan die van #V# als de dimensie van #V# eindig is. In dat geval is #V^\star# dus isomorf met #V#. Dat is niet het geval als #V# oneindigdimensionaal is. Om dit te illustreren, bekijken we de oneindigdimensionale vectorruimte #P# van alle veeltermen in #x#. Laat #\delta_i# de lineaire functie op #P# zijn die aan elke veelterm de coëfficiënt van #x^i# toevoegt, en bekijk de verzameling #Q# van alle oneindige sommen \[\sum_{i=0}^\infty d_i\delta_i \quad \text{ voor }d_i\in \mathbb{R}\]Hierbij laten we dus toe dat #d_i\ne0# voor oneindig veel #i#. Elk element #q = \sum_{i=0}^\infty d_i\delta_i# van #Q# kan gezien worden als een functie op #P#, want, voor elke veelterm #p(x) = \sum_{j= 0}^m a_ix^i# is
\[q\left(p(x)\right) = \sum_{j= 0}^m d_i\cdot a_i\]
een eindige som van getallen. Bovendien is #Q# een vectorruimte met de gewone optelling en scalaire vermenigvuldiging. We maken ons niet druk over convergentie; we rekenen als het ware met abstracte symbolen. De zojuist gedefinieerde functie #q(p(x))# is een lineaire functie op #P# en dus een element van #P^\star#. Omdat de afbeelding die aan #q# de functie #q(p(x))# toevoegt, injectief is, kunnen we #Q# dus opvatten als een lineaire deelruimte van #P^\star#. Maar de ruimte #Q# is veel groter dan de ruimte #P#, want ze bevat alle oneindige rijen reële getallen #(d_i)#, in tegenstelling tot #P#, die zo groot is als de verzameling van alle eindige rijen reële getallen.
In het geval van een vectorruimte #V# van eindige dimensie kunnen we een inproduct op gebruiken om een isomorfisme aan te leggen tussen de duale ruimte #V^\star# en #V#.
Als #V# een reële inproductruimte is en #\vec{a} \in V#, dan is de afbeelding # L_{\vec{a}} : V \rightarrow \mathbb{R}#, gedefinieerd door # L_{\vec{a}}( \vec{x}) = \dotprod{\vec{a} }{\vec{x}}# een lineaire functie.
De lineaire afbeelding die aan #\vec{a}# het element #L_{\vec{a}}# van #V^\star# toevoegt, is injectief. In het bijzonder is het een isomorfisme #V\to V^\star# als #V# eindigdimensionaal is.
Dit volgt uit de lineariteit in het tweede argument van het inproduct: #\dotprod{\vec{a} }{\left( \lambda\, \vec{x} + \mu\, \vec{y}\right)}= \lambda\, (\dotprod{\vec{a}}{ \vec{x}}) + \mu \,(\dotprod{\vec{a}}{ \vec{y}})#.
Om de injectiviteit te bewijzen veronderstellen we dat #\vec{a}# voldoet aan #L_{\vec{a}} =0#, de nulafbeelding #V\to \mathbb{R}#. Dan geldt #\dotprod{\vec{a} }{\vec{x}}=0# voor alle #\vec{x}#, dus ook voor #\vec{x}=\vec{a}#. Dat wil zeggen #\dotprod{\vec{a} }{\vec{a}}=0#. Uit de positiviteitsvoorwaarde van het inproduct volgt dan #\vec{a} = \vec{0}#. De kern van de lineaire afbeelding die aan #\vec{a}# de afbeelding #L_{\vec{a}}# toevoegt, bestaat dus enkel uit #\vec{0}#. Uit Criteria voor injectiviteit en surjectiviteit volgt dat de afbeelding injectief is.
Als #\dim{V}=n\lt\infty#, dan geldt #\dim{V^\star} = n# vanwege bovenstaande stelling, zodat uit het eerste Inverteerbaarheidscriterium voor een lineaire afbeelding volgt dat de afbeelding inverteerbaar, en dus een isomorfisme is.
De nulruimte van de afbeelding #L_{\vec{a}} # is precies het orthoplement #\{\vec{a}\}^{\perp}#.
De beeldruimte is #\mathbb{R}# als #\vec{a} \neq \vec{0}# en is #\{\vec{0}\}# als #\vec{a} =\vec{0}#.
Laat #V# de vectorruimte #\mathbb{R}^3# met standaard inproduct zijn. Laat verder #\varepsilon =\basis{\vec{e_1},\vec{e_2},\vec{e_3}}# de standaardbasis van #\mathbb{R}^3# zijn en #\beta = \basis{e_1^\star,e_2^\star,e_3^\star}# de basis van #V^\star#, waarbij #e_1^\star # gegeven is door #e_i^\star(\vec{x}) = \dotprod{\vec{e_i}}{\vec{x}}#.
Wat is de matrix van de afbeelding #L:V\to V^\star# ten opzichte van de bases #\alpha# van #V# en #\beta# van #V^\star# die aan #\vec{a}# in #V# de duale vector #L_{\vec{a}}# toevoegt, gegeven door #L_{\vec{a}}(\vec{v}) = \dotprod{\vec{a}}{\vec{v}}#?
Als #\vec{a} = \sum_{i=1}^3a_i\vec{e_i}# dan geldt
\[L_{\vec{a}}(\vec{v}) = \dotprod{\vec{a}}{\vec{v}}=\sum_{i=1}^3a_i\dotprod{\vec{e_i}}{\vec{v}}=
\sum_{i=1}^3a_i{e_i}^\star(\vec{v}) \]
dus \[L_{\vec{a}} = \sum_{i=1}^3a_i{e_i}^\star\]
Het beeld van de basisvector #\vec{e_j}# onder #L# is dus \({e_j}^\star\), zodat de gevraagde matrix gelijk is aan \[{}_{\beta}L_{\varepsilon} = I_3\]