Onder bepaalde voorwaarden kunnen we met matrices rekenen. We zullen hier de optelling en de scalaire vermenigvuldiging bespreken. Ook kijken we naar spiegeling om de hoofddiagonaal.
Als \(A\) en \(B\) matrices zijn met dezelfde afmetingen, dan is de sommatrix \(A+B\) de matrix die je krijgt door overeenkomstige elementen bij elkaar op te tellen. De bewerking heet, net als voor getallen, optellen.
Optellen van matrices voldoet aan de volgende twee eigenschappen, waarbij \(A=(a_{ij})\), \(B=(b_{ij})\) en \(C=(c_{ij})\) drie \((m\times n)\)-matrices zijn:
\[
\begin{array}{ll}
A+B=B+A &\phantom{xxx} \color{blue}{\text{commutativiteit}} \\
(A+B)+C=A+(B+C) &\phantom{xxx} \color{blue}{\text{associativiteit}}
\end{array}
\]
Uitgeschreven in coördinaten luidt deze definitie als volgt: Laat \(A\) en \(B\) beide \((m\times n)\)-matrices zijn met elementen \(a_{ij}\), respectievelijk \(b_{ij}\). Definieer voor \(1\leq i\leq m\) en \(1\leq j\leq n\) \[
c_{ij}=a_{ij}+b_{ij}
\] De \((m\times n)\)-matrix \(C\) met elementen \(c_{ij}\) is de som van de matrices \(A\) en \(B\).
Hieronder staan twee voorbeelden van optelling van matrices.
\[\begin{aligned}\matrix{3 & 4 & 3 \\ 5 & 5 & 5 \\ 3 & 3 & 5 \\ } + \matrix{1 & 2 & 4 \\ 0 & 5 & 1 \\ 4 & 2 & 4 \\ } &= \matrix{3+1 & 4+2 & 3+4 \\ 5+0 & 5+5 & 5+1 \\ 3+4 & 3+2 & 5+4 \\ } \\ \\ &= \matrix{4 & 6 & 7 \\ 5 & 10 & 6 \\ 7 & 5 & 9 \\ }\end{aligned}\] \[\matrix{3 & 4 & 3 \\ 5 & 5 & 5 \\ 3 & 3 & 5 \\ } + \matrix{1 & 2 \\ 0 & 5 \\ 4 & 2 \\ } \text{bestaat niet omdat de matrixafmetingen verschillen.}\]
Beide regels zijn een direct gevolg van dezelfde eigenschappen voor getallen:
- De eerste eigenschap, commutativiteit voor de optelling van matrices, volgt direct uit het feit dat de gewone optelling commutatief is: als #c_{ij}=a_{ij}+b_{ij}#, dan geldt ook #c_{ij}=b_{ij}+a_{ij}#, dus \[A+B = (a_{ij})+(b_{ij})=(c_{ij}) = (b_{ij}) + (a_{ij}) = B+A\]
- De tweede eigenschap, associativiteit voor de optelling van matrices, stellen we als volgt vast. Eerst constateren we dat \(A+B\) en \(B+C\), en dus ook #(A+B)+C# en #A+(B+C)# gelijke afmeting hebben, namelijk \(\rv{m, n}\). Vervolgens stellen we vast dat op plek \(ij\) de matrix \((A+B)+C\) het element \[((A+B)+C)_{ij}=(A+B)_{ij} +c_{ij}=(a_{ij}+b_{ij})+c_{ij}\] heeft staan en de matrix \(A+(B+C)\) het element \(a_{ij}+(b_{ij}+c_{ij})\); uiteraard zijn deze twee getallen gelijk.
De associativiteit stelt ons in staat om te spreken over \( A+B+C\) zonder te hoeven specificeren hoe we die matrix bepalen: als \((A+B)+C\) of als \(A+(B+C)\). Er komt toch hetzelfde uit.
Als \(A\) een matrix is en \(\lambda\) een getal, dan is \(\lambda\cdot A\) of kortweg #\lambda A#, de matrix die je krijgt door alle elementen van \(A\) met \(\lambda\) te vermenigvuldigen. We noemen deze bewerking de scalaire vermenigvuldiging van de scalar #\lambda# met de matrix #A# en het resultaat het scalaire product.
Als #\lambda = -1#, dan schrijven we vaak #-A# in plaats van #-1 A#. Deze matrix heet de tegengestelde matrix van #A#.
Voor scalaire vermenigvuldiging gelden onderstaande rekenregels, waarbij \(A\) en \(B\) matrices zijn van gelijke afmeting, en \(\lambda\) en \(\mu\) scalairen zijn:
\[
\begin{array}{rl}
1\,A\!\!\! & =A \\
(\lambda+\mu)\,A\!\!\! &= \lambda\, A+\mu\, A \\
\lambda\,(A+B)\!\!\! &= \lambda A+\lambda B \\
\lambda(\mu\, A)\!\!\! &= (\lambda\, \mu)\, A
\end{array}
\]
Hieronder staat een voorbeeld van een scalaire vermenigvuldiging van een matrix met een getal.
\[\begin{aligned} -5 \matrix{4 & 4 & 2 \\ 0 & 4 & 1 \\ 3 & 4 & 1 \\ } &= \matrix{\left(-5\right)\cdot 4 & \left(-5\right)\cdot 4 & \left(-5
\right)\cdot 2 \\ \left(-5\right)\cdot 0 & \left(-5\right)\cdot 4 &
\left(-5\right)\cdot 1 \\ \left(-5\right)\cdot 3 & \left(-5\right)
\cdot 4 & \left(-5\right)\cdot 1 \\ }\\ \\ &= \matrix{-20 & -20 & -10 \\ 0 & -20 & -5 \\ -15 & -20 & -5 \\ }\end{aligned}\]
De bewerkingen optellen en scalair vermenigvuldigen voor matrices hebben beide betrekking op elk element van de matrix, waar, voor elke index, de bekende vermenigvuldiging met een getal, respectievelijk de bekende optelling van getallen plaatsvindt. De regels zijn dus niet anders dan de corresponderende bekende rekenregels voor getallen.
Voor vectoren hebben we ook een scalaire vermenigvuldiging gedefinieerd. Als #A# een #(1\times n)#-matrix (een rijvector ter lengte #n#) is, of een #(m\times 1)#-matrix (een kolomvector ter lengte #m#), dan komt de scalaire vermenigvuldiging van #\lambda # met #A# overeen met de scalaire vermenigvuldiging voor vectoren.
De getransponeerde van een matrix \(A\), genoteerd als \(A^{\top}\), is de matrix die je krijgt als je \(A\) spiegelt in zijn hoofddiagonaal. Als \(A\) een (\(m\times n\))-matrix is, dan is \(A^{\top}\) dus een (\(n\times m\))-matrix.
Voor matrices \(A\) en \(B\) van gelijke afmeting en elke scalar \(\lambda\) geldt: \[
\begin{array}{rl}
(A+B)^{\top}\!\!\! & = A^{\top}+B^{\top} \\
(\lambda A)^{\top}\!\!\! & = \lambda A^{\top} \\
(A^{\top})^{\top}\!\!\! & =A
\end{array}
\]
Hieronder staan twee voorbeelden van getransponeerde matrices.
\[\matrix{1 & 0 & 2 \\ 2 & 5 & 3 \\ }^{\!\top} = \matrix{1 & 2 \\ 0 & 5 \\ 2 & 3 \\ }\qquad\text{en}\qquad \matrix{1 \\ 0 \\ }^{\!\top}=\matrix{1 & 0 \\ }\]
Andere veelgebruikte notaties voor een getransponeerde matrix zijn \(A^{t}\) en \(A'\).
Het #(i,j)#-element van #\lambda A# is #\lambda\cdot a_{ij}#, dus het #(i,j)#-element van #\left(\lambda A\right)^{\top}# is #\lambda\cdot a_{ji}#, maar dat is ook het #(i,j)#-element van #\lambda A^{\top}#, dus #\left(\lambda A\right)^{\top}=\lambda A^{\top}#.
Het bewijs van de andere regels gaat net zo.
Een symmetrische matrix is een vierkante matrix die gelijk is aan zijn getransponeerde. Een antisymmetrische matrix is een vierkante matrix die tegengesteld is aan zijn getransponeerde.
Anders geformuleerd: een matrix \(A\) is
\[\begin{array}{rrcl}\text{symmetrisch als }&A^{\top}&=&A\\ \text{antisymmetrisch als }&A^{\top}&=&-A\end{array}\]
Hieronder staan twee voorbeelden: een symmetrische matrix en een antisymmetrische matrix.
\(\matrix{8 & 8 & 5 \\ 8 & 4 & 4 \\ 5 & 4 & 6 \\ }\) is een symmetrische matrix omdat \[\matrix{8 & 8 & 5 \\ 8 & 4 & 4 \\ 5 & 4 & 6 \\ }^{\!\top} = \matrix{8 & 8 & 5 \\ 8 & 4 & 4 \\ 5 & 4 & 6 \\ }\]
\(\matrix{0 & 0 & 5 \\ 0 & 0 & 4 \\ -5 & -4 & 0 \\ }\) is een antisymmetrische matrix omdat \[\matrix{0 & 0 & 5 \\ 0 & 0 & 4 \\ -5 & -4 & 0 \\ }^{\!\top} =\matrix{0 & 0 & -5 \\ 0 & 0 & -4 \\ 5 & 4 & 0 \\ }=-\matrix{0 & 0 & 5 \\ 0 & 0 & 4 \\ -5 & -4 & 0 \\ }\]
Het is niet nodig te eisen dat de matrix vierkant is: dit volgt al uit de eis dat de matrix gelijk is aan zijn getransponeerde. De getransponeerde van een #(m\times n)#-matrix is immers een #(n\times m)#-matrix, zodat de matrix alleen dan gelijk aan de getransponeerde of de tegengestelde van de getransponeerde kan zijn als #\rv{m,n} = \rv{n,m}#.