de
Seitenbanner
Menu
Nachlesen

Multiplikation von Matrizen

Die Matrizenmultiplikation (auch Matrixmultiplikation) ist eine Verknüpfung zweier Matrizen. Das Ergebnis der Matrizenmultiplikation ist eine neue Matrix, deren Elemente aus den Skalarprodukten der Zeilenvektoren der ersten Matrix und der Spaltenvektoren der zweiten Matrix bestehen.

Definition

Gegeben seien drei natürliche Zahlen \(m,n,p \in \N\) sowie ein Ring oder Körper \(\mathcal{R}\), aus dem sämtliche Elemente stammen – beispielsweise ganze, rationale, reelle oder komplexe Zahlen.

Bei der Multiplikation einer \(m \times n\) Matrix \(A \in \mathcal{R}^{m \times n}\) mit einer \(n \times p\) Matrix \(B \in \mathcal{R}^{n \times p}\) handelt es sich um eine zweistellige Verknüpfung \(\mathcal{R}^{m \times n} \times \mathcal{R}^{n \times p} \rightarrow \mathcal{R}^{m \times p}\), bei der die \(m \times p\) Ergebnismatrix berechnet wird, indem die Zeilen der Matrix \(A\) mit den Spalten der Matrix \(B\) multipliziert werden: Der Eintrag in der $i$-ten Zeile und der $j$-ten Spalte der Ergebnismatrix ergibt sich dabei durch das Produkt der $i$-ten Zeile der Matrix $A$ und der $j$-ten Zeile der Matrix $B$ – die Elemente werden analog zum Skalarprodukt zweier Vektoren komponentenweise multipliziert und anschließend aufsummiert.

  • Für Matrizen $A, B \in \mathcal{R}^{2 \times 2}$ gilt exemplarisch:
    \begin{align*} A \cdot B &= \begin{bmatrix} a_{11} & a_{12} \\[0.25em] a_{21} & a_{22} \end{bmatrix} \cdot \begin{bmatrix} b_{11} & b_{12} \\[0.25em] b_{21} & b_{22}\end{bmatrix} \\[1em] &= \begin{bmatrix} a_{11} \cdot b_{11} + a_{12} \cdot b_{21} & a_{11} \cdot b_{12} + a_{12} \cdot b_{22} \\[0.25em] a_{21} \cdot b_{11} + a_{22} \cdot b_{21} & a_{21} \cdot b_{12} + a_{22} \cdot b_{22} \end{bmatrix}. \end{align*}
  • Für Matrizen \(A \in \mathcal{R}^{m \times n}\) und \(B \in \mathcal{R}^{n \times p}\) gilt allgemein:
    \begin{align*} A \cdot B &= \begin{bmatrix} a_{11} & \ldots & a_{1n} \\[0.25em] \vdots & \ddots & \vdots \\[0.25em] a_{m1} & \ldots & a_{mn} \end{bmatrix} \cdot \begin{bmatrix} b_{11} & \ldots & b_{1p} \\[0.25em] \vdots & \ddots & \vdots \\[0.25em] b_{n1} & \ldots & b_{np} \end{bmatrix} \\[1em] &= \begin{bmatrix} a_{11}b_{11} + \ldots + a_{1n}b_{n1} & \ldots & a_{11}b_{1p} + \ldots + a_{1n}b_{np} \\[0.25em] \vdots & \ddots & \vdots \\[0.25em] a_{m1}b_{11} + \ldots + a_{mn}b_{n1} & \ldots & a_{m1}b_{1p} + \ldots + a_{mn}b_{np} \end{bmatrix} \\[1em] &= \begin{bmatrix} \sum\limits_{k=1}^{n}{a_{1k} \cdot b_{k1}} & \ldots & \sum\limits_{k=1}^{n}{a_{1k} \cdot b_{kp}} \\[0.25em] \vdots & \ddots & \vdots \\[0.25em] \sum\limits_{k=1}^{n}{a_{mk} \cdot b_{k1}} & \ldots & \sum\limits_{k=1}^{n}{a_{mk} \cdot b_{kp}} \end{bmatrix}. \end{align*}

    Oder kompakt:

    \begin{align*} A \cdot B &= {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \cdot {\Bigl[ b_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq p}} \\[1em] &= {\left[ \sum\limits_{k=1}^{n}{a_{ik} \cdot b_{kj}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq p}} \end{align*}

Wichtig: Damit zwei Matrizen multipliziert werden können, müssen die Anzahl der Spalten der ersten Matrix und die Anzahl der Zeilen der zweiten Matrix übereinstimmen.

Falksches Schema

Das Falksche Schema (1951 von Sigurd Falk vorgeschlagen) ist eine einfache Methode, die Matrizenmultiplikation übersichtlicher darzustellen. Hierzu werden die Matrizen sowie deren Produkt in eine spezielle tabellarische Form gebracht, die das Bestimmen der zu multiplizierenden Zeilen bzw. Spalten erleichtert.

Im Folgenden ist das Falksche Schema exemplarisch für das Produkt $C = A \cdot B$ der beiden $3 \times 3$ Matrizen $A$ und $B$ dargestellt. Am Beispiel der Elemente \({\color{blue} c_{12}}\), \({\color{green} c_{23}}\) und \({\color{red} c_{31}}\), die aus den entsprechend eingefärbten Zeilen bzw. Spalten der Matrizen $A$ und $B$ entstehen, wird demonstriert, dass beim Falkschen Schema besonders gut zu erkennen ist, welche Zeile der linken Matrix $A$ mit welcher Spalte der rechten Matrix $B$ multipliziert werden muss.

\[ \begin{array}{r|l} & \begin{bmatrix} {\color{red} b_{11}} & {\color{blue} b_{12}} & {\color{green} b_{13}} \\[0.25em] {\color{red} b_{21}} & {\color{blue} b_{22}} & {\color{green} b_{23}} \\[0.25em] {\color{red} b_{31}} & {\color{blue} b_{32}} & {\color{green} b_{33}} \end{bmatrix} (=B) \\ & \\ \hline & \\ (A=) \begin{bmatrix} {\color{blue} a_{11}} & {\color{blue} a_{12}} & {\color{blue} a_{13}} \\[0.25em] {\color{green} a_{21}} & {\color{green} a_{22}} & {\color{green} a_{23}} \\[0.25em] {\color{red} a_{31}} & {\color{red} a_{32}} & {\color{red} a_{33}} \end{bmatrix} & \begin{bmatrix} c_{11} & {\color{blue} c_{12}} & c_{13} \\[0.25em] c_{21} & c_{22} & {\color{green} c_{23}} \\[0.25em] {\color{red} c_{31}} & c_{32} & c_{33} \end{bmatrix} (=C) \end{array} \]

Die Werte $c_{ij}$ ergeben sich wie zuvor durch:

\[ c_{ij} =\sum\limits_{k=1}^{3}{a_{ik} \cdot b_{kj}} = a_{i1}b_{1j} + a_{i2}b_{2j} + a_{i3}b_{3j}. \]

Beispiele

Das erste Beispiel zeigt exemplarisch die Multiplikation von zwei quadratischen $2 \times 2$ Matrizen:

\[ \begin{bmatrix} 9 & 4 \\ 0 & 2 \end{bmatrix} \cdot \begin{bmatrix} 6 & 9 \\ 1 & 9 \end{bmatrix} = \begin{bmatrix} 58 & 117 \\ 2 & 18 \end{bmatrix} \]

Das zweite Beispiel zeigt exemplarisch die Multiplikation von nichtquadratischen Matrizen – in diesem Fall die Multiplikation einer $3 \times 4$ mit einer $4 \times 3$ Matrix.

\[ \begin{bmatrix} 4 & 4 & 2 & 3 \\ 4 & 5 & 2 & 1 \\ 3 & 0 & 0 & 3 \end{bmatrix} \cdot \begin{bmatrix} 5 & 3 & 5 \\ 1 & 1 & 2 \\ 3 & 0 & 4 \\ 1 & 1 & 2 \end{bmatrix} = \begin{bmatrix} 33 & 19 & 42 \\ 32 & 18 & 40 \\ 18 & 12 & 21 \end{bmatrix} \]

Eigenschaften

Assoziativität

Die Multiplikation von Matrizen \(A \in \mathcal{R}^{m \times n}\), \(B \in \mathcal{R}^{n \times p}\) und \(C \in \mathcal{R}^{p \times q}\) ist assoziativ; es gilt:

\[ \bigl(A \cdot B \bigr) \cdot C = A \cdot \bigl(B \cdot C\bigr). \]

Die Assoziativität der Multiplikation von Matrizen kann wie folgt durch Nachrechnen gezeigt werden:

\begin{align*} \bigl( A \cdot B \bigr) \cdot C &\overset{(1)}{=} \left( {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \cdot {\Bigl[ b_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq p}} \right) \cdot {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq p \\[0.25em] 1 \leq j \leq q}} \\[0.75em] &\overset{(2)}{=} {\left[ \sum\limits_{k=1}^{n}{a_{ik} \cdot b_{kj}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq p}} \cdot {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq p \\[0.25em] 1 \leq j \leq q}} \\[0.75em] &\overset{(3)}{=} {\left[ \sum\limits_{\ell=1}^{p}{\left( \sum\limits_{k=1}^{n}{a_{ik} \cdot b_{k\ell}} \right) \cdot c_{\ell j}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq q}} \\[0.75em] &\overset{(4)}{=} {\left[ \sum\limits_{\ell=1}^{p}{\sum\limits_{k=1}^{n}{a_{ik} \cdot b_{k\ell} \cdot c_{\ell j}}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq q}} \\[0.75em] &\overset{(5)}{=} {\left[ \sum\limits_{k=1}^{n}{\sum\limits_{\ell=1}^{p}{a_{ik} \cdot b_{k\ell} \cdot c_{\ell j}}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq q}} \\[0.75em] &\overset{(6)}{=} {\left[ \sum\limits_{k=1}^{n}{a_{ik} \cdot \left( \sum\limits_{\ell=1}^{p}{b_{k\ell} \cdot c_{\ell j}} \right)} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq q}} \\[0.75em] &\overset{(7)}{=} {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \cdot {\left[ \sum\limits_{\ell=1}^{p}{b_{i\ell} \cdot c_{\ell j}} \right]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq q}} \\[0.75em] &\overset{(8)}{=} {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \cdot \left( {\Bigl[ b_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq p}} \cdot {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq p \\[0.25em] 1 \leq j \leq q}} \right) \\[0.75em] &\overset{(9)}{=} A \cdot \bigl( B \cdot C \bigr). \end{align*}
Erklärungen zu den Schritten
(1)
  • Ersetzen von \(A\), \(B\) und \(C\) durch die konkreten Matrizen
(2)
  • Ausrechnen von \(A \cdot B\) gemäß Definition der Multiplikation von Matrizen
(3)
  • Multiplikation mit \(C\) gemäß Definition der Multiplikation von Matrizen
(4)
  • Hineinziehen des Faktors \(c_{\ell j}\) in die innere Summe
  • Die Umformung gilt aufgrund der (Rechts-)Distributivität im Ring \(\mathcal{R}\) und der Tatsache, dass \(c_{\ell j}\) für die innere Summe ein konstanter Faktor ist
(5)
(6)
  • Herausziehen des Faktors \(a_{ik}\) aus der inneren Summe
  • Die Umformung gilt aufgrund der (Links-)Distributivität im Ring \(\mathcal{R}\) und der Tatsache, dass \(a_{ik}\) in der inneren Summe ein konstanter Faktor ist
(7)
  • Aufteilen der Matrix \(A \cdot (B \cdot C)\) auf zwei separate Matrizen mithilfe der Definition der Multiplikation von Matrizen
(8)
  • Aufteilen der Matrix \(B \cdot C\) auf zwei separate Matrizen mithilfe der Definition der Multiplikation von Matrizen
(9)
  • Ersetzen der konkreten Matrizen durch \(A\), \(B\) und \(C\)

Hinweis: Wie üblich kann bei assoziativen Verknüpfungen auch eine klammerfreie Notation verwendet werden.

Kommutativität

Die Multiplikation von Matrizen \(A \in \mathcal{R}^{m \times n}\) und \(B \in \mathcal{R}^{n \times p}\) ist nicht kommutativ; im Allgemeinen gilt:

\[ A \cdot B \neq B \cdot A. \]

Die Nichtkommutativität der Multiplikation von Matrizen kann leicht mithilfe eines Gegenbeispiels gezeigt werden:

  • Für \(m \neq p\) ist das Produkt \(B \cdot A\) nicht definiert.
  • Für \(m=p\) und $m \neq n$ stimmen die Matrizenprodukte in ihrer Dimension nicht überein: Es ist $A \cdot B \in \mathcal{R}^{m \times m}$, während $B \cdot A \in \mathcal{R}^{n \times n}$ gilt.
  • Auch für den Fall quadratischer Matrizen, also $m = n = p$, können die Matrizenprodukte verschieden sein, wie das folgende Beispiel zeigt:
    \begin{align*} \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} \cdot \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} &= \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} \\[1.5em] \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} \cdot \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} &= \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}. \end{align*}

Distributivität

Die Matrizenmultiplikation ist distributiv über der Matrizenaddition und -subtraktion. Da die Multiplikation von Matrizen nicht kommutativ ist, gelten zwei separate Distributivgesetze:

  • Für \(A,B \in \mathcal{R}^{m \times n}\) und $C \in \mathcal{R}^{\ell \times m}$ gilt:
    \[ C \cdot \bigl( A + B \bigr) = C \cdot A + C \cdot B. \]
  • Für \(A,B \in \mathcal{R}^{m \times n}\) und $C \in \mathcal{R}^{n \times p}$ gilt:
    \[ \bigl( A + B \bigr) \cdot C = A \cdot C + B \cdot C. \]

Die Linksdistributivität der Matrizenmultiplikation über der Addition und Subtraktion von Matrizen kann wie folgt durch Nachrechnen gezeigt werden:

\begin{align*} C \cdot \bigl( A + B \bigr) &\overset{(1)}{=} {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq \ell \\[0.25em] 1 \leq j \leq m}} \cdot \left( {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \pm {\Bigl[ b_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \right) \\[0.75em] &\overset{(2)}{=} {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq \ell \\[0.25em] 1 \leq j \leq m}} \cdot {\Bigl[ a_{ij} \pm b_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(3)}{=} {\left[ \sum\limits_{k=1}^{n}{c_{ik} \cdot \bigl(a_{kj} \pm b_{kj} \bigr)} \right]}_{\substack{1 \leq i \leq \ell \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(4)}{=} {\left[ \sum\limits_{k=1}^{n}{\bigl(c_{ik} \cdot a_{kj} \pm c_{ik} \cdot b_{kj} \bigr)} \right]}_{\substack{1 \leq i \leq \ell \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(5)}{=} {\left[ \sum\limits_{k=1}^{n}{c_{ik} \cdot a_{kj}} \right]}_{\substack{1 \leq i \leq \ell \\[0.25em] 1 \leq j \leq n}} \pm {\left[ \sum\limits_{k=1}^{n}{c_{ik} \cdot b_{kj}} \right]}_{\substack{1 \leq i \leq \ell \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(6)}{=} {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq \ell \\[0.25em] 1 \leq j \leq m}} \cdot {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \pm {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq \ell \\[0.25em] 1 \leq j \leq m}} \cdot {\Bigl[ b_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(7)}{=} C \cdot A \pm C \cdot B. \end{align*}
Erklärungen zu den Schritten
(1)
  • Ersetzen von \(A\), \(B\) und \(C\) durch die konkreten Matrizen
(2)
  • Ausrechnen von \(A+B\) gemäß Definition der Addition bzw. Subtraktion von Matrizen
(3)
  • Multiplikation mit der Matrix \(C\) gemäß Definition der Multiplikation von Matrizen
(4)
  • Die Gleichheit \(c_{ik} \cdot (a_{kj} \pm b_{kj}) = c_{ik}a_{kj} \pm c_{ik}b_{kj}\) (für \(1 \leq i \leq \ell\) und \(1 \leq j \leq n\)) gilt aufgrund der Distributivität im Ring \(\mathcal{R}\), aus dem sämtliche Elemente stammen
(5)
(6)
  • Aufteilen der Matrizen \(C \cdot A\) und \(C \cdot B\) auf zwei separate Matrizen mithilfe der Definition der Multiplikation von Matrizen
(7)
  • Ersetzen der konkreten Matrizen durch \(A\), \(B\) und \(C\)

Der Nachweis der Rechtsdistributivität erfolgt (mit weitgehend identischen Erklärungen) analog:

\begin{align*} \bigl( A + B \bigr) \cdot C &\overset{(1)}{=} \left( {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \pm {\Bigl[ b_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \right) \cdot {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq p}} \\[0.75em] &\overset{(2)}{=} {\Bigl[ a_{ij} \pm b_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \cdot {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq p}} \\[0.75em] &\overset{(3)}{=} {\left[ \sum\limits_{k=1}^{n}{\bigl(a_{ik} \pm b_{ik} \bigr) \cdot c_{kj}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq p}} \\[0.75em] &\overset{(4)}{=} {\left[ \sum\limits_{k=1}^{n}{\bigl(a_{ik} \cdot c_{kj} \pm b_{ik} \cdot c_{kj} \bigr)} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq p}} \\[0.75em] &\overset{(5)}{=} {\left[ \sum\limits_{k=1}^{n}{a_{ik} \cdot c_{kj}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq p}} \pm {\left[ \sum\limits_{k=1}^{n}{b_{ik} \cdot c_{kj}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq p}} \\[0.75em] &\overset{(6)}{=} {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \cdot {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq p}} \pm {\Bigl[ b_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \cdot {\Bigl[ c_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq p}} \\[0.75em] &\overset{(7)}{=} A \cdot C \pm B \cdot C. \end{align*}

Neutrales Element

Die Einheitsmatrix \(E_n\) ist das neutrale Element der Multiplikation von quadratischen \(n \times n\) Matrizen, falls deren Elemente aus einem Ring mit Eins stammen; es gilt:

\[ E_n \cdot A = A = A \cdot E_n. \]

Die Einheitsmatrix \(E_n\) ist linksneutral bezüglich der Multiplikation quadratischer \(n \times n\) Matrizen, denn es gilt:

\begin{align*} E_n \cdot A &\overset{(1)}{=} {\Bigl[ \delta_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq n}} \cdot {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(2)}{=} {\left[ \sum\limits_{k=1}^{n}{\delta_{ik} \cdot a_{kj}} \right]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(3)}{=} {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(4)}{=} A. \end{align*}

Analog kann gezeigt werden, dass die Einheitsmatrix \(E_n\) ebenfalls rechtsneutral ist – und somit das neutrale Element der Multiplikation quadratischer Matrizen.

\begin{align*} A \cdot E_n &\overset{(1)}{=} {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq n}} \cdot {\Bigl[ \delta_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(2)}{=} {\left[ \sum\limits_{k=1}^{n}{a_{ik} \cdot \delta_{kj}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(3)}{=} {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq n}} \\[0.75em] &\overset{(4)}{=} A. \end{align*}
Erklärungen zu den Schritten
(1)
  • Ersetzen von \(E_n\) und \(A\) durch die konkreten Matrizen
(2)
  • Ausrechnen von \(E_n \cdot A\) bzw. \(A \cdot E_n\) gemäß Definition der Multiplikation von Matrizen
(3)
  • Ausrechnen der Summe \(\sum\limits_{k=1}^{n}{\delta_{ik} \cdot a_{kj}}\) – bei \(\delta\) handelt es sich um das Kronecker-Delta
    \begin{align*} \sum\limits_{k=1}^{n}{\delta_{ik} \cdot a_{kj}} &= \delta_{i0}a_{0j} + \ldots + \delta_{ii}a_{ij} + \ldots + \delta_{in}a_{nj} \\[0.5em] &= 0 \cdot a_{0j} + \ldots + 1 \cdot a_{ij} + \ldots + 0 \cdot a_{nj} \\[0.5em] &= a_{ij} \end{align*}
  • Ausrechnen von \(\sum\limits_{k=1}^{n}{a_{ik} \cdot \delta_{kj}}\) funktioniert analog
(4)
  • Ersetzen der konkreten Matrix durch \(A\)

Hinweis: Für nichtquadratische \(m \times n\) Matrizen existiert kein neutrales Element der Matrizenmultiplikation. Die Einheitsmatrizen \(E_m\) bzw. \(E_n\) verhalten sich in diesem Fall links- bzw. rechtsneutral bezüglich der Multiplikation – sind aber selbst nicht in der Menge der \(m \times n\) Matrizen enthalten.

Inverses Element

Das inverse Element einer quadratischen Matrix \(A \in \mathcal{R}^{n \times n}\) bezüglich der Matrizenmultiplikation ist die inverse Matrix \(A^{-1}\), falls diese existiert; es gilt:

\[ A^{-1} \cdot A = E_n = A \cdot A^{-1}. \]

Hinweis: Nicht jede quadratische Matrix ist invertierbar.

Matrizenmultiplikation und transponierte Matrizen

Für die transponierte Matrix des Produkts von Matrizen \(A \in \mathcal{R}^{m \times n}\) und \(B \in \mathcal{R}^{n \times p}\) über einem kommutativen Ring \(\mathcal{R}\) gilt:

\[ {\bigl( A \cdot B \bigr)}^T = B^T \cdot A^T. \]

Die Eigenschaft kann durch Nachrechnen direkt gezeigt werden:

\begin{align*} {\bigl( A \cdot B \bigr)}^T &\overset{(1)}{=} {\left( {\Bigl[ a_{ij} \Bigr]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq n}} \cdot {\Bigl[ b_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq p}} \right)}^T \\[0.75em] &\overset{(2)}{=} {\left[ \sum\limits_{k=1}^{n}{a_{ik} \cdot b_{kj}} \right]}_{\substack{1 \leq i \leq m \\[0.25em] 1 \leq j \leq p}}^T \\[0.75em] &\overset{(3)}{=} {\left[ \sum\limits_{k=1}^{n}{a_{jk} \cdot b_{ki}} \right]}_{\substack{1 \leq i \leq p \\[0.25em] 1 \leq j \leq m}} \\[0.75em] &\overset{(4)}{=} {\left[ \sum\limits_{k=1}^{n}{\beta_{ik} \cdot \alpha_{kj}} \right]}_{\substack{1 \leq i \leq p \\[0.25em] 1 \leq j \leq m}} \\[0.75em] &\overset{(5)}{=} {\Bigl[ \beta_{ij} \Bigr]}_{\substack{1 \leq i \leq p \\[0.25em] 1 \leq j \leq n}} \cdot {\Bigl[ \alpha_{ij} \Bigr]}_{\substack{1 \leq i \leq n \\[0.25em] 1 \leq j \leq m}} \\[0.75em] &\overset{(6)}{=} B^T \cdot A^T. \end{align*}
Erklärungen zu den Schritten
(1)
  • Ersetzen von \(A\) und \(B\) durch die konkreten Matrizen
(2)
  • Ausrechnen von \(A \cdot B\) gemäß Definition der Multiplikation von Matrizen
(3)
  • Transponieren der Matrix
(4)
  • Ersetzen von \(a_{jk}\) durch \(\alpha_{kj}\) – es handelt sich bei \(\alpha_{kj}\) um das zu \(a_{jk}\) gehörige Element in der transponierten Matrix \(A^T\)
  • Ersetzen von \(b_{ki}\) durch \(\beta_{ik}\) – es handelt sich bei \(\beta_{ik}\) um das zu \(b_{ki}\) gehörige Element in der transponierten Matrix \(B^T\)
  • Die Vertauschung der Multiplikationsreihenfolge gilt aufgrund der Kommutativität der Multiplikation im zugrundeliegenden kommutativen Ring \(\mathcal{R}\)
(5)
  • Aufteilen der Matrix auf zwei separate Matrizen mithilfe der Definition der Multiplikation von Matrizen
(6)
  • Ersetzen der konkreten Matrizen durch \(A^T\) und \(B^T\)