Zum Inhaltsverzeichnis der Mathematischen Hintergründe
Zur Welcome Page


Matrizen

Zusammenfassung:
Matrizen drücken lineare Abhängigkeiten von mehreren Variablen aus und können als lineare Abbildungen interpretiert werden (und beispielsweise Spiegelungen, Projektionen und Drehungen beschreiben). Weiters können mit ihrer Hilfe lineare Gleichungssysteme sehr kompakt angeschrieben und diskutiert werden. Konstrukte wie die Determinante und die Inverse einer Matrix geben Auskunft über die Lösungsmengen linearer Gleichungssysteme.

Stichworte:
Matrizen und lineare Abhängigkeiten | Was sind Matrizen... | Zeilen, Spalten, Komponenten, Dimension | quadratische Matrix | Spaltenvektor | ...und wozu dienen sie? | linear-homogen | Linearkombination | Matrix mal Vektor | Matrix mal Matrix | Regel für die Matrizenmultiplikation (2 × 2) | nicht-kommutativ | allgemeine Matrizenmultiplikation (in beliebigen Dimensionen) | Assoziativität | Vielfache und Summen von Matrizen | Distributivität | Nullmatrix | Einheitsmatrix | inverse Matrix | Inverse einer 2x2-Matrix | Determinante | Determinante als orientierter Flächeninhalt (2×2) | Regel von Sarrus | Determinante als orientierter Volumsinhalt (3×3) | transponierte Matrix | Skalarprodukt | geometrische Beispiele | lineare Abbildung | Spiegelungen | Spiegelung an beliebiger Gerade | Projektionen | Drehungen | komplexe Matrizen | inneres Produkt | adjungierte (hermitisch konjugierte) Matrix | Matrizen und lineare Gleichungssysteme | lineare Gleichungssysteme in Matrixform | homogen und inhomogen | Lösungsmenge: wenn A invertierbar ist + Berechnung der Inversen | wenn A nicht invertierbar ist: homogener Fall | wenn A nicht invertierbar ist: inhomogener Fall | Rang einer Matrix | Matrizenrechnen mit dem Computer | Spur einer Matrix | Nullraum einer Matrix | erweiterte Koeffizientenmatrix
Die Entwicklung dieses Kapitels wurde gefördert
von der Stadt Wien im Rahmen des Projekts
Blended Learning für Mathematik in der Studieneingangsphase
 
                                                                                                                                                                                                                                               
    
Matrizen und lineare Abhängigkeiten
        
    

Was sind Matrizen...


Nicht-Eingeweihten gelten Matrizen manchmal als mysteriöse Objekte, die das Leben erschweren, weil sie es mit noch mehr Mathematik anreichern. In Wahrheit sind sie aber erfunden worden, um das (mathematische) Leben zu erleichtern!

Zunächst ist eine Matrix einfach ein "rechteckiges Zahlenschema". Ein Beispiel einer Matrix ist

$M=\left(\begin{array}{cc} 1 & -2\\ 4 & 0\\ 3 & 5 \end{array}\right) $  .
$(1)$

     
 
 
     Das gesamte Schema bezeichnen wir mit einem einzigen Buchstaben, in diesem Fall $M$, ganz so, wie wir es bei Vektoren machen. Die jeweils nebeneinander stehenden Zahlen bilden eine Zeile der Matrix, die jeweils untereinander stehenden Zahlen bilden eine Spalte. Die Matrix (1) besitzt $3$ Zeilen und $2$ Spalten. Wir bezeichnen sie als eine $3\times 2$-Matrix (ausgesprochen "3 mal 2-Matrix"), um ihre "Größe" (genauer: ihre Dimension) anzugeben. Die Zahlen, die eine Matrix bilden, nennen wir ihre Komponenten. Bei Bedarf kann die Komponente, die in der $j$-ten Zeile und in der $k$-ten Spalte steht, mit $M_{jk}$ bezeichnet werden. Für die Matrix (1) ist daher etwa $M_{11}=1$ und $M_{32}=5$.

Ganz allgemein besitzt eine $m\times n$-Matrix $m$ Zeilen und $n$ Spalten. $m$ und $n$ stehen sozusagen für die "Höhe" und die "Breite" des Zahlenschemas. Eine Matrix, die gleich viele Zeilen wie Spalten besitzt, nennen wir quadratisch (da sie ein quadratisches Zahlenschema darstellt). Ein Beispiel für eine $2\times 2$-Matrix ist

$Q=\left(\begin{array}{cc} 1 & -2\\ 3 & 4 \end{array}\right) $  .
$(2)$

Vektoren sind Spezialfälle von Matrizen, wobei wir zwei Möglichkeiten haben, sie anzuschreiben. Hier zwei Beispiele:

$u=\left(\begin{array}{c} 1\\ 3 \end{array}\right) {\sf,}\qquad v=\left(\begin{array}{cc} 1 & 3 \end{array}\right) $  .
$(3)$

$u$ ist ein sogenannter Spaltenvektor (in diesem Fall eine $2\times 1$-Matrix), $v$ ein Zeilenvektor (in diesem Fall eine $1\times 2$-Matrix). Eine einzige alleinstehende Zahl kann – mit ein bisschen Haarspalterei – auch als $1\times 1$-Matrix angesehen werden.

Wozu betrachten wir derartige Objekte? Schon die Idee des "Zahlenschemas" deutet darauf hin, dass die betreffenen Zahlen irgendeine Bedeutung haben, und dass ihre Zusammenfassung in einer Matrix vor allem der Bequemlichkeit dient. Da Matrizen ausgerechnet in einem Mathematik-Kapitel auftreten, lässt vermuten, dass man mit ihnen rechnen kann. Beide Aspekte werden im Folgenden eine wichtige Rolle spielen.

 
     

Vektoren 1
 
    
...und wozu dienen sie?


Matrizen erleichtern das Leben, wenn es um lineare Zusammenhänge zwischen mehreren Größen geht. Machen wir das gleich anhand eines Beispiels deutlich: Angenommen, in irgendeiner konkreten Situation treten vier Größen $x_1$, $x_2$, $y_1$ und $y_2$ auf. Nun stellen wir uns vor, dass $y_1$ und $y_2$ in einer ganz bestimmten Weise von $x_1$ und $x_2$ abhängen, nämlich

\begin{eqnarray} y_1 &=& 7x_1 + 3x_2\\ y_2 &=& 2x_1 + 8x_2 \end{eqnarray}  .
$(4)$

Derartige Abhängigkeiten treten in der Praxis oft auf.
Beispiel: Stellen wir uns ein Unternehmen vor, das zwei Arten von Duftstoffen für Wohnräume auf den Markt bringt ("Frühling" und "Exotic"), indem zwei Rohstoffe, die die Firma einkauft (Veilchenduft und Jasminöl) in unterschiedlichen Zusammensetzungen gemischt werden:
  • 10 kg des Duftes "Frühling" bestehen aus $7$ kg Veilchenduft und $3$ kg Jasminöl.
  • 10 kg des Duftes "Exotic" bestehen aus $2$ kg Veilchenduft und $8$ kg Jasminöl.
Die Kosten für Veilchenduft und Jasminöl steigen von Zeit zu Zeit ein bisschen. Wir legen uns daher nicht auf konkrete Werte fest, sondern bezeichnen
  • den Preis (in Euro) für 1 kg Veilchenduft mit $x_1$
  • und den Preis (in Euro) für 1 kg Jasminöl mit $x_2$.
Das Unternehmen interessiert sich nun für zwei Dinge:
  • Wieviel muss es (in Euro) für die Rohstoffe zahlen, die für 10 kg "Frühling" benötigt werden?
    Antwort: $y_1$, wie in (4) angegeben.
  • Wieviel muss es (in Euro) für die Rohstoffe zahlen, die für 10 kg "Exotic" benötigt werden?
    Antwort: $y_2$, wie in (4) angegeben.
Und hier haben wir eine Abhängigkeit zweier Größen ($y_1$ und $y_2$) von zwei anderen Größen ($x_1$ und $x_2$) in einem praktischen Beispiel, wie sie in mathematischer Symbolschreibweise durch (4) ausgedrückt wird! Wir werden uns im Folgenden noch einige Male (in eingerückten dunkelblauen Texten) auf dieses Beispiel beziehen.
Betrachten wir die mathematische Struktur von (4) genauer: Wann immer konkrete Zahlen für $x_1$ und $x_2$ angegeben werden, sind $y_1$ und $y_2$ durch die Beziehungen (4) eindeutig bestimmt. Sowohl $y_1$ als auch $y_2$ ist von der Form

gegebene Zahl mal $x_1$ $+$ gegebene Zahl mal $x_2$  .
$(5)$

Eine solche Form der Abhängigkeit bezeichnen wir als linear-homogen (manchmal einfach nur als "linear"). Die beiden "gegebenen Zahlen", die hier auftreten, heißen Koeffizienten, ein Ausdruck der Form (5) heißt Linearkombination von $x_1$ und $x_2$. In den Beziehungen (4) treten vier Koeffizienten auf, zwei für $y_1$ und zwei für $y_2$, die wir übersichtlich in Form eines "quadratischen Zahlenschemas", also als $2\times 2$-Matrix

$A=\left(\begin{array}{cc} 7 & 3\\ 2 & 8 \end{array}\right)$  
$(6)$

zusammenfassen können. Sie stehen an den gleichen Positionen wie in (4), wobei alle anderen Symbole weggelassen und nur die Klammern (die uns anzeigen, dass es sich um eine Matrix handelt) hinzugefügt werden. Hier haben wir eine erste Matrix, die eine konkrete Aufgabe erfüllt: Sie fasst die konkrete, durch (4) definierte lineare Abhängigkeit in knapper Form zusammen. (Wenn wir in diesem Abschnitt "linear" sagen, meinen wir damit immer "linear-homogen").

Nun könnte man einwenden, dass ein Objekt wie (6) zwar ein bisschen Schreibarbeit erspart, dass aber die Aussage, die (4) macht, nicht mehr ersichtlich ist. Das ist ein guter Einwand, und wir berücksichtigen ihn, indem wir die vier Größen $x_1$, $x_2$, $y_1$ und $y_2$, die ebenfalls in (4) vorkommen, in Form zweier Spaltenvektoren zusammenfassen:

$x=\left(\begin{array}{c}x_1\\x_2\end{array}\right) {\sf,}\qquad y=\left(\begin{array}{c}y_1\\y_2\end{array}\right)$  .
$(7)$

Damit haben wir alle in (4) auftretenden Größen systematisch zusammengefasst:
  • Die beiden (unabhängigen) Variablen $x_1$ und $x_2$ im Spaltenvektor $x$,
  • Die beiden (abhängigen) Variablen $y_1$ und $y_2$ im Spaltenvektor $y$
  • und die angegebenen Koeffizienten in der Matrix $A$.
Und jetzt "erfinden" wir eine Rechenoperation, die es erlaubt, eine Matrix mit einem Vektor zu "multiplizieren".

 
     
 
 
    
Matrix mal Vektor


(4) besteht aus zwei Aussagen, die die Werte von $y_1$ und $y_2$ in Abhängigkeit der Werte von $x_1$ und $x_2$ festlegen. Schaffen wir es, diese beiden Aussagen in einer einzigen (vereinheitlichten) Form "$y=\dots$" anzuschreiben? Eine Vorschrift, die angibt, wie der Spaltenvektor $y$ berechnet werden kann, besteht ja im Grunde nur aus zwei Vorschriften, einer für $y_1$ und einer für $y_2$. Dazu wagen wir die Idee, dass es möglich sein könnte, die Matrix $A$ so mit dem Vektor $x$ zu "multiplizieren", dass das Ergebnis $y$ ist!

Das ist gar nicht so schwer. Wenn wir diese "Multiplikation" in der Form "$Ax$" anschreiben, müsste also gelten:

$\left(\begin{array}{cc} 7 & 3\\ 2 & 8 \end{array}\right) \left(\begin{array}{c}x_1\\x_2\end{array}\right) = \left(\begin{array}{cc}7x_1+3x_2\\2x_1+8x_2\end{array}\right)$  .
$(8)$

Erkennen Sie die Regel, wie hier vorgegangen werden muss?



1. Wie lautet die Regel, um das
gewünschte Ergebnis zu erhalten?


2. So erhalten Sie die erste Komponente
des Ergebnisses!


3. So erhalten Sie die zweite Komponente
des Ergebnisses!


4. Das ist das Ergebnis!

Gehen Sie so vor:
  • Um die erste Komponente des Ergebnis-Vektors zu erhalten (oben, 2), schauen Sie auf die erste Zeile der Matrix und auf die (einzige) Spalte des Vektors. Bilden Sie "erste Zahl dieser Zeile mal erste Zahl der Spalte + zweite Zahl dieser Zeile mal zweite Zahl der Spalte".
  • Um die zweite Komponente des Ergebnis-Vektors zu erhalten (oben, 3), schauen Sie auf die zweite Zeile der Matrix und auf die (einzige) Spalte des Vektors. Bilden Sie "erste Zahl dieser Zeile mal erste Zahl der Spalte + zweite Zahl dieser Zeile mal zweite Zahl der Spalte".
     
 
 
     Mit Hilfe des Skalarprodukts von Vektoren können wir diese Regel auch so formulieren:
  • Um die erste Komponente des Ergebnis-Vektors zu erhalten (oben, 2), bilden Sie das Skalarprodukt der ersten Zeile der Matrix mit der (einzige) Spalte des Vektors.
  • Um die zweite Komponente des Ergebnis-Vektors zu erhalten (oben, 3), bilden Sie das Skalarprodukt der zweiten Zeile der Matrix mit der (einzigen) Spalte des Vektors.
Auf dem Papier wenden Sie diese Regel am besten unter Zuhilfehahme ihrer beiden Hände an:
  • Um die erste Komponente des Ergebnis-Vektors zu erhalten (oben, 2), legen Sie zuerst den linken Zeigefinger auf die erste Zahl in der ersten Zeile der Matrix und den rechten Zeigefinger auf die erste Komponente des Vektors. Diese beiden Zahlen werden miteinander multipliziert. Nun bewegen Sie den linken Zeigefinger nach rechts und gleichzeitig den rechten Zeigefinger nach unten. Alle Zahlen, auf denen ihre Zeigefinger gleichzeitig stehen, werden miteinander multipliziert, und alle diese Produkte.werden addiert
  • Um die zweite Komponente des Ergebnis-Vektors zu erhalten (oben, 3), legen Sie zuerst den linken Zeigefinger auf die erste Zahl in der zweiten Zeile der Matrix und den rechten Zeigefinger auf die erste Komponente des Vektors. Dann wiederholen Sie den Vorgang, wobei ihr linker Zeigefinger nun die zweite Zeile der Matrix überstreicht.
Auf diese Weise überstreicht ihr linker Zeigefinger immer eine Zeile der Matrix und gleichzeitig der rechte den Vektor. Verstanden?

Hier ein Beispiel, in dem nur Zahlen vorkommen: $$\left(\begin{array}{cc} -1 & 3\\ 4 & 2 \end{array}\right) \left(\begin{array}{c}6\\5\end{array}\right) = \left(\begin{array}{c}(-1)\cdot 6 + 3 \cdot 5\\4\cdot 6+2\cdot 5\end{array}\right) = \left(\begin{array}{c}-6 + 15\\24+10\end{array}\right) = \left(\begin{array}{c}9\\34\end{array}\right)\,{\sf\small.}$$ Üben Sie weitere derartige Multiplikationen mit selbsterfundenen Matrizen und Vektoren!

Mit dieser Art, eine $2\times 2$-Matrix mit einem $2\times 1$-Spaltenvektor zu multiplizieren, lauten die Beziehungen (4) nun einfach

$y=Ax$  .
$(9)$

Damit haben wir die durch (4) gegebene lineare Abhängigkeit zweier Größen von zwei anderen Größen in einer sehr knappen Form angeschrieben. Mit Hilfe von (6) und (7) und der soeben erfundenen "Multiplikation" kann daraus die ursprügliche Form (4) zurückgewonnen werden. Die Kurzform (9) besitzt daher den gleichen Informationsgehalt wie (4).
Beispiel: Unser oben beschriebenes Unternehmen, das Duftstoffe verkauft, kann nun mit Hilfe der Matrix (6) auf übersichtliche Weise darstellen, wie die Rohstoffkosten für die Herstellung von 10 kg "Frühling" und von 10 kg "Exotic" von den Marktpreisen für Veilchenduft ($x_1$) und Jasminöl ($x_2$) abhängen. Die konkreten Werte, die $x_1$ und $x_2$ annehmen, ändern sich von Zeit zu Zeit, so dass die konkreten Rohstoffkosten für die beiden Produkte dann immer mit Hilfe einer Multiplikation "Matrix mal Spaltenvektor" ermittelt werden können.
Wenn man nun eine Matrix mit einem Vektor multiplizieren kann – ist es dann auch möglich, eine Matrix mit einer Matrix zu multiplizieren? Und welchen Sinn sollte das haben?

 
     

Skalarprodukt
 
    
Matrix mal Matrix: die Matrizenmultiplikation


Stellen wir uns vor, die beiden Größen $x_1$ und $x_2$ hängen ihrerseits auf lineare Weise von zwei weiteren Größen $u_1$ und $u_2$ ab, also beispielsweise

\begin{eqnarray} x_1 &=& 900\,u_1 + 150\,u_2\\ x_2 &=& 500\,u_1 + 400\,u_2 \end{eqnarray}  .
$(10)$

Auch so etwas kann in der Praxis vorkommen!
Beispiel: Der Verkäufer der Rohstoffe Veilchenduft und Jasminöl, die unser Duftstoff-Unternehmen benötigt, stellt diese aus zahlreichen importierten Grundstoffen her. Seit Beginn des Jahres 2010 sind die Kosten für den Einkauf dieser Grundstoffe generell um den Faktor $u_1$ gestiegen und die heimischen Produktionskosten um den Faktor $u_2$, die beide auf die entsprechenden Preisanteile aufgeschlagen werden:
  • Zu Beginn des Jahres 2010 waren für 1 kg Veilchenduft der benötigten Konzentration 1050 Euro zu bezahlen, davon 900 für den Kauf der Grundstoffe und 150 für die heimische Produktion. Zu einem späteren Zeitpunkt ist der Gesamtpreis dafür (in Euro) daher auf $\,x_1=900\,u_1+150\,u_2\,$ gestiegen.
  • Zu Beginn des Jahres 2010 waren für 1 kg Jasminöl der benötigten Konzentration 900 Euro zu bezahlen, davon 500 für den Kauf der Grundstoffe und 400 für die heimische Produktion. Zu einem späteren Zeitpunkt ist der Gesamtpreis dafür (in Euro) daher auf $\,x_2=500\,u_1+400\,u_2\,$ gestiegen.
Also wieder eine lineare Abhängigkeit zweier Größen ($x_1$ und $x_2$) von zwei anderen Größen ($u_1$ und $u_2$), wie sie durch (10) ausgedrückt wird!
Die Beziehungen (10) können wir mit einem Spaltenvektor $u$, dessen Komponenten $u_1$ und $u_2$ sind, und mit Hilfe der Matrix

$B=\left(\begin{array}{cc} 900 & 150\\ 500 & 400 \end{array}\right)$  
$(11)$

in der Form

$x=Bu$  
$(12)$

schreiben. Wie hängen nun $y_1$ und $y_2$ von $u_1$ und $u_2$ ab?
Beispiel: Für unser Duftstoff-Unternehmen bedeutet diese Frage: Wie hängen die Rohstoffkosten für die Herstellung von 10 kg "Frühling" und von 10 kg "Exotic" von den Teuerungsraten $u_1$ der Grundstoffpreise und $u_2$ der heimischen Produktion ab?
Wenn wir (10) in (4) einsetzen, erhalten wir

\begin{eqnarray} y_1 &=& 7(900\,u_1 + 150\,u_2) + 3(500\,u_1 + 400\,u_2) &=& 7800\,u_1 + 2250\,u_2\\ y_2 &=& 2(900\,u_1 + 150\,u_2) + 8(500\,u_1 + 400\,u_2) &=& 5800\,u_1 + 3500\,u_2 \end{eqnarray}  .
$(13)$

Das ist also wieder eine lineare Abhängigkeit, die mit Hilfe der Matrix

$C=\left(\begin{array}{cc} 7800 & 2250\\ 5800 & 3500 \end{array}\right)$  
$(14)$

in der knappen Form

$y=Cu$  
$(15)$

ausgedrückt werden kann. Die Matrix $C$ stellt die "ineinandergeschachtelten" linearen Abhängigkeiten dar, die durch die Matrizen $A$ und $B$ dargestellt worden sind. Sie ist also durch $A$ und $B$ eindeutig bestimmt. Kann sie durch eine Art "Multiplikation" aus $A$ und $B$ gewonnen werden? Die Antwort ist ja: Wenn wir (12) in (9) einsetzen, ergibt sich

$y=A(Bu)$  .
$(16)$

Durch den Vergleich dieser Form des "Hintereinander-Ausführens" zweier Multiplikationen (zuerst $B$ mit $u$ und danach $A$ mit dem Ergebnis $Bu$) mit (15) ergibt sich $Cu=A(Bu)$. Nun definieren wir einfach das Produkt der Matrizen $A$ und $B$ als die Matrix $C$ und schreiben es als $AB$ an. Damit nimmt (16) die Form $y=(AB)u$ an, was üblicherweise ohne Klammern in der Form

$y=AB\,u$  
$(17)$

angeschrieben wird. Gehen Sie das Argument, das zu dieser Definition geführt hat, noch einmal durch! Der Grundgedanke ist einfach:
  • Eine Matrix stellt eine lineare Abhängigkeit dar.
  • Das Produkt zweier Matrizen stellt zwei ineinandergeschachtelte lineare Abhängigkeiten (die ja in Kombination wieder eine lineare Abhängigkeit ergeben) dar!
Dieses Ineinanderschachteln legt die eindeutige Rechenvorschrift der Matrizenmultiplikation fest, zunächst für $2\times 2$-Matrizen. Die Regel ist ähnlich wie jene für das Produkt einer Matrix mit einem Spaltenvektor. Wir wünschen uns also

$\left(\begin{array}{cc} 7 & 3\\ 2 & 8 \end{array}\right) \left(\begin{array}{cc} 900 & 150\\ 500 & 400 \end{array}\right) = \left(\begin{array}{cc} 7800 & 2250\\ 5800 & 3500 \end{array}\right)$  .
$(18)$

Um die allgemeine Regel zu entdecken, sehen Sie sich an, wie die Zahlen, die jeweils zwischen den beiden Gleichheitszeichen in (13) stehen, miteinander kombiniert werden müssen! Hier ein Schema in vier Stationen, wie Sie die vier Komponenten der Ergebnis-Matrix erhalten:



1. So erhalten Sie die Komponente
mit Zeilennummer 1 und Spaltennummer 1
der Ergebnis-Matrix!


2. So erhalten Sie die Komponente
mit Zeilennummer 1 und Spaltennummer 2
der Ergebnis-Matrix!


3. So erhalten Sie die Komponente
mit Zeilennummer 2 und Spaltennummer 1
der Ergebnis-Matrix!


4. So erhalten Sie die Komponente
mit Zeilennummer 2 und Spaltennummer 2
der Ergebnis-Matrix!

Am besten lassen Sie dazu den linken Zeigefinger immer eine Zeile der ersten Matrix überstreichen und gleichzeitig den rechten über eine Spalte der zweiten Matrix, und dabei bilden Sie die Produkte der Zahlen, über denen Ihre Zeigefinger jeweils stehen und addieren sie. Dabei wählen Sie die Zeile der ersten und die Spalte der zweiten Matrix entsprechend der Position der Komponenten der Ergebnis-Matrix, die Sie gerade berechnen.

Durch das Skalarprodukt ausgedrückt lautet die Regel:

Regel für die Matrizenmultiplikation: Um die Komponente mit Zeilennummer $j$ und Spaltennummer $k$ der Ergebnis-Matrix zu erhalten, bilden Sie das Skalarprodukt der $j$-ten Zeile der ersten Matrix mit der $k$-ten Spalte der zweiten Matrix.

Damit ist also nichts anderes ausgeführt als die in (13) durchgeführte Berechnung der Abhängigkeit, die sich aus dem Ineinanderschachteln zweier vorher festgelegter lihnearer Abhängigkeiten ergibt.
Beispiel: Unser Duftstoff-Unternehmen kann nun aus den Informationen, die in den Matrizen $A$ (Kosten für die beiden hergestellten Produkte in Abhängigkeit von den Rohstoffpreisen) und $B$ (Rohstoffpreise in Abhängigkeit von den Teuerungsraten am Grundstoffsektor und in der heimischen Produktion) durch die Matrizenmultiplikation $C=AB$ mit einem Schlag die Kosten in Abhängigkeit von den Teuerungsraten berechnen. Sind die Teuerungsraten $u$ für einen bestimmten Zeitpunkt bekannt, so werden die anfallenden Kosten dann einfach in der Form $y=Cu$ ermittelt. Das Unternehmen lässt diese Berechnungen natürlich von einem Computer ausführen, der das dafür nötige Jonglieren mit Zahlen perfekt beherrscht.
Die durch die obige Vorschrift definierte Matrizenmultiplikation wird "Multiplikation" genannt, weil sie ein bisschen an die Multiplikation von Zahlen erinnert und man in mancher Hinsicht mit ihr so rechnen kann. Dennoch handelt es sich bei ihr um ein anderes mathematisches Konzept, das bestimmten Überlegungen entsprungen ist und bestimmten Zwecken dient (z.B., wie wir gesehen haben, der Beschreibung ineinandergeschachtelter linearer Abhängigkeiten). Es sollte daher nicht mit der Multiplikation von Zahlen verwecnselt werden. Eine wichtige Eigenschaft, die den Unterschied verdeutlich, besteht darin, dass die Matrizenmultiplikation von der Reihenfolghe der Faktoren abhägt: $AB$ ist im Allgemeinen von $BA$ verschieden! Man sagt auch, dass die Matrizenmultiplikation "nicht kommutativ" ist. Probieren Sie es aus, indem Sie mit den beiden oben betrachteten Matrizen $BA$ berechnen und mit $AB$ vergleichen! (Danach klicken Sie auf den nebenstehenden Button, um ihr Ergebnis zu überprüfen!)

 
     


 
 
    
Allgemeine Matrizenmultiplikation


Können wir nun beliebige Matrizen nach dem obigen Schema miteinander multiplizieren? Nein! Ob wir zwei Matrizen miteinander multiplizieren können, hängt von ihrer Dimension ab, d.h. davon, wie viele Zahlen und Spalten sie besitzen. Wenn Sie die obige Regel für die Matrizenmultiplikation bedenken, muss die Länge einer Zeile der ersten Matrix gleich der Länge einer Spalte der zweiten Matrix sein. In anderen Worten: Die erste Matrix muss genausoviele Spalten besitzen wie die zweite Matrix Zeilen. Daher gilt:

Das Produkt $AB$ zweier Matrizen kann nur gebildet werden, wenn $A$ eine $m\times n$-Matrix und $B$ eine $n\times p$ Matrix ist.

Das Produkt der beiden Matrizen hat dann nach unserer Regel genau so viele Zeilen wie die erste Matrix und genau so viele Spalten wie die zweite Matrix. Das Produkt $AB$ einer $m\times n$-Matrix $A$ mit einer $n\times p$-Matrix $B$ ist daher eine $m\times p$-Matrix. Schematisch sieht das so aus:

$(m\times n$-Matrix$)\,(n\times p$-Matrix$)=(m\times p$-Matrix$)$.

Dazu ein Beispiel: $$\left(\begin{array}{cc} -1 & 3\\ 4 & 2\\ 7 & 8 \end{array}\right) \left(\begin{array}{cc} 6 & -2\\ 5 & 9 \end{array}\right) = \left(\begin{array}{cc} (-1)\cdot 6 + 3\cdot 5 & (-1)\cdot(-2)+3\cdot 9\\ 4\cdot 6 + 2\cdot 5 & 4\cdot(-2)+2\cdot 9\\ 7\cdot 6 + 8\cdot 5 & 7\cdot(-2)+8\cdot 9 \end{array}\right) = \left(\begin{array}{cc} 9 & 29\\ 34 & 10\\ 82 & 58 \end{array}\right)$$ Hier wird eine $3\times 2$-Matrix mit einer $2\times 2$-Matrix multipliziert. Das Ergebnis ist eine $3\times 2$-Matrix.
Beispiel: Wenn unser Duftstoff-Unternehmen seine Produktion ausweitet und $m$ Produkte herstellt, die aus $n$ Rohstoffen zusammengesetzt werden, wird die Abhängigkeit der Rohstoffkosten für die $m$ Produkte von den Preisen der $n$ Rohstoffe durch eine $m\times n$-Matrix $A$ beschrieben. Wenn die Preise dieser $n$ Rohstoffe von $p$ Teuerungsraten in verschiedenen Wirtschaftssektoren (in linearer Weise) abhängen, so wird diese Abhängigkeit durch eine $n\times p$-Matrix $B$ beschrieben. Die Abhängigkeit der Rohstoffkosten von den Teuerungsraten wird dann durch das Produkt $C=AB$ beschrieben, was eine $m\times p$-Matrix ist: Die Rohstoffkosten für $m$ Produkte hängen von $p$ Teuerungsraten ab. In dem einfachen Beispiel, das bisher betrachtet wurde, war $m=n=p=2$ gesetzt.
Mit der Regel für die Matrizenmultiplikation erweist sich die oben zuerst eingeführte Multiplikation einer $2\times 2$-Matrix mit einem zweidimensionalen Spaltenvektor als einfacher Spezialfall: $(2\times 2$-Matrix$)\,(2\times 1$-Matrix$)=(2\times 1$-Matrix$)$.

Das Produkt zweier quadratischer Matrizen der gleichen Dimension ergibt wieder eine ebensolche Matrix. Daher können wir mit quadratischen Matrizen Potenzen wie $A^2=AA$ und $A^3=AAA$ bilden.

 
     
 
 
    
Assoziativität


Eine nützliche Eigenschaft der Matrizenmultiplikation besteht darin, dass sie ist assoziativ ist: Wenn wir von drei Matrizen $A$, $B$ und $C$ ausgehen, die von ihren Dimensionen gestatten, zuerst $AB$ und danach $(AB)C$ zu berechnen, so erhalten wir das gleiche Resultat, wenn zuerst $BC$ und danach $A(BC)$ berechnet wird. Wir können in einem solchen Fall daher die Klammern weglassen und einfach $ABC$ schreiben:

$(AB)C=A(BC)\equiv ABC$  .
$(19)$

Das ist der Grund, warum wir in (17) keine Klammern geschrieben haben. So gesehen entsteht (17) aus (16), indem einfach die Klammern weggelassen werden.

 
     
 
 
    
Vielfache und Summen von Matrizen


Zusätzlich zur Matrizenmultiplikation drängen sich zwei weitere Operationen mit Matrizen förmlich auf: Ein Vielfaches einer beliebigen Matrix wird gebildet, indem alle Komponenten mit der gleichen Zahl multipliziert werden. Hier ein Beispiel:

$3\left(\begin{array}{cc} 7 & -2\\ 4 & 0\\ 5 & 1 \end{array}\right) =\left(\begin{array}{cc} 3\cdot 7 & 3\cdot (-2)\\ 3\cdot 4 & 3\cdot 0\\ 3\cdot 5 & 3\cdot 1 \end{array}\right)= \left(\begin{array}{cc} 21 & -6\\ 12 & 0\\ 15 & 3 \end{array}\right) $  .
$(20)$

Matrizen gleicher Dimension können addiert werden, indem die Koeffizienten, die der gleichen Position (also der gleichen Zeilen- und Spaltennummer) entsprechen, addiert werden. Hier ein Beispiel:

$\left(\begin{array}{cc} 7 & -2\\ 4 & 0\\ -5 & 3 \end{array}\right) +\left(\begin{array}{cc} 2 & 5\\ -3 & 4\\ 1 & 2 \end{array}\right)= \left(\begin{array}{cc} 7+2 & -2+5\\ 4-3 & 0+4\\ -5+1 & 3+2 \end{array}\right)= \left(\begin{array}{cc} 9 & 3\\ 1 & 4\\ -4 & 5 \end{array}\right) $  .
$(21)$

Die Addition von Matrizen und das Bilden von Vielfachen schließen das Bilden von Differenzen mit ein, da $A-B$ als $A+(-1)B$ interpretiert werden kann. Allgemeiner können mit Matrizen gleicher Dimension beliebige Linearkombinationen (wie beispielsweise $3A-5B+6C$ für drei Matrizen $A$, $B$; und $C$) gebildet werden.

Hinsichtlich des Bildens von Vielfachen und der Addition kann also mit Matrizen genauso gerechnet werden wie mit Vektoren. (Die Spezialisten sagen, dass die Menge aller Matrizen der gleichen Dimension einen Vektorraum bilden).

 
     

(in Vorbereitung)
Vektorraum

 
 
    
Distributivität


Die bisher definierten Operationen für Matrizen spielen insofern sehr schön zusammen, als sich das Rechnen mit Klammern genauso gestaltet wie beim Umgang mit Zahlen (wobei lediglich darauf geachtet werden muss, dass die Reihenfolge von Matrizen, die multipliziert werden, nicht vertauscht werden darf). Insbesondere gilt für beliebige Matrizen $A$, $B$ und $C$ (deren Dimensionen die folgenden Operationen erlauben)

\begin{eqnarray} A(B+C)&=&AB+AC\\ (A+B)\,C&=&AC+BC \end{eqnarray}  .
$(22)$

Diese Rechenregeln werden unter dem Namen Distributivitätsgesetz zusammengefasst.

 
     





Distributivgesetz für
reelle Zahlen


 
 
    
Nullmatrix


In jeder Dimension $m\times n$ wird die Matrix, deren Komponenten alle gleich $0$ sind, als Nullmatrix bezeichnet und in der Regel einfach mit dem Symbol $0$ angeschrieben. Die Nullmatrix hat die Eigenschaft, dass sich nichts ändert, wenn sie zu einer Matrix $A$ (der gleichen Dimension) addiert wird: $A+0=A$. Weiters gilt stets $0A=A0=0$.

 
     
 
 
    
Einheitsmatrix


Eine spezielle Form der linearen Abhängigkeit zweier Größen besteht darin, dass sie gleich sind: $y_1=x_1$ und $y_2=x_2$. Dieser Abhängigkeit entspricht die so genannte Einheitsmatrix, die wir mit $\mathbf{1}$ bezeichnen:

$\mathbf{1}=\left(\begin{array}{cc} 1 & 0\\ 0 & 1 \end{array}\right) $  .
$(23)$

Andere in der Literatur anzutreffende Bezeichnungen sind $E$, $I$ oder ${\rm id}$. Die Einheitsmatrix hat klarerweise die Eigenschaft, dass die Multiplikation mit einer beliebigen $2\times 2$-Matrix diese nicht ändert:

$A\,\,\mathbf{1} = \mathbf{1}\,A = A $  .
$(24)$

Probieren Sie es aus, indem Sie $A\,\,\mathbf{1}$ und $\mathbf{1}\,A = A$ mit der Matrix (6) berechnen!

Ganz analog gibt es in jeder Dimension $n$ eine $n\times n$-Einheitsmatrix, bei der auf der "Hauptdiagonalen" (von links oben nach rechts unten) $1$ steht und an allen anderen Stellen $0$, und (24) gilt ebenfalls in jeder Dimension.

 
     
 
 
    
Inverse Matrix


Können wir mit Matrizen dividieren? Ja und nein – das kommt drauf an! Manchmal geht es, manchmal nicht, wie bei Zahlen!

Erinnern wir uns, was die Division für Zahlen eigentlich bedeutet und wie sie auf die Multiplikation zurückgeführt werden kann: Ist $r\neq 0$ eine reelle Zahl, so ist ihr Kehrwert jene (eindeutig bestimmte) reelle Zahl $s$, für die $r\,s=1$ gilt. Wir bezeichnen dann $s$ als $1/r$ oder $r^{-1}$ und können nun für zwei Zahlen $t$ und $r$ den Quotienten $t/r$ als das Produkt $r^{-1}t$ definieren. Die Division $t/r$ ist nur möglich, wenn $r\neq 0$ ist. Sehen wir uns nun an, ob wir das Konzept des Kehrwerts auf Matrizen übertragen können!

Wenn $y_1$ und $y_2$ linear von $x_1$ und $x_2$ abhängen (diese Abhängigkeit wird dann durch eine $2\times 2$-Matrix $A$ beschrieben), so kann man versuchen, beliebige Werte für $y_1$ und $y_2$ vorzugeben die entsprechenden Beziehungen nach $x_1$ und $x_2$ aufzulösen, d.h. umgekehrt $x_1$ und $x_2$ in Abhängigkeit von $y_1$ und $y_2$ zu betrachten. Gelingt das, so nennen wir die Matrix $A$ invertierbar. Diese umgedrehte Abhängigkeit ist dann ebenfalls linear und wird durch eine $2\times 2$-Matrix beschrieben, die wir die zu $A$ inverse Matrix (kurz: die Inverse von $A$) nennen und mit $A^{-1}$ bezeichnen.

Um die Frage, welche $2\times 2$-Matrizen invertierbar sind, zu diskutieren, ist es angebracht, eine allgemeine $2\times 2$-Matrix zu betrachten. Wir schreiben sie in der Form

$A=\left(\begin{array}{cc} A_{11} & A_{12}\\ A_{21} & A_{22} \end{array}\right)$  
$(25)$

an. (Wie bereits ganz zu Beginn erwähnt, zeigen die Indizes in dieser Schreibweise die Zeilen- und Spaltennummern an: $A_{12}$ ist die Komponente, die in der ersten Zeile und in der zweiten Spalte der Matrix $A$ steht). Wird versucht, die zu $A$ inverse Matrix zu berechnen, indem die lineare Abhängigkeit, die $A$ beschreibt, rechnerisch "umgedreht" wird – wir werden das später in diesem Kapitel tun –, so ergibt sich zunächst die Formel

$A^{-1}={1\over \Large A_{11}A_{22}-A_{12}A_{21}}\left(\begin{array}{cc} A_{22} & -A_{12}\\ -A_{21} & A_{11} \end{array}\right)$  .
$(26)$

     







Kehrwert
 
     Hier tritt allerdings ein Bruchterm auf. Nur wenn der Nenner von $0$ verschieden ist, d.h. wenn $A_{11}A_{22}-A_{12}A_{21}\neq 0$ gilt, ist die Matrix $A$ invertierbar. Ihre Inverse ist dann durch (26) gegeben. Um diese Formel zu beweisen, multiplizieren Sie einfach die Matrizen (25) und (26), egal in welcher Reihenfolge (siehe nebenstehenden Button)! In beiden Fällen werden Sie als Ergebnis die $2\times 2$-Einheitsmatrix (23) finden.

Analoges gilt für quadratische Matrizen in höheren Dimensionen: Ganz allgemein bezeichnen wir eine $n\times n$-Matrix $A$ als invertierbar, wenn es eine $n\times n$-Matrix $C$ gibt, so dass $AC=CA=\mathbf{1}$ gilt. Wir bezeichnen $C$ dann als $A^{-1}$ und nennen sie die zu $A$ inverse Matrix. (Ergänzend sei hinzugefügt, dass dafür auch eine einzige der beiden Bedingungen $AC=\mathbf{1}$ und $CA=\mathbf{1}$ ausreicht. Die zweite folgt dann automatisch). Die Formel für die Inverse einer Matrix wird in höheren Dimensionen aber recht schnell sehr kompliziert, so dass wir hier darauf verzichten, uns aber merken wollen: Für jede invertierbare quadratische Matrix jeder Dimension gilt

$A^{-1}A=AA^{-1}=\mathbf{1}$  .
$(27)$

Ohne Beweis erwähnen wir,
  • dass eine $n\times n$-Matrix genau dann invertierbar ist, wenn ihre Spalten – als Vektoren aufgefasst – den gesamten $\mathbb{R}^n$ "aufspannen", d.h. wenn jedes Element des $\mathbb{R}^n$ als Linearkombination dieser $n$ Vektoren dargestellt werden kann,
  • und dass die Inverse eines Produkts zweier invertierbarer Matrizen $A$ und $B$ der gleichen Dimension gleich dem Produkt der Inversen in umgekehrter Reihenfolge ist: $(AB)^{-1}=B^{-1}A^{-1}$.
Das Konzept der inversen Matrix ist insbesondere beim Lösen linearer Gleichungssysteme, deren Zusammenhang mit der Matrizenrechnung weiter unten besprochen wird, nützlich.

 
     

 
    
Determinante


Die Determinante einer quadratischen Matrix $A$ ist eine nützliche Größe, die angibt, ob $A$ invertierbar ist oder nicht. In zwei Dimensionen, d.h. für eine Matrix der Form (25), ist die Determinante durch den in (26) auftretenden Nenner gegeben, d.h.

$\det(A)=A_{11}A_{22}-A_{12}A_{21}$  .
$(28)$

Die Matrix $A$ ist genau dann invertierbar, wenn $\det(A)\neq 0$ ist.

Hier ein Beispiel:

$\det\left(\begin{array}{cc} 2 & 3\\ -1 & 4 \end{array}\right) \equiv \left|\begin{array}{cc} 2 & 3\\ -1 & 4 \end{array}\right| = 2\cdot 4-3\cdot(-1)= 8 + 3 = 11$  .
$(29)$

Wie hieraus ersichtlich, kann die Determinante auch mit zwei senkrechten Strichen statt der Matrix-Klammern angeschrieben werden.

Geometrisch interpretiert, ist die Determinante einer $2\times 2$-Matrix gerade der orientierte Flächeninhalt des aus seinen Spalten(vektoren) gebildeten Parallelogramms. "Orientiert" bedeutet hier: Der Flächeninhalt wird als positiv (negativ) aufgefasst, wenn die Drehung mit Winkel $\leq 180^\circ$, die den ersten Spaltenvektor in den zweiten überführt, im Gegenuhrzeigersinn (Uhrzeigersinn) erfolgt.

Das Konzept der Determinante kann auf beliebige Dimensionen übertragen werden. Ganz allgemein gilt, dass eine quadratische Matrix genau dann invertierbar ist, wenn $\det(A)\neq 0$ gilt. In drei Dimensionen, wenn die Matrix $A$ in der Form

$A=\left(\begin{array}{ccc} A_{11} & A_{12} & A_{13}\\ A_{21} & A_{22} & A_{23}\\ A_{31} & A_{32} & A_{33} \end{array}\right)$  
$(30)$

angeschrieben wird, kann die Determinante mit Hilfe der Formel

\begin{eqnarray} \det(A) &=& A_{11}A_{22}A_{33}+A_{31}A_{12}A_{23}+A_{13}A_{21}A_{32}\\ && -A_{31}A_{22}A_{13}-A_{11}A_{32}A_{23}-A_{33}A_{21}A_{12} \end{eqnarray}  
$(31)$

berechnet werden (eine Formel, die auch als Regel von Sarrus bekannt ist – wir sind ihr im Kapitel über Gleichungssysteme bereits begegnet). Die Determinante in drei Dimensionen ist gleich dem orientierten Volumsinhalt des von den drei Spalten(vektoren) der Matrix gebildeten Parallelepipeds, eine Idee, die sich auch auf höhere Dimensionen verallgemeinern lässt. Wie die Determinante in Dimensionen $> 3$ berechnet wird, erfordert mehr Theorie und ist einem späteren Kapitel vorbehalten. Die Determinante der Einheitsmatrix ist (in jeder Dimension) gleich $1$.

Ohne Beweis erwähnen wir, dass stets $\det(AB)=\det(A)\det(B)$ gilt. Mit $\det(\mathbf{1})=1$ folgt daraus, dass die Determinante der Inversen einer Matrix gleich dem Kehrwert der Determinante ist: $\det(A^{-1})=\det(A)^{-1}$.

 
     

Regel von Sarrus


(in Vorbereitung)
Determinante




 
 
    
Transponierte Matrix


Manchmal ist es beim Rechnen mit Matrizen von Vorteil, aus einer gegebenen Matrix $A$ eine andere Matrix zu gewinnen, die durch Vertauschung der Zeilen- und Spaltennummern entsteht. Diese neue Matrix heißt die zu $A$ transponierte Matrix (kurz: die Transponierte von $A$) und wird mit $A^T$ (manchmal auch $A^t$) bezeichnet. Hier ein Beipiel:

$A=\left(\begin{array}{cc} 1 & -2\\ 4 & 0\\ 3 & 1 \end{array}\right) $,    daher    $A^T=\left(\begin{array}{ccc} 1 & 4 & 3\\ -2 & 0 & 1 \end{array}\right) $  .
$(32)$

Ohne Beweis erwähnen wir,
  • dass die Transponierte eines Produkts zweier Matrizen gleich dem Produkt der Transponierten in umgekehrter Reihenfolge ist: $(AB)^T=B^TA^T$,
  • dass für jede quadratische Matrix $\det(A^T)=\det(A)$ gilt,
  • und dass für jede invertierbare Matrix $(A^T)^{-1}=(A^{-1})^T$ gilt.
     
 
 
     Mit Hilfe der transponierten Matrix kann das Skalarprodukt zweier Spaltenvektoren $u$ und $v$ einfach in der Form (hier anhand eines dreidimensionalen Beispiels)

$u^T v=\left(\begin{array}{ccc} u_1 & u_2 & u_3 \end{array}\right)\left(\begin{array}{c} v_1 \\ v_2 \\ v_3 \end{array}\right)= u_1 v_1 + u_2 v_2 + u_3 v_3 $  
$(33)$

geschrieben werden.

 
     

Skalarprodukt
 
    
Geometrische Beispiele


Wie bisher ausführlich dargestellt, können Matrizen als Ausdruck linearer Abhängigkeiten betrachtet werden, also etwa $y_1$ und $y_2$ in Abhängigkeit von $x_1$ und $x_2$. Werden dann konkrete Werte für $x_1$ und $x_2$ vorgegeben, so können die Werte von $y_1$ und $y_2$ im Matrixformalismus in der Form $y=Ax$ berechnet werden. Dieser Sachverhalt kann auch als lineare Abbildung (Funktion, Zuordnung) interpretiert werden: Jedem zweidimensionalen Vektor $x$ (der ja nichts weiter als ein Zahlenpaar, also ein Element der Menge $\mathbb{R}^2$ ist) wird ein Vektor $y$ (also ebenfalls ein Zahlenpaar, d.h. ein Element von $\mathbb{R}^2$) zugeordnet:

\begin{eqnarray} A &:& \mathbb{R}^2\rightarrow \mathbb{R}^2\\ A &:& x\mapsto Ax \end{eqnarray}  .
$(34)$

Die Zuordnungsvorschrift (die "Funktion") bezeichnen wir der Einfachheit halber mit dem gleichen Buchstaben wie die Matrix, in diesem Beispiel also mit $A$. Ganz analog kann eine $n\times n$-Matrix als lineare Abbildung $\mathbb{R}^n\rightarrow \mathbb{R}^n$ verstanden werden (und eine $m\times n$-Matrix als lineare Abbildung $\mathbb{R}^n\rightarrow \mathbb{R}^m$).

Lineare Abbildungen zeichnen sich dadurch aus, dass sie Linearkombinationen "respektieren", d.h. dass für beliebige Vektoren $x$, $x'$ und beliebige Zahlen $a$, $a'$ stets

$A(ax+a'x')=aAx+a'Ax'$  
$(35)$

gilt – eine Eigenschaft, die beim korrekten Umgang mit Klammern beim Rechnen mit Matrizen automatisch berücksichtigt ist.

     





Funktion (Abbildung)


Zahlenpaar
 
     Wir beschränken uns im Folgenden auf $2\times 2$-Matrizen als Darstellungen linearer Abbildungen $\mathbb{R}^2\rightarrow \mathbb{R}^2$. Da ein Element des $\mathbb{R}^2$ als Punkt der Zeichenebene interpretiert werden kann, erhalten $2\times 2$-Matrizen auf diese Weise eine geometrische Bedeutung (ähnlich wie Vektoren als Pfeile interpretiert werden können). Wir wollen nun drei Typen von Abbildungen besprechen, die auf diese Weise durch Matrizen dargestellt werden können.

Eine der einfachsten linearen Abbildungen des $\mathbb{R}^2$ ist die Spiegegung an der $x_1$-Achse: Wird irgendein Punkt, dessen Ortsvektor durch

$x=\left(\begin{array}{c} x_1 \\ x_2 \end{array}\right)$  
$(36)$

gegeben ist, an der $x_1$-Achse gespiegelt, so ist der Ortsvektor des gespiegelten Punktes gleich

$x_{\sf gespiegelt}=\left(\begin{array}{c} x_1 \\ -x_2 \end{array}\right)$  .
$(37)$

Hier eine Skizze dieses Sachverhalts:


Die Abbildung $S$, die $x$ in $x_{\sf gespiegelt}$ überführt, die also $S:x\mapsto x_{\sf gespiegelt}$ bewirkt, ist linear. Sie wird durch die Matrix

$S=\left(\begin{array}{cc} 1 & 0 \\ 0 & -1 \end{array}\right)$  
$(38)$

dargestellt. Davon können Sie sich leicht selbst überzeugen:

$S\,x=\left(\begin{array}{cc} 1 & 0 \\ 0 & -1 \end{array}\right)\left(\begin{array}{c} x_1 \\ x_2 \end{array}\right)=\left(\begin{array}{c} x_1 \\ -x_2 \end{array}\right)=x_{\sf gespiegelt}$  .
$(39)$

     

R2
 
     Analog kann auch die Spiegelung an der $x_2$-Achse und, mit ein bisschen mehr Aufwand, Spiegelungen an beliebigen durch den Ursprung verlaufenden Geraden mit Hilfe von Matrizen dargestellt werden (siehe den nebenstehenden Button).

Ein weiterer Typ von linearen Abbildungen sind die Projektionen. Stellen wir uns vor, in der Zeichenebene scheint die Sonne von "oben", so dass jeder Punkt, der "oberhalb" der $x_1$-Achse liegt, einen "Schatten" auf diese Achse wirft. Ist $x$ der Orstvektor des gegebenen Punktes, so wird $x_{\sf projiziert}$ erhalten, indem die $x_1$-Koordinate belassen und die $x_2$-Koordinate gleich $0$ gesetzt wird. Diese Regel wollen wir für alle Punkte der Zeichenebene vereinbaren, also auch für jene, die "unterhalb" der $x_1$-Achse liegen. Damit ist ein Beispiel einer Projektion definiert.

Hier eine Skizze dieses Sachverhalts:


Die Abbildung $P:x\mapsto x_{\sf projiziert}$ ist ebenfalls linear, und ihre Matrix ist durch

$P=\left(\begin{array}{cc} 1 & 0 \\ 0 & 0 \end{array}\right)$  
$(40)$

gegeben, denn es gilt

$P\,x=\left(\begin{array}{cc} 1 & 0 \\ 0 &0 \end{array}\right)\left(\begin{array}{c} x_1 \\ x_2 \end{array}\right)=\left(\begin{array}{c} x_1 \\ 0 \end{array}\right)=x_{\sf projiziert}$  .
$(41)$

Für diese Matrix gilt $P^2=P$ (rechnen Sie nach!), was einfach aussagt, dass die zweifache Anwendung einer Projektion nichts anderes bewirkt als die einfache (oder, bildlich gesprochen, dass der Schatten eines Schattens der Schatten selbst ist).

Schließlich sind auch Drehungen (Rotationen) um den Ursprung lineare Abbldungen und können daher durch Matrizen dargestellt werden. Die Matrix einer Drehung im Gegenuhrzeigersinn um den Winkel ist $\alpha$ durch

$R=\left(\begin{array}{cc} \cos\alpha & -\sin\alpha \\ \sin\alpha & \cos\alpha \end{array}\right)$  
$(42)$

     

an einer beliebigen
Geraden
 
     gegeben. Jeder beliebige Vektor $x$ wird durch $R:x\mapsto R\,x = x_{\sf gedreht}$ in den entsprechend gedrehten Vektor übergeführt, wie die Skizze illustriert:


Es ist ganz leicht, zu überprüfen, dass der Vektor $\left(\begin{array}{c}1\\0\end{array}\right)$ durch (42) tatsächlich in einen um den Winkel $\alpha$ gedrehten Vektor übergeführt wird. (Für den Beweis, dass $R$ alle Vektoren in der gewünschten Weise dreht, siehe den nebenstehenden Button).

 
     

um einen
gegebenen Winkel

 
 
    
Komplexe Matrizen


Matrizen können durchaus auch komplexe Zahlen als Komponenten enthalten. Alle Strukturen und Operationen sehen dann ganz genauso aus und funktionieren ganz gleich wir bisher besprochen, wenn $\mathbb{C}^n$ anstelle von $\mathbb{R}^n$ geschrieben wird. Lediglich die geometrische Interpretation von Vektoren ist dann nicht mehr in der gleichen Weise möglich, und das Skalarprodukt (33) wird üblicherweise nicht für komplexe Vektoren verwendet, sondern durch das so genannte innere Produkt $u^\dagger v$ ersetzt, wobei $u^\dagger$ aus $u^T$ entsteht, indem alle Komponenten komplex konjugiert werden. Generell kann für jede komplexe Matrix die adjungierte (auch hermitisch konjugierte) Matrix

$A^\dagger =(A^T)^*$  
$(43)$

(ausgesprochen "$A$ dagger", von engl. dagger = Dolch) definiert werden. Für reelle Matrizen gilt natürlich $A^\dagger=A^T$.

 
     





komplexe Zahlen


komplex konjugiert
 
    
Matrizen und lineare Gleichungssysteme
     
Zum Seitenanfang
 
    

     
 
 
    
Lineare Gleichungssysteme in Matrixform


Den linearen Gleichungssystemen, ihrer geometrischen Interpretation, Lösungsverfahren und Lösungsfällen ist im Kapitel über Gleichungssystem breiter Raum gewidmet. Sie sollten die dort besprochenen Sachverhalte zumindest in Grundzügen kennen. Wir werden im Folgenden nur jene Aspekte besprechen, die durch die Verwendung von Matrizen hinzu kommen.

Bisher haben wir in diesem Kapitel mit dem Begriff "linear" immer "linear-homogen" gemeint, Ab jetzt müssen wir genauer zwischen den Begriffen "linear-homogen" und "linear-inhomogen" unterscheiden. Als "lineares Gleichungssystem" von $m$ Gleichungen in $n$ Variablen $x_1$, $x_2$,... $x_n$ verstehen wir ein Gleichungssystem der Form

\begin{eqnarray} A_{11}x_1 + A_{12}x_2+\dots+A_{1n}x_n&=&c_1\\ A_{21}x_1 + A_{22}x_2+\dots+A_{2n}x_n&=&c_2\\ .....................\\ A_{m1}x_1 + A_{m2}x_2+\dots+A_{mn}x_n&=&c_m\\ \end{eqnarray}  
$(44)$

Dabei sind die Koeffizienzen $A_{jk}$ und die Zahlen $c_j$ gegeben. Sind alle $c_j=0$, so nennen wir das System homogen, andernfalls heißt es inhomogen.

Wir können ein solches Gleichungssystem sofort in Matrixschreibweise bringen, indem wir die $A_{jk}$ zu einer $m\times n$-Matrix $A$ zusammenfassen und

$x=\left(\begin{array}{c} x_1\\ x_2\\ \vdots\\ x_n \end{array}\right) {\sf,}\qquad c=\left(\begin{array}{c} c_1\\ c_2\\ \vdots\\ c_m \end{array}\right) $  
$(45)$

definieren. Es lautet dann kurz und bündig

$Ax=c$  .
$(46)$

     





Gleichungssysteme
 
     Das Problem besteht darin, die Lösungsmenge, d.h. die Menge aller Vektoren $x$, die (46) erfüllen, zu bestimmen. Von besonderem Interesse ist die Frage, wann es überhaupt eine Lösung gibt, wann es genau eine Lösung gibt und wann es unendlich viele Lösungen gibt. (Wie im Kapitel über Gleichungssysteme besprochen, sind das die Lösungsfälle, die auftreten können).

Wir werden uns bei der Diskussion dieser Fragen auf den Fall $m=n$ beschränken, d.h. auf den Fall, dass es gleich viele Variable wie Gleichungen gibt (oder, anders ausgedrückt, dass die Matrix $A$ quadratisch ist).

Wir betrachten also ein lineares Gleichungssystem der Form (46), wobei $A$ eine $n\times n$-Matrix ist. Ist $c\neq 0$, so ist das Gleichungssystem inhomogen, und dann nennen wir

$Ax=0$  
$(47)$

das zugehörige homogene Gleichungssystem.

     

Lösungsfälle
 
     Um ein lineares Gleichungssystem rechnerisch zu lösen, gibt es eine Reihe von Methoden. Wenden wir sie an, so finden wir einen von drei grundsätzlichen Lösungsfällen:
  • Am Ende ergibt sich eine eindeutige Lösung $x$.
  • Es ergibt sich ein Widerspruch (etwa $0=1$). In diesem Fall besitzt das Gleichungssystem keine Lösung.
  • Am Ende bleiben eine oder mehrere Beziehungen zwischen den Variablen übrig. In zwei Dimensionen kann eine solche Beziehung als Geradengleichung interpretiert werden, in drei Dimensionen als Ebenengleichung. In einem solchen Fall besitzt das Gleichungssystem unendlich viele Lösungen (die in zwei Dimensionen eine Gerade, in drei Dimensionen eine Gerade oder eine Ebene bilden). Ein Extremfall ergibt sich, falls $A=0$ und $c=0$ ist. In diesem Fall gibt es überhaupt keine nichttriviale Gleichung, so dass jeder Vektor $x$ Lösung ist.
Wie es nun weitergeht, hängt davon ab, ob die Matrix $A$ invertierbar ist.

 
     

lineare
Gleichungssysteme
rechnerisch lösen
 
    
Wenn $A$ invertierbar ist – und wie die Inverse berechnet werden kann


Ist die Matrix $A$ invertierbar, so hilft das Konzept der inversen Matrix, das lineare Gleichungssystem (46) mit einem Schlag zu lösen:

Satz: Ist $A$ invertierbar, d.h. gilt $\det(A)\neq 0$, so besitzt das Gleichungssystem $Ax=c$ genau eine Lösung, nämlich $x=A^{-1}c$.
Beweis: Ist $A$ invertierbar, so können wir beiden Seiten der (Matrix-)Gleichung $Ax=c$ von links mit $A^{-1}$ multiplizieren und erhalten $A^{-1}Ax=A^{-1}c$. Da $A^{-1}A=\mathbf{1}$ gilt und stets $\mathbf{1}x=x$ ist, folgt $x=A^{-1}c$. Damit ist die (eindeutige) Lösung gefunden.
Wenn wir also die Inverse $A^{-1}$ kennen, so erhalten wir die Lösung ohne großen Aufwand, indem einfach $A^{-1}$ mit $c$ multipliziert wird! Für den homogenen Fall ($c=0$) folgt daraus sofort, dass (46) nur die triviale Lösung $x=0$ besitzt.

Aber wie berechnen wir die Inverse? In der Praxis
  • wird die Inverse einer $2\times 2$-Matrix mit Hilfe der einfachen Formel (26) berechnet,
  • die Inverse einer höherdimensionalen Matrix am Computer (wir werden weiter unten ein paar Computerwerkzeuge vorstellen).
     
 
 
     Es ist aber für das Verständnis nützlich, zu wissen, wie die Inverse im Prinzip auch "händisch" ermittelt werden kann. Wir haben alle Voraussetzungen dafür bereits kennen gelernt. Es gibt einige Algorithmen zur Berechnung der Inversen, die aber alle auf die gleiche Grundidee hinauslaufen: Lösen Sie das Gleichungssystem $Ax=c$ mit Ihrer Lieblingsmethode (im Kapitel über Gleichungssysteme wurden das Eliminationsverfahren und das Substitutionsverfahren besprochen), belassen dabei aber den Vektor $c$ ganz allgemein, ohne konkrete Zahlen als Komponenten für ihn anzunehmen. Wie auch immer Sie es im Detail machen – am Ende ergeben sich Lösungsformeln für die Komponenten der (eindeutig bestimmten) Lösung $x$. Diese haben die Form einer linearen Abhängigkeit, aus der unmittelbar die Komponenten von $A^{-1}$ abgelesen werden können. Damit wurde nichts anderes gemacht als die lineare Abhängigkeit $c=Ax$ zu $x=A^{-1}c$ umzukehren!

Wir demonstrieren das anhand eines Beispiels in zwei Dimensionen: Gegeben sei die Matrix

$A=\left(\begin{array}{cc} 3 & 2 \\ 5 & -4 \end{array}\right)$  .
$(48)$

Wir lösen das Gleichungssystem

\begin{eqnarray} 3x_1+2x_2&=&c_1\\ 5x_1-4x_2 &=&c_2 \end{eqnarray}  
$(49)$

mit dem Substitutionsverfahren: Aus der ersten Gleichung folgt $x_2=-{3\over 2}x_1+{1\over 2}c_1$. Dies wird in die zweite Gleichung eingesetzt, womit sich $5x_1-4\left(-{3\over 2}x_1+{1\over 2}c_1\right) = c_2$ ergibt. Diese Gleichung kann sofort nach $x_1$ gelöst werden, und mit dem Ergebnis können wir $x_2$ bestimmen. Die Lösung lautet

\begin{eqnarray} x_1&=&{2\over 11}c_1+{1\over 11}c_2\\ x_2 &=&{5\over 12}c_1-{3\over 33}c_2 \end{eqnarray}  .
$(50)$

     

Eliminations-
verfahren



Substitutions-
verfahren
 
     Damit können die Kompoonenten der Inversen abgelesen werden:

$A^{-1}=\left(\begin{array}{cc} {2\over 11} & {1\over 11} \\ {5\over 22} & -{3\over 22} \end{array}\right)\,\,\equiv\,\,{1\over 22}\left(\begin{array}{cc} 4 & 2 \\ 5 & -3 \end{array}\right)$  ,
$(51)$

wobei wir als letzten Schritt noch eine kleine Vereinfachung vorgenommen haben. Überprüfen Sie, ob Sie mit Formel (26) zum gleichen Ergebnis gelangen!

Mit der gleichen Methode kann die Formel (26) für die Inverse einer (invertierbaren) $2\times 2$-Matrix ganz allgemein hergeleitet werden (siehe den nebenstehenden Button). In höheren Dimensionen funktioniert die Ermittlung der Inversen im Prinzip genauso, ist aber entsprechend aufwändiger (und fehleranfälliger – weshalb wir die Berechnung in diesen Fällen besser dem Computer übergeben).

 
     

einer 2×2-Matrix


 
 
    
Wenn $A$ nicht invertierbar ist: homogener Fall


Ist die $n\times n$-Matrix $A$ nicht invertierbar, so müssen wir zwischen dem homogenen und dem inhomogenen Fall unterscheiden: Zunächst der homogene Fall:

Satz: Ist $A$ nicht invertierbar, d.h. gilt $\det(A)=0$, so besitzt das Gleichungssystem $Ax=0$ unendlich viele Lösungen.
Beweis(idee): Nach unserer Definition der Invertierbarkeit ist eine Matrix $A$ invertierbar, wenn die lineare Abhängigkeit $y=Ax$ "umgekehrt" werden kann, d.h. wenn es für jedes $y\in\mathbb{R}^n$ genau ein $x\in\mathbb{R}^n$ gibt, für das $y=Ax$ gilt. Es sind nun zwei Gründe dafür denkbar, dass das nicht der Fall ist, d.h. dass $A$ nicht invertierbar ist: Entweder es gibt für ein $y$ mehrere solche $x$ oder es gibt gar keines.
  • Im ersten Fall genügen uns zwei verschiedene Vektoren $x'$ und $x''$, für die $y=Ax'$ und $y=Ax''$ gilt. Es gilt dann $Ax'=Ax''$, woraus $A(x'-x'')=0$ folgt, womit eine Lösung $x=x'-x''\neq 0$ des Gleichungssystems $Ax=0$ gefunden ist. Dann ist aber auch jedes Vielfache von $x$ eine Lösung, womit unendlich viele Lösungen gefunden sind.
  • Der zweiten Fall bedeutet, dass es ein $y$ gibt, das überhaupt nicht in der Form $y=Ax$ geschrieben werden kann. Das impliziert, dass die Menge aller Vektoren der Form $Ax$ nicht der ganze $\mathbb{R}^n$ ist, sondern nur eine Teilmenge dieses Raumes. Nun lässt sich (mit Methoden, die uns hier nicht zur Verfügung stehen) zeigen, dass es auch in diesem Fall verschiedene Vektoren $x'$ und $x''$ gibt, für die $Ax'=Ax''$ gilt. Der Grund dafür liegt, bildlich gesprochen, darin, dass $A$ den ganzen $\mathbb{R}^n$ auf eine Teilmenge des $\mathbb{R}^n$ (niedrigerer Dimension) abbbildet, und dass in dieser Teilmenge "nicht genug Platz" dafür ist, dass alle $Ax$ voneinander verschieden wären.

    Anmerkung: Diese Aussage kann auch so formuliert werden: Eine lineare Abbildung $A:\mathbb{R}^n\rightarrow\mathbb{R}^n$ ist entweder gleichzeitig injektiv, surjektiv und bijektiv (dann ist sie invertierbar) oder keins davon. Aber Achtung: Diese besondere Eigenschaft gilt für lineare Abbildungen – sie kann nicht auf Abbildungen generell übertragen werden!
     

injektiv, surjektiv,
bijektiv

 
 
     Tatsächlich treten bei nicht-invertierbaren Matrizen immer beide in der obigen Argumentation genannten Fälle gleichzeitig auf: Ist $A$ eine nicht.invertierbare $n\times n$-Matrix,
  • so gibt es verschiedene Vektoren im $\mathbb{R}^n$, die durch $A$ auf das gleiche Element abgebildet werden (was bedeutet, dass $A$ nicht injektiv ist), und daher gibt es unendlich viele Lösungen des Gleichungssystems $Ax=0$,
  • und es gibt Vektoren im $\mathbb{R}^n$, die in der Menge aller $Ax$ (d.h. im Bild von $A$) nicht vorkommen (was bedeutet, dass $A$ nicht surjektiv ist).
Die Lösungsmenge eines homogenen linearen Gleichungssystems $Ax=0$ besitzt die Eigenschaft, dass jede Linearkombination von Lösungen wieder eine Lösung ist. Sind $\hat{x}$ und $\tilde{x}$ Lösungen, d.h. gilt $A\hat{x}=0$ und $A\tilde{x}=0$, so ist beispielsweise auch $3\hat{x}-5\tilde{x}$ eine Lösung, da

$A(3\hat{x}-5\tilde{x})=3\,\underbrace{A\hat{x}}_{\large 0}-5\,\underbrace{A\tilde{x}}_{\large 0}=0$.

Und falls $A$ nicht invertierbar ist, so besteht die Lösungsmenge gemäß dem obigen Satz aus unendlich vielen Elementen. Damit lassen sich einige grundsätzliche Aussagen machen:
  • Im $\mathbb{R}^2$ gibt es nur zwei Typen von Mengen, die alle diese Eigenschaften besitzen: Geraden durch den Ursprung und den $\mathbb{R}^2$ selbst.
  • Im $\mathbb{R}^3$ gibt es nur drei Typen von Mengen, die alle diese Eigenschaften besitzen: Geraden durch den Ursprung, Ebenen, in denen der Ursprung liegt, und den $\mathbb{R}^3$ selbst.
  • In einem höher-dimensionalen $\mathbb{R}^n$ können wir uns die Verhältnisse nicht mehr bildlich vorstellen, aber im Prinzip gibt es auch dort mehrere (nämlich $n$) Typen derartiger Mengen.
All diese Mengen können als Lösungsmengen homogener linearer Gleichungssysteme mit nicht invertierbarer Matrix auftreten.

 
     




Bild (Wertebereich)
 
    
Wenn $A$ nicht invertierbar ist: inhomogener Fall


Nun kommen wir zum inhomogenen Fall, d.h. zu Gleichungssystemen der Form $Ax=c$ mit $c\neq 0$ und nicht invertierbarer Matrix $A$.

Da kann einerseits der Fall eintreten, dass es überhaupt keine Lösung gibt: Wir wissen ja bereits, dass es Vektoren gibt, die in der Menge der $Ax$ nicht vorkommen. Ist $c$ ein solcher Vektor, so besitzt das Gleichungssystem $Ax=c$ keine Lösung. Rechnerisch zeigt sich das daran, dass beim Versuch, es zu lösen, ein Widerspruch auftritt.

Andererseits kann der Fall eintreten dass die Lösungsmenge nicht-leer ist, und dann gibt es gleich unendlich viele Lösungen. Eine genauere Aussage erhalten wir mit einem Trick: Bezeichnen wir mit $x_{\sf inh}$ irgend eine Lösung des inhomogenen Gleichungssystems. Ist dann $x_{\sf hom}$ eine Lösung des zugehörigen homogenen Gleichungssystems, d.h. gilt $Ax_{\sf hom}=0$, so ist $x_{\sf inh} + x_{\sf hom}$ eine weitere Lösung des inhomogenen Gleichungssystems:

$A(x_{\sf inh} + x_{\sf hom})=\underbrace{Ax_{\sf inh}}_{\Large c} + \underbrace{Ax_{\sf hom}}_{\large 0} = c\,$  .
$(52)$

Damit haben wir schon unendlich viele Lösungen des inhomogenen Gleichungssystems gefunden. Zum Abschluss zeigen wir, dass wir damit auch schon alle gefunden haben: Ist $x_{{\sf inh},2}$ irgendeine Lösung des inhomogenen Gleichungssystems, so gilt

$A(x_{\sf inh} - x_{{\sf inh},2})=\underbrace{Ax_{\sf inh}}_{\Large c} - \underbrace{Ax_{{\sf inh}_2}}_{\Large c} = 0\,{\sf\small,}$  
$(53)$

was nichts anderes besagt, als dass die Differenz $x_{\sf inh} - x_{{\sf inh},2}$ eine Lösung des homogenen Gleichungssystems ist. Daher ist

$x_{{\sf inh},2} = x_{\sf inh} +$ eine Lösung des homogenen Gleichungssystems

und damit von der Form $x_{\sf inh} + x_{\sf hom}$. Fassen wir diese Erkenntnisse zusammen:

Satz: Ist die Lösungsmenge des inhomogenen linearen Gleichungssystems $Ax=c$ nicht-leer, und ist $x_{\sf inh}$ eine spezielle (festgehaltene) Lösung, so besteht die Lösungsmenge aus allen Vektoren der Form

$x = x_{\sf inh} + x_{\sf hom}\,$,

wobei $x_{\sf hom}$ eine Lösung des zugehörigen homogenen Gleichungssystems ist.

Der Satz gilt ganz allgemein, so wie er formuliert ist – im gegenwärtigen Zusammenhang ist er insbesondere für $c\neq 0$ und $A$ nicht-invertierbar interessant. Geometrisch kann die Lösungsmenge eines solchen Gleichungssystems als "verschobene" Variante der Lösungsmenge des zugehörigen homogenen Gleichungssystems gedeutet werden, wie diese schematische Skizze illustriert:


Konkret handelt es sich dabei
  • im $\mathbb{R}^2$ um Geraden, die nicht durch den Ursprung gehen
  • und im $\mathbb{R}^3$ um Geraden, die nicht durch den Ursprung gehen, oder um Ebenen, auf denen der Ursprung nicht liegt,
also um genau die Mengen, die bereits im Kapitel über Gleichungssysteme als geometrische Deutungen der Lösungsmengen identifiziert wurden.

 
     

lineare
Gleichungssysteme
geometrisch
interpretieren

 
 
    
Rang einer Matrix


Wann immer die Lösungsmenge eines homogenen linearen Gleichungssystems unendlich viele Elemente besitzt, kann sie als "gerades" (oder "lineares") Gebilde, auf dem der Ursprung liegt, interpretiert werden – also als Gerade, als Ebene oder als entsprechende höherdimensionale Menge. Ganz allgemein kann jede solche Lösungsmenge durch eine Dimension charakterisiert werden. (Geraden sind 1-dimensional, Ebenen sind 2-dimensional, ...). Können wir über diese Dimension im Rahmen der allgemeinen Theorie genauere Ausagen machen?

Ist $A$ eine $n\times n$-Matrix, so hängt die Dimension der Lösungsmenge des Gleichungssystems $Ax=0$ nur von $A$ ab. Als den Rang der Matrix $A$ bezeichnen wir die Differenz

$n-$ Dimension der Lösungsmenge$\,$.

Er ist – ein bisschen salopp formuliert – gleich der Anzahl der Spalten (oder Zeilen) von $A$, die nicht als Linearkombinationen anderer Spalten (oder Zeilen) ausgedrückt werden können. Ist er bekannt, so ist die Dimension der Lösungsmenge gleich der Differenz $n-$ Rang der Matrix.

Spezialfälle sind:
  • Eine $n\times n$-Matrix ist genau dann invertierbar, wenn ihr Rang gleich $n$ ist.
  • Die einzige $n\times n$-Matrix, deren Rang gleich $0$ ist, ist die $n\times n$-Nullmatrix.
Der Rang von $A$ ist gleich der so genannten Kodimension der Lösungsmenge (d.h. der Zahl, die "der Dimension der Lösungsmenge auf die Dimension des ganzen Raums fehlt").





Damit haben wir die wichtigsten Fakten über Lösungsfälle und Lösungsmengen linearer Gleichungssysteme in der Sprache der Matrizenrechnung ausgedrückt. Sie zeigen, dass das Konzept der Matrix ein ziemlich mächtiges ist, und sie können sowohl bei theoretischen Fragestellungen als auch beim konkreten Rechnen helfen.

 
     
 
 
    
Matrizenrechnen mit dem Computer
     
Zum Seitenanfang
 
    

Zum Abschluss wollen wir nicht unerwähnt lassen, dass für Berechnungen mit Matrizen (also Matrizen miteinander multiplizieren, die Determinante, die Inverse und den Rang einer Matrix berechnen und – als Anwendung – lineare Gleichungssysteme lösen) zahlreiche elektronischer Tools zur Verfügung stehen. Einige derartige Berechnungen können mit unserem Tool

Online-Rechnen mit Mathematica

durchgeführt werden:
  • Wählen Sie die Kategorie "Matrizen"!
  • Eine Matrix muss als Liste ihrer Zeilen eingegeben werden, wobei jede Zeile wieder eine Liste ist (also insgesamt als Liste von Listen, jeweils mit geschwungenen Klammern angegeben). Beispielsweise wird die Matrix $$\left(\begin{array}{cc} 1 & 2\\ 3 & 4 \end{array}\right)$$ in der Form {{1,2},{3,4}} eingegeben. Die Ausgabe von Matrizen erfolgt ebenfalls in dieser Form. Matrizen können beliebige Dimension haben, und ihre Komponenten können sowohl Zahlen als auch Terme sein.
  • Die Matrizenmultiplikation wird mit einem Punkt eingegeben. Wollen Sie etwa die obige Matrix mit $$\left(\begin{array}{cc} 5 & 6\\ 7 & 8 \end{array}\right)$$ multiplizieren, so geben Sie {{1,2},{3,4}}.{{5,6},{7,8}} ein und klicken (ohne eine Operation ausgewählt zu haben) auf "Ausführen". Wichtig ist, dass der Punkt nicht weggelassen wird, denn sonst multipliziert Mathematica einfach die Listenelemente, die an den gleichen Positionen stehen!
  • Achtung: Das soeben Gesagte gilt auch für Potenzen von Matrizen. Sie müssen sie beispielsweise in der Form {{1,2},{3,4}}.{{1,2},{3,4}} eingeben. Fehlt der Punkt, so quadriert Mathematica lediglich die einzelnen Zahlen.
  • Linearkombinationen von Matrizen (also auch Vielfache und Summen) schreiben Sie einfach wie (beispielsweise) 9{{1,2},{3,4}}+10{{5,6},{7,8}}.
  • Um Operationen mit einer einzelnen Matrix auszuführen, geben Sie diese ein, wählen die gewünschte Operation aus und klicken auf "Ausführen". Neben den in diesem Kapitel besprochenen sind noch einige weitere Operationen möglich, die Sie bei Bedarf ebenfalls benutzen können. Hiervon seien nur zwei erwähnt:
    • Die Spur einer quadratischen Matrix ist die Summe ihrer Diagonalelemente (also $A_{11}+A_{22}+\dots+A_{nn}$).
    • Der Nullraum einer Matrix $A$ ist der Lösungsraum des homogenen linearen Gleichungssystems $Ax=0$. Mathematica gibt eine Liste von Vektoren (ebenfalls jeweils als Liste geschrieben) aus, die – als Spaltenvektoren interpretiert – alle $Ax=0$ erfüllen, und deren Linearkombinationen die Lösungsmenge bilden.
  • Mathematica rechnet zunächst symbolisch und verwandelt rationale Zahlen wie $1/7$ nicht automatisch in Dezimalzahlen um. Wollen Sie die numerische Version eines Ergebnisses sehen (die dann unter Umständen nur näherungsweise gilt), so klicken Sie auf "Resultat zur weiteren Bearbeitung als neue Eingabe übernehmen", wählen die Kategorie "Zahlen", die Operation "numerischer Wert" und klicken aus "Ausführen".
Unter den anderen am Web zur Verfügung stehenden Tools seien zwei Online-Rechner von RECHNERonline genannt. Der

Rechner für Matrizen

erlaubt es, recht bequem mit Matrizen (einschließlich Vektoren) bis zur Dimension $5\times 5$ zu rechnen. Der

Rechner für Lineare Gleichungssysteme

kann lineare Gleichungssysteme, die in Matrizenform gegeben sind, numerisch (also näherungsweise) lösen. Dazu müssen Sie die so genannte erweiterte Koeffizientenmatrix eingeben. Lautet das Gleichungssystem $Ax=c$, so entsteht diese, indem $c$ als zusätzliche Spalte zu $A$ hinzugefügt wird. Beispielsweise ist sie für

$A = \left(\begin{array}{cc} 1 & -2\\ 4 & 0 \end{array}\right)\quad$ und $\quad c = \left(\begin{array}{c} 3\\ 8 \end{array}\right)$

durch

$\left(\begin{array}{cc} 1 & -2 & 3\\ 4 & 0 & 8 \end{array}\right)$

gegeben. Diese beiden Rechner stehen miteinander in Verbindung, d.h. es können Berechnungsergebnisse jeweils in den anderen übernommen werden, und die Genauigkeit (Zahl der Nachkommastellen), in der die Ergebnisse angezeigt werden sollen, kann zwischen 0 und 12 frei gewählt werden.

 
     
 
 


 
Die in diesem Kapitel empfohlenen Web-Ressourcen:
 
Weitere Angebote von mathe online zum Thema:
Rechner für Matrizen
von RECHNERonline

Rechner für Lineare Gleichungssysteme
von RECHNERonline
Online-Rechnen mit Mathematica

Interaktive Tests zum Thema Matrizen

 Zum Seitenanfang
 Zum Lexikon
 Zur Galerie
 Zum Inhaltsverzeichnis der Mathematischen Hintergründe
 Zu den interaktiven Tests
 Zu den Mathe-Links und Online-Werkzeugen
 Zur Welcome Page