Wie wir in Lemma sehen können, ist für jede -Matrix die Abbildung mit eine lineare Abbildung.
Umgekehrt gibt es zu jeder linearen Abbildung eine passende -Matrix , für die ist. D. h., man kann sich als eine Multiplikation mit einer geeigneten Matrix vorstellen.
Der Identitätsabbildung auf entspricht die -Matrix also die Matrix, die auf der Diagonalen nur Einsen und sonst überall Nullen als Einträge hat. Diese Matrix heißt Einheitsmatrix.
Eine Multiplikation mit der Matrix beschreibt geometrisch eine Drehung des um den Ursprung mit dem Winkel gegen den Uhrzeigersinn.
Die zugehörige lineare Abbildung ist gegeben durch
Eine Multiplikation mit der Matrix beschreibt geometrisch eine Spiegelung der Punkte des an der 1. Winkelhalbierenden (die Gerade mit der Gleichung ). Die zugehörige lineare Abbildung ist gegeben durch
Drehungen und Spiegelungen sind also Beispiele für lineare Abbildungen.
Die Hintereinanderausführung zweier linearer Abbildungen entspricht der Multiplikation der zugehörigen Matrizen. Formal sauber(er): Seien und zwei lineare Abbildungen mit zugehörigen Matrizen bzw. ( ist eine -Matrix und ist eine -Matrix). Dann ist auch die Hintereinanderausführung eine lineare Abbildung mit . Die zu gehörende Matrix ist die -Matrix .
Wir betrachten ein System mit genau vier möglichen Zuständen , , und . Die vier Zustände können sich innerhalb einer festen Zeiteinheit verändern. Die Wahrscheinlichkeiten für diese Änderungen seien bekannt und im folgenden Diagramm dargestellt:
Daraus können wir die folgende Übergangsmatrix basteln: Ist nun ein Vektor mit den Wahrscheinlichkeiten, dass vor einer Änderung die Zustände , , , vorliegen (also gilt , so erhält man durch Matrixmultiplikation der Matrix (bei der die Summe der Einträge in jeder Spalte übrigens auch sein muss) mit dem Vektor den entsprechenden Vektor mit den Wahrscheinlichkeiten dafür, dass nach der Änderung die Zustände , , , vorliegen. So einen stochastischen Prozess, bei dem ein Zustand nur vom direkten Vorgängerzustand (und nicht von weiteren Faktoren, etwa weiter zurückliegenden Zuständen abhängt), nennt man (diskreten) Markov-Prozess.
Wir wollen nun wissen, wie die Wahrscheinlichkeiten nach Zustandsänderungen aussehen. Dazu berechnen wir
Und noch ein Beispiel:
Wir hatten gesehen, dass eine Drehung im um den Ursprung mit Winkel einer Multiplikation mit der Matrix entspricht und eine Spiegelung an der 1. Winkelhalbierenden einer Multiplikation mit der Matrix Wir wollen nun wissen, was mit dem Punkt geschieht, wenn er erst um gedreht und das Ergebnis dann an der Winkelhalbierenden gespiegelt wird. Dazu rechnen wir