Kurs:Mathematik für Anwender (Osnabrück 2011-2012)/Teil II/Vorlesung 41/latex

Aus Wikiversity

\setcounter{section}{41}






\zwischenueberschrift{Vielfachheiten und diagonalisierbare Abbildungen}





\inputfaktbeweis
{Endomorphismus/Diagonalisierbar/Algebraische und geometrische Vielfachheit/Fakt}
{Satz}
{}
{

\faktsituation {Es sei $K$ ein \definitionsverweis {Körper}{}{} und es sei $V$ ein \definitionsverweis {endlichdimensionaler}{}{} $K$-\definitionsverweis {Vektorraum}{}{.} Es sei \maabbdisp {\varphi} {V} {V } {} eine \definitionsverweis {lineare Abbildung}{}{.}}
\faktfolgerung {Dann ist $\varphi$ genau dann \definitionsverweis {diagonalisierbar}{}{,} wenn das \definitionsverweis {charakteristische Polynom}{}{} $\chi_{ \varphi }$ in \definitionsverweis {Linearfaktoren}{}{} zerfällt und wenn für jede Nullstelle $\lambda$ mit der algebraischen Vielfachheit $\mu_\lambda$ die Gleichheit
\mavergleichskettedisp
{\vergleichskette
{ \mu_\lambda }
{ =} { \operatorname{dim}_{ } { \left( \operatorname{Eig}_{ \lambda } { \left( \varphi \right) } \right) } }
{ } { }
{ } { }
{ } { }
} {}{}{} gilt.}
\faktzusatz {}
\faktzusatz {}

}
{

\teilbeweis {}{}{}
{Wenn $\varphi$ \definitionsverweis {diagonalisierbar}{}{} ist, so kann man sofort annehmen, dass $\varphi$ bezüglich einer Basis aus Eigenvektoren durch eine \definitionsverweis {Diagonalmatrix}{}{} beschrieben wird. Die Diagonaleinträge dieser Matrix sind die Eigenwerte, und diese wiederholen sich gemäß ihrer \definitionsverweis {geometrischen Vielfachheit}{}{.} Das \definitionsverweis {charakteristische Polynom}{}{} lässt sich auch direkt aus dieser Diagonalmatrix ablesen, jeder Diagonaleintrag $\lambda$ trägt als Linearfaktor
\mathl{X- \lambda}{} bei.}
{}

\teilbeweis {}{}{}
{Für die Umkehrung seien
\mathl{\lambda_1 , \ldots , \lambda_k}{} die verschiedenen Eigenwerte und
\mavergleichskettedisp
{\vergleichskette
{ \mu_i }
{ \defeq} { \mu_{\lambda_i}(\varphi) }
{ =} { \operatorname{dim}_{ } { \left( \operatorname{Eig}_{ \lambda_i } { \left( \varphi \right) } \right) } }
{ } { }
{ } { }
} {}{}{} seien die \zusatzklammer {geometrischen und algebraischen} {} {} Vielfachheiten. Da nach Voraussetzung das charakteristische Polynom in Linearfaktoren zerfällt, muss die Summe dieser Zahlen gleich
\mathl{n = \operatorname{dim}_{ } { \left( V \right) }}{} sein. Nach Fakt ***** ist die Summe der Eigenräume
\mavergleichskettedisp
{\vergleichskette
{ \operatorname{Eig}_{ \lambda_1 } { \left( \varphi \right) } \oplus \cdots \oplus \operatorname{Eig}_{ \lambda_k } { \left( \varphi \right) } }
{ \subseteq} { V }
{ } { }
{ } { }
{ } { }
} {}{}{} direkt. Nach Voraussetzung ist die Dimension links ebenfalls gleich $n$, so dass Gleichheit vorliegt. Nach Fakt ***** ist $\varphi$ diagonalisierbar.}
{}

}


Das Produkt von zwei Diagonalmatrizen ist natürlich wieder eine Diagonalmatrix. Das folgende Beispiel zeigt, dass das Produkt von diagonalisierbaren Matrizen nicht diagonalisierbar sein muss.


\inputbeispiel{}
{

Es seien \mathkor {} {G_1} {und} {G_2} {} zwei Geraden im $\R^2$ durch den Nullpunkt und es seien \mathkor {} {\varphi_1} {und} {\varphi_2} {} die Achsenspiegelungen an diesen Achsen. Eine Achsenspiegelung ist stets \definitionsverweis {diagonalisierbar}{}{,} und zwar sind die Spiegelungsachse und die dazu senkrechte Gerade Eigengeraden \zusatzklammer {zu den Eigenwerten $1$ und $-1$} {} {.} Die \definitionsverweis {Hintereinanderschaltung}{}{}
\mavergleichskettedisp
{\vergleichskette
{ \psi }
{ =} { \varphi_2 \circ \varphi_1 }
{ } { }
{ } { }
{ } { }
} {}{}{} dieser Spiegelungen ist eine \definitionsverweis {Drehung}{}{,} und zwar ist der Drehwinkel das Doppelte des Winkels zwischen den beiden Achsen. Eine Drehung ist aber nur dann diagonalisierbar, wenn der Drehwinkel \mathkor {} {0} {oder} {180} {} Grad beträgt. Wenn der Winkel zwischen den Achsen von
\mathl{0,90}{} Grad verschieden ist, so besitzt $\psi$ keinen Eigenvektor.


}






\zwischenueberschrift{Trigonalisierbare Abbildungen und jordansche Normalform}




\inputdefinition
{}
{

Es sei $K$ ein \definitionsverweis {Körper}{}{} und $V$ ein \definitionsverweis {endlichdimensionaler}{}{} $K$-\definitionsverweis {Vektor\-raum}{}{.} Eine \definitionsverweis {lineare Abbildung}{}{} \maabb {\varphi} {V} {V } {} heißt \definitionswort {trigonalisierbar}{,} wenn sie bezüglich einer geeigneten \definitionsverweis {Basis}{}{} durch eine \definitionsverweis {obere Dreiecksmatrix}{}{} beschrieben wird.

}

Diagonalisierbare lineare Abbildungen sind insbesondere trigonalisierbar. Die Umkehrung gilt nicht, wie [[{{{Beispielseitenname2}}}|Beispiel]] [[Kurs:Mathematik für Anwender (Osnabrück 2011-2012)/{{{Beispielseitenname2}}}/Beispielreferenznummer|*****]] zeigt.


\inputfaktbeweis
{Lineare Abbildung/Trigonalisierbar/Charakterisierung mit charakteristischem Polynom/Fakt}
{Satz}
{}
{

\faktsituation {Es sei $K$ ein \definitionsverweis {Körper}{}{} und es sei $V$ ein \definitionsverweis {endlichdimensionaler}{}{} $K$-\definitionsverweis {Vektorraum}{}{.} Es sei \maabbdisp {\varphi} {V} {V } {} eine \definitionsverweis {lineare Abbildung}{}{.}}
\faktuebergang {Dann sind folgende Aussagen äquivalent.}
\faktfolgerung {\aufzaehlungzwei {$\varphi$ ist \definitionsverweis {trigonalisierbar}{}{.} } {Das \definitionsverweis {charakteristische Polynom}{}{} $\chi_{ \varphi }$ zerfällt in \definitionsverweis {Linearfaktoren}{}{.} }}
\faktzusatz {Wenn $\varphi$ trigonalisierbar ist und bezüglich einer Basis durch die Matrix $M$ beschrieben wird, so gibt es eine \definitionsverweis {invertierbare Matrix}{}{}
\mavergleichskette
{\vergleichskette
{B }
{ \in }{ \operatorname{Mat}_{ n \times n } (K) }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} derart, dass
\mathl{BMB^{-1}}{} eine \definitionsverweis {obere Dreiecksmatrix}{}{} ist.}
\faktzusatz {}

}
{Wir beweisen nur die Richtung von (1) nach (2). Das charakteristische Polynom von $\varphi$ ist gleich dem charakteristischen Polynom $\chi_{ M }$, wobei $M$ eine beschreibende Matrix bezüglich einer beliebigen Basis ist. Wir können also annehmen, dass $M$ eine obere Dreiecksmatrix ist. Dann ist nach Lemma 11.8

das charakteristische Polynom das Produkt der Linearfaktoren zu den Diagonaleinträgen. Die Rückrichtung ist deutlich aufwändiger.}





\inputfaktbeweis
{Quadratische Matrizen/C/Trigonalisierbar/Fakt}
{Satz}
{}
{

\faktsituation {Es sei
\mavergleichskette
{\vergleichskette
{M }
{ \in }{\operatorname{Mat}_{ n \times n } ({\mathbb C}) }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} eine quadratische Matrix mit \definitionsverweis {komplexen}{}{} Einträgen.}
\faktfolgerung {Dann ist $M$ \definitionsverweis {trigonalisierbar}{}{.}}
\faktzusatz {}
\faktzusatz {}

}
{

Dies folgt aus Satz 41.4 und dem Fundamentalsatz der Algebra.

}





\inputbeispiel{}
{

Wir betrachten eine reelle $2 \times 2$-Matrix
\mavergleichskette
{\vergleichskette
{M }
{ = }{ \begin{pmatrix} a & b \\ c & d \end{pmatrix} }
{ }{ }
{ }{ }
{ }{ }
} {}{}{.} Das \definitionsverweis {charakteristische Polynom}{}{} ist
\mavergleichskettealign
{\vergleichskettealign
{ \chi_{ M } }
{ =} { \det { \left( x E_2 - M \right) } }
{ =} { \det \begin{pmatrix} x-a & -b \\ -c & x-d \end{pmatrix} }
{ =} { (x-a)(x-d)-bc }
{ =} { x^2 -(a+d)x +ad-bc }
} {
\vergleichskettefortsetzungalign
{ =} { { \left( x- { \frac{ a+d }{ 2 } } \right) }^2 - { \left( { \frac{ a+d }{ 2 } } \right) }^2 +ad-bc }
{ =} { { \left( x- { \frac{ a+d }{ 2 } } \right) }^2- { \left( { \frac{ a-d }{ 2 } } \right) }^2 -bc }
{ } {}
{ } {}
} {}{.} Dieses Polynom zerfällt in \zusatzklammer {reelle} {} {} Linearfaktoren genau dann, wenn
\mavergleichskette
{\vergleichskette
{ { \left( { \frac{ a-d }{ 2 } } \right) }^2 +bc }
{ \geq }{ 0 }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} ist. Genau in diesem Fall ist die Matrix nach Fakt ***** \definitionsverweis {trigonalisierbar}{}{.}


}




\inputdefinition
{}
{

Es sei $K$ ein \definitionsverweis {Körper}{}{} und
\mathl{\lambda \in K}{.} Unter einer \definitionswort {Jordanmatrix}{} \zusatzklammer {zum Eigenwert $\lambda$} {} {} versteht man eine quadratische Matrix der Form\zusatzfussnote {Manche Autoren verstehen unter einer Jordanmatrix eine Matrix, in der die Einsen unterhalb der Diagonalen stehen} {.} {}
\mathdisp {\begin{pmatrix} \lambda & 1 & 0 & \cdots & \cdots & 0 \\ 0 & \lambda & 1 & 0 & \cdots & 0 \\ \vdots & \ddots & \ddots& \ddots & \ddots & \vdots \\ 0 & \cdots & 0 & \lambda & 1 & 0 \\ 0 & \cdots & \cdots & 0 & \lambda & 1\\ 0 & \cdots & \cdots & \cdots & 0 & \lambda \end{pmatrix}} { . }

} Wenn man eine solche Jordanmatrix als lineare Abbildung $\varphi$ des Standardraumes $K^n$ in sich interpretiert, so ist
\mathdisp {\varphi(e_1)= \lambda e_1 \text{ und } \varphi(e_k)= \lambda e_k +e_{k-1} \text{ für alle } k \geq 2} { . }
Insbesondere ist $e_1$ ein Eigenvektor zum Eigenwert $\lambda$. Eine einfache Überlegung zeigt, dass es keine dazu linear unabhängigen Eigenvektoren geben kann \zusatzklammer {siehe Aufgabe 41.11} {} {.} Die Eigenschaft rechts ist äquivalent zur Bedingung\zusatzfussnote {Im Kontext der trigonalisierbaren Abbildungen und zum Auffinden der jordanschen Normalform ist es sinnvoll, mit \mathlk{\varphi- \lambda \cdot \operatorname{Id}}{} anstatt mit \mathlk{\lambda \cdot \operatorname{Id} - \varphi}{} zu arbeiten} {.} {}
\mathdisp {e_{k-1} = ( \varphi - \lambda \cdot \operatorname{Id})(e_k)} { }
für
\mathl{k \geq 2}{.} Als Eigenvektor ist $e_1$ ein erzeugendes Element des Kerns der Abbildung
\mathl{\psi \defeq \varphi - \lambda \operatorname{Id}}{,} und die anderen Standardvektoren $e_k$ ergeben sich sukzessive als Urbild von $e_{k-1}$ unter $\psi$. Diese Beobachtung liefert den Hintergrund für das weiter unten beschriebene Verfahren zum Aufstellen einer Jordanmatrix.




\inputdefinition
{}
{

Eine quadratische Matrix der Form
\mathdisp {\begin{pmatrix} J_1 & 0 & \cdots & \cdots & 0 \\ 0 & J_2 & 0 & \cdots & 0 \\ \vdots & \ddots & \ddots & \ddots & \vdots \\ 0 & \cdots & 0 & J_{k-1} & 0 \\ 0 & \cdots & \cdots & 0 & J_k \end{pmatrix}} { , }
wobei die $J_i$ \definitionsverweis {Jordanmatrizen}{}{} sind, heißt Matrix in \definitionswort {jordanscher Normalform}{.}

} Die dabei auftretenden Jordanmatrizen heißen Jordanblöcke der Matrix. Ihre Eigenwerte können verschieden oder gleich sein. In der Matrix
\mathdisp {\begin{pmatrix} 2 & 1 & 0 & 0 & 0 & 0 \\ 0 & 2 & 0 & 0 & 0 & 0 \\ 0 & 0 & 4& 1 & 0 & 0 \\ 0 & 0 & 0 & 4 & 1 & 0 \\ 0 & 0 & 0 & 0 & 4 & 0\\ 0 & 0 & 0 & 0 & 0 & 2 \end{pmatrix}} { }
gibt es drei Jordanblöcke, nämlich
\mathdisp {\begin{pmatrix} 2 & 1 \\ 0 & 2 \end{pmatrix} ,\, \begin{pmatrix} 4 & 1 & 0 \\ 0 & 4 & 1 \\0 & 0 & 4 \end{pmatrix} \text{ und } \begin{pmatrix} 2 \end{pmatrix}} { }
zu den Eigenwerten $2,4$ und nochmal $2$.




\inputdefinition
{}
{

Zwei quadratische Matrizen
\mavergleichskette
{\vergleichskette
{ M,N }
{ \in }{ \operatorname{Mat}_{ n } (K) }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} heißen \definitionswort {ähnlich}{,} wenn es eine \definitionsverweis {invertierbare Matrix}{}{} $B$ mit
\mavergleichskette
{\vergleichskette
{M }
{ = }{ B N B^{-1} }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} gibt.

}


\inputfaktbeweis
{Obere Dreiecksmatrix/Jordansche Normalform/Fakt}
{Satz}
{}
{

\faktsituation {Eine \definitionsverweis {obere Dreiecksmatrix}{}{}}
\faktfolgerung {ist \definitionsverweis {ähnlich}{}{} zu einer Matrix in \definitionsverweis {jordanscher Normalform}{}{.}}
\faktzusatz {}
\faktzusatz {}

}
{ Wir verzichten auf den recht aufwändigen Beweis. }

Diese Aussage kann man so interpretieren, dass es für eine trigonalisierbare lineare Abbildung $\varphi$ eine Basis gibt derart, dass $\varphi$ bezüglich dieser Basis durch eine Matrix in jordanscher Normalform beschrieben wird. Über den komplexen Zahlen kann man dies also stets erreichen.




\inputverfahren{}
{

Wir beschreiben, wie man zu einer linearen \definitionsverweis {trigonalisierbaren Abbildung}{}{} eine \definitionsverweis {Basis}{}{} findet, bezüglich der die \definitionsverweis {beschreibende Matrix}{}{} in \definitionsverweis {jordanscher Normalform}{}{} ist. Dazu bestimmt man zu jedem Eigenwert
\mathl{\lambda \in K}{} den minimalen Exponenten $s$ mit
\mavergleichskettedisp
{\vergleichskette
{ \operatorname{kern} { \left( \varphi- \lambda \operatorname{Id} \right) }^s }
{ =} { \operatorname{kern} { \left( \varphi- \lambda \operatorname{Id} \right) }^{s+1} }
{ } { }
{ } { }
{ } { }
} {}{}{} und setzt
\mavergleichskettedisp
{\vergleichskette
{ V_i }
{ =} { \operatorname{kern} { \left( \varphi- \lambda \operatorname{Id} \right) }^{i} }
{ } { }
{ } { }
{ } { }
} {}{}{} für
\mathl{i=1 , \ldots , s}{.} Dies ergibt eine Kette
\mavergleichskettedisp
{\vergleichskette
{V_1 }
{ =} { \operatorname{Eig}_{ } { \left( \lambda \right) } }
{ \subseteq} {V_2 }
{ \subset \cdots \subset} {V_{s-1} }
{ \subset} {V_s }
} {
\vergleichskettefortsetzung
{ =} { \operatorname{Haupt}_{ \lambda } (\varphi) }
{ } {}
{ } {}
{ } {}
}{}{.} Man wählt nun aus
\mathl{V_{s} \setminus V_{s-1}}{} einen Vektor $u$. Die Vektoren
\mathdisp {u, (\varphi- \lambda \operatorname{Id})(u), (\varphi- \lambda \operatorname{Id})^2(u) , \ldots , (\varphi- \lambda \operatorname{Id})^{s-1}(u)} { }
bilden eine Basis für einen Jordan-Block. Wenn diese Basis schon den ganzen Hauptraum abdeckt, ist man fertig. Andernfalls sucht man in
\mathl{V_{s} \setminus V_{s-1}}{} einen weiteren, zu $u$ und $V_{s-1}$ linear unabhängigen Vektor und nimmt wieder sämtliche sukzessiven Bilder hinzu. Wenn
\mathl{V_s \setminus V_{s-1}}{} ausgeschöpft ist, schaut man, ob
\mathl{V_{s-1} \setminus V_{s-2}}{} bereits abgedeckt ist, u.s.w. Wenn der Hauptraum zu $\lambda$ ausgeschöpft ist, macht man mit dem nächsten Eigenwert weiter.

Unter gewissen Umständen kann man auch mit einer Basis des Eigenraumes anfangen. Wenn beispielsweise der Eigenraum zu $\lambda$ eindimensional ist, so kann man einen Eigenvektor $v$ zu $\lambda$ wählen und dazu sukzessive Urbilder unter $\varphi - \lambda \operatorname{Id}_{ V }$ finden, also
\mavergleichskettedisp
{\vergleichskette
{v }
{ =} { { \left( \varphi - \lambda \operatorname{Id}_{ V } \right) } (v') }
{ } { }
{ } { }
{ } { }
} {}{}{} lösen, dann
\mavergleichskettedisp
{\vergleichskette
{v' }
{ =} { { \left( \varphi - \lambda \operatorname{Id}_{ V } \right) } (v) }
{ } { }
{ } { }
{ } { }
} {}{}{} u.s.w.

Wenn beispielsweise der Eigenraum $k$-dimensional und der Hauptraum $(k+1)$-dimensional, so muss man nur für einen Eigenvektor ein Urbild unter
\mathl{\varphi - \lambda \operatorname{Id}_{ V }}{} finden.

}




\inputbeispiel{}
{

Wir betrachten die Matrix
\mavergleichskettedisp
{\vergleichskette
{M }
{ =} { \begin{pmatrix} 2 & 2 & 1 \\ 0 & 2 & 3 \\0 & 0 & 2 \end{pmatrix} }
{ } { }
{ } { }
{ } { }
} {}{}{} und wollen sie auf \definitionsverweis {jordansche Normalform}{}{} bringen. Es ist
\mavergleichskette
{\vergleichskette
{u }
{ = }{e_1 }
{ = }{ \begin{pmatrix} 1 \\0\\ 0 \end{pmatrix} }
{ }{ }
{ }{ }
} {}{}{} ein Eigenvektor zum Eigenwert $2$. Es ist
\mavergleichskettedisp
{\vergleichskette
{ A }
{ \defeq} { M- 2 E_3 }
{ =} { \begin{pmatrix} 0 & 2 & 1 \\ 0 & 0 & 3 \\0 & 0 & 0 \end{pmatrix} }
{ } { }
{ } { }
} {}{}{,} so dass es keinen weiteren linear unabhängigen Eigenvektor gibt. Wir interessieren uns für das lineare Gleichungssystem
\mavergleichskette
{\vergleichskette
{e_1 }
{ = }{ A v }
{ }{ }
{ }{ }
{ }{ }
} {}{}{.} Daraus ergibt sich sofort \zusatzklammer {aus der zweiten Zeile} {} {}
\mavergleichskette
{\vergleichskette
{v_3 }
{ = }{ 0 }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} und somit
\mavergleichskette
{\vergleichskette
{ 2v_2 }
{ = }{ 1 }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} \zusatzklammer {$v_1$ können wir frei als $0$ wählen} {} {.} Also setzen wir
\mavergleichskette
{\vergleichskette
{v }
{ = }{ \begin{pmatrix} 0 \\ { \frac{ 1 }{ 2 } } \\ 0 \end{pmatrix} }
{ }{ }
{ }{ }
{ }{ }
} {}{}{.} Schließlich brauchen wir eine Lösung für
\mavergleichskette
{\vergleichskette
{v }
{ = }{Aw }
{ }{ }
{ }{ }
{ }{ }
} {}{}{.} Dies führt auf
\mavergleichskette
{\vergleichskette
{w }
{ = }{ \begin{pmatrix} 0 \\- { \frac{ 1 }{ 12 } }\\ { \frac{ 1 }{ 6 } } \end{pmatrix} }
{ }{ }
{ }{ }
{ }{ }
} {}{}{.} Für die durch die Matrix $M$ beschriebene lineare Abbildung gilt somit
\mathdisp {Mu=2u,\, M v = 2v +u,\, Mw =2w + v} { , }
so dass die Abbildung bezüglich dieser Basis durch
\mathdisp {\begin{pmatrix} 2 & 1 & 0 \\ 0 & 2 & 1 \\0 & 0 & 2 \end{pmatrix}} { }
beschrieben wird. Diese Matrix ist eine \definitionsverweis {Jordanmatrix}{}{} und insbesondere in \definitionsverweis {jordanscher Normalform}{}{.}


}




\inputbeispiel{}
{

Wir betrachten die Matrix
\mavergleichskettedisp
{\vergleichskette
{ M }
{ =} { \begin{pmatrix} 2 & 0 & 0 \\ 0 & 2 & 3 \\0 & 0 & 2 \end{pmatrix} }
{ } { }
{ } { }
{ } { }
} {}{}{} und wollen sie auf jordansche Normalform bringen. Es sind
\mavergleichskette
{\vergleichskette
{ u }
{ = }{ e_1 }
{ = }{ \begin{pmatrix} 1 \\0\\ 0 \end{pmatrix} }
{ }{ }
{ }{ }
} {}{}{} und
\mavergleichskette
{\vergleichskette
{ v }
{ = }{ e_2 }
{ = }{ \begin{pmatrix} 0 \\1\\ 0 \end{pmatrix} }
{ }{ }
{ }{ }
} {}{}{} linear unabhängige Eigenvektoren zum Eigenwert $2$. Es ist
\mavergleichskettedisp
{\vergleichskette
{A }
{ \defeq} { M- 2 E_3 }
{ =} { \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 3 \\0 & 0 & 0 \end{pmatrix} }
{ } { }
{ } { }
} {}{}{,} so dass \mathkor {} {u} {und} {v} {} den Eigenraum aufspannen. Ein Eigenvektor muss das Bild eines Vektors unter der Matrix $A$ sein. In der Tat besitzt das lineare Gleichungssystem
\mavergleichskettedisp
{\vergleichskette
{e_2 }
{ =} {Aw }
{ } { }
{ } { }
{ } { }
} {}{}{} die Lösung
\mavergleichskette
{\vergleichskette
{w }
{ = }{ \begin{pmatrix} 0 \\0\\ { \frac{ 1 }{ 3 } } \end{pmatrix} }
{ }{ }
{ }{ }
{ }{ }
} {}{}{.}

Für die durch die Matrix $M$ beschriebene lineare Abbildung gilt somit
\mathdisp {Mu=2u,\, M v = 2v,\, Mw =2w +v} { , }
sodass die Abbildung bezüglich dieser Basis durch
\mathdisp {\begin{pmatrix} 2 & 0 & 0 \\ 0 & 2 & 1 \\0 & 0 & 2 \end{pmatrix}} { }
beschrieben wird. Diese Matrix ist in jordanscher Normalform mit den Jordanblöcken \mathkor {} {(2)} {und} {\begin{pmatrix} 2 & 1 \\ 0 & 2 \end{pmatrix}} {.}


}




<< | Kurs:Mathematik für Anwender (Osnabrück 2011-2012)/Teil II | >>

PDF-Version dieser Vorlesung

Arbeitsblatt zur Vorlesung (PDF)