Kurs:Mathematik für Anwender (Osnabrück 2011-2012)/Teil I/Vorlesung 10/latex

Aus Wikiversity

\setcounter{section}{10}






\zwischenueberschrift{Verknüpfung von linearen Abbildungen und Matrizen}





\inputfaktbeweis
{Lineare Abbildung/Matrix/Hintereinanderschaltung/Fakt}
{Lemma}
{}
{

\faktsituation {}
\faktfolgerung {Bei der \definitionsverweis {Korrespondenz}{}{} zwischen \definitionsverweis {linearen Abbildungen}{}{} und \definitionsverweis {Matrizen}{}{} entsprechen sich die \definitionsverweis {Hintereinanderschaltung}{}{} von linearen Abbildungen und die \definitionsverweis {Matrizenmultiplikation}{}{.}}
\faktzusatz {Damit ist folgendes gemeint: es seien
\mathl{U,V,W}{} \definitionsverweis {Vektorräume}{}{} über einem \definitionsverweis {Körper}{}{} $K$ mit \definitionsverweis {Basen}{}{}
\mathdisp {\mathfrak{ u } = u_1 , \ldots , u_p , \, \mathfrak{ v } = v_1 , \ldots , v_n \text{ und } \mathfrak{ w } = w_1 , \ldots , w_m} { . }
Es seien
\mathdisp {\psi:U \longrightarrow V \text{ und } \varphi: V \longrightarrow W} { }
lineare Abbildungen. Dann gilt für die beschreibenden Matrizen von
\mathl{\psi,\, \varphi}{} und der Hintereinanderschaltung
\mathl{\varphi \circ \psi}{} die Beziehung
\mavergleichskettedisp
{\vergleichskette
{M^{ \mathfrak{ u } }_{ \mathfrak{ w } } (\varphi \circ \psi ) }
{ =} { ( M^{ \mathfrak{ v } }_{ \mathfrak{ w } } (\varphi) ) \circ ( M^{ \mathfrak{ u } }_{ \mathfrak{ v } }(\psi) ) }
{ } { }
{ } { }
{ } { }
} {}{}{.}}
\faktzusatz {}

}
{

Wir betrachten die Abbildungskette
\mathdisp {U \stackrel{\psi}{\longrightarrow } V \stackrel{\varphi}{\longrightarrow } W} { . }
Bezüglich der Basen werde $\psi$ durch die
\mathl{n \times p}{-}Matrix
\mavergleichskette
{\vergleichskette
{B }
{ = }{(b_{jk})_{jk} }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} und $\varphi$ durch die
\mathl{m \times n}{-}Matrix
\mavergleichskette
{\vergleichskette
{A }
{ = }{ (a_{ij})_{ij} }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} beschrieben. Die Hintereinanderschaltung
\mathl{\varphi \circ \psi}{} wirkt auf einen Basisvektor $u_k$ folgendermaßen.
\mavergleichskettealign
{\vergleichskettealign
{ { \left( \varphi \circ \psi \right) } { \left( u_k \right) } }
{ =} { \varphi { \left( \psi { \left( u_k \right) } \right) } }
{ =} { \varphi { \left( \sum_{ j = 1 }^{ n } b_{jk} v_j \right) } }
{ =} { \sum_{ j = 1 }^{ n } b_{jk} \varphi(v_j) }
{ =} { \sum_{ j = 1 }^{ n } b_{jk} { \left( \sum_{ i = 1 }^{ m } a_{ij} w_i \right) } }
} {
\vergleichskettefortsetzungalign
{ =} { \sum_{ i = 1 }^{ m } { \left( \sum_{ j = 1 }^{ n } a_{ij} b_{jk} \right) } w_i }
{ =} { \sum_{ i = 1 }^{ m } c_{ik} w_i }
{ } {}
{ } {}
} {}{.} Dabei sind diese Koeffizienten
\mavergleichskette
{\vergleichskette
{ c_{ik} }
{ = }{ \sum_{ j = 1 }^{ n } a_{ij} b_{jk} }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} gerade die Einträge in der \definitionsverweis {Produktmatrix}{}{}
\mathl{A \circ B}{.}

}

Daraus folgt beispielsweise, dass das Produkt von Matrizen assoziativ ist.






\zwischenueberschrift{Invertierbare Matrizen}




\inputdefinition
{}
{

Es sei $K$ ein \definitionsverweis {Körper}{}{} und sei $M$ eine $n \times n$-\definitionsverweis {Matrix}{}{} über $K$. Dann heißt $M$ \definitionswort {invertierbar}{,} wenn es eine weitere Matrix
\mavergleichskette
{\vergleichskette
{A }
{ \in }{ \operatorname{Mat}_{ n } (K) }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} mit
\mavergleichskettedisp
{\vergleichskette
{ A \circ M }
{ =} { E_{ n } }
{ =} { M \circ A }
{ } { }
{ } { }
} {}{}{} gibt.

}




\inputdefinition
{}
{

Es sei $K$ ein \definitionsverweis {Körper}{}{.} Zu einer \definitionsverweis {invertierbaren Matrix}{}{}
\mavergleichskette
{\vergleichskette
{M }
{ \in }{ \operatorname{Mat}_{ n } (K) }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} heißt die Matrix
\mavergleichskette
{\vergleichskette
{A }
{ \in }{\operatorname{Mat}_{ n } (K) }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} mit
\mavergleichskettedisp
{\vergleichskette
{ A \circ M }
{ =} { E_{ n } }
{ =} { M \circ A }
{ } { }
{ } { }
} {}{}{} die \definitionswort {inverse Matrix}{} von $M$. Man schreibt dafür
\mathdisp {M^{-1}} { . }

}






\zwischenueberschrift{Lineare Abbildungen und Basiswechsel}





\inputfaktbeweisnichtvorgefuehrt
{Lineare Abbildung/Endlichdimensional/Basiswechsel/Fakt}
{Lemma}
{}
{

\faktsituation {Es sei $K$ ein \definitionsverweis {Körper}{}{} und es seien \mathkor {} {V} {und} {W} {} \definitionsverweis {endlichdimensionale}{}{} $K$-\definitionsverweis {Vektor\-räume}{}{.} Es seien \mathkor {} {\mathfrak{ v }} {und} {\mathfrak{ u }} {} \definitionsverweis {Basen}{}{} von $V$ und \mathkor {} {\mathfrak{ w }} {und} {\mathfrak{ z }} {} Basen von $W$. Es sei \maabbdisp {\varphi} {V} {W } {} eine \definitionsverweis {lineare Abbildung}{}{,} die bezüglich der Basen \mathkor {} {\mathfrak{ v }} {und} {\mathfrak{ w }} {} durch die \definitionsverweis {Matrix}{}{}
\mathl{M^ \mathfrak{ v }_ \mathfrak{ w }(\varphi)}{} beschrieben werde.}
\faktfolgerung {Dann wird $\varphi$ bezüglich der Basen \mathkor {} {\mathfrak{ u }} {und} {\mathfrak{ z }} {} durch die Matrix
\mathdisp {M^{ \mathfrak{ w } }_{ \mathfrak{ z } } \circ ( M^ \mathfrak{ v }_ \mathfrak{ w }(\varphi) ) \circ ( M^{ \mathfrak{ v } }_{ \mathfrak{ u } })^{-1}} { }
beschrieben, wobei \mathkor {} {M^{ \mathfrak{ v } }_{ \mathfrak{ u } }} {und} {M^{ \mathfrak{ w } }_{ \mathfrak{ z } }} {} die \definitionsverweis {Übergangsmatrizen}{}{} sind, die die Basiswechsel von \mathkor {} {\mathfrak{ v }} {nach} {\mathfrak{ u }} {} und von \mathkor {} {\mathfrak{ w }} {nach} {\mathfrak{ z }} {} beschreiben.}
\faktzusatz {}
\faktzusatz {}

}
{

Die linearen Standardabbildungen \maabb {} {K^n} {V } {} bzw. \maabb {} {K^m} {W } {} zu den Basen seien mit
\mathl{\Psi_{ \mathfrak{ v } }, \, \Psi_{ \mathfrak{ u } }, \, \Psi_{ \mathfrak{ w } }, \, \Psi_{ \mathfrak{ z } }}{} bezeichnet. Wir betrachten das \definitionsverweis {kommutative Diagramm}{}{}


\mathdisp {\begin{matrix} K^n & & & \stackrel{ M^{ \mathfrak{ v } }_{ \mathfrak{ w } } (\varphi) }{\longrightarrow} & & & K^m \\ & \searrow \Psi_{ \mathfrak{ v } } \!\!\!\!\! & & & & \Psi_{ \mathfrak{ w } } \swarrow \!\!\!\!\! & \\ \!\!\!\!\! M^{ \mathfrak{ v } }_{ \mathfrak{ u } } \downarrow & & V & \stackrel{ \varphi }{\longrightarrow} & W & & \, \, \, \, \downarrow M^{ \mathfrak{ w } }_{ \mathfrak{ z } } \\ & \nearrow \Psi_{ \mathfrak{ u } } \!\!\!\!\! & & & & \Psi_{ \mathfrak{ z } } \nwarrow \!\!\!\!\! & \\ K^n & & & \stackrel{ M^{ \mathfrak{ u } }_{ \mathfrak{ z } } (\varphi) }{\longrightarrow} & & & K^m ,

\!\!\!\!\! 

\end{matrix}} { }

wobei die Kommutativität auf Fakt ***** und Fakt ***** beruht. In dieser Situation ergibt sich insgesamt
\mavergleichskettealign
{\vergleichskettealign
{ M^{ \mathfrak{ u } }_{ \mathfrak{ z } } (\varphi) }
{ =} { \Psi_{ \mathfrak{ z } }^{-1} \circ \varphi \circ \Psi_{ \mathfrak{ u } } }
{ =} { \Psi_{ \mathfrak{ z } }^{-1} \circ ( \Psi_{ \mathfrak{ w } } \circ M^{ \mathfrak{ v } }_{ \mathfrak{ w } } (\varphi) \circ \Psi_{ \mathfrak{ v } }^{-1} ) \circ \Psi_{ \mathfrak{ u } } }
{ =} { (\Psi_{ \mathfrak{ z } }^{-1} \circ \Psi_{ \mathfrak{ w } } ) \circ M^{ \mathfrak{ v } }_{ \mathfrak{ w } } (\varphi) \circ ( \Psi_{ \mathfrak{ v } }^{-1} \circ \Psi_{ \mathfrak{ u } } ) }
{ =} { (\Psi_{ \mathfrak{ z } }^{-1} \circ \Psi_{ \mathfrak{ w } } ) \circ M^{ \mathfrak{ v } }_{ \mathfrak{ w } } (\varphi) \circ ( \Psi_{ \mathfrak{ u } }^{-1} \circ \Psi_{ \mathfrak{ v } } )^{-1} }
} {
\vergleichskettefortsetzungalign
{ =} { M^{ \mathfrak{ w } }_{ \mathfrak{ z } } \circ M^{ \mathfrak{ v } }_{ \mathfrak{ w } } (\varphi) \circ( M^{ \mathfrak{ v } }_{ \mathfrak{ u } } )^{-1} }
{ } {}
{ } {}
{ } {}
} {}{.}

}





\inputfaktbeweis
{Endomorphismus/Endlichdimensional/Basiswechsel/Fakt}
{Korollar}
{}
{

\faktsituation {Es sei $K$ ein \definitionsverweis {Körper}{}{} und es sei $V$ ein \definitionsverweis {endlichdimensionaler}{}{} $K$-\definitionsverweis {Vektorraum}{}{.} Es sei \maabbdisp {\varphi} {V} {V } {} eine \definitionsverweis {lineare Abbildung}{}{.} Es seien \mathkor {} {\mathfrak{ u }} {und} {\mathfrak{ v }} {} \definitionsverweis {Basen}{}{} von $V$.}
\faktfolgerung {Dann besteht zwischen den Matrizen, die die lineare Abbildung bezüglich \mathkor {} {\mathfrak{ u }} {bzw.} {\mathfrak{ v }} {} \zusatzklammer {beidseitig} {} {} beschreiben, die Beziehung
\mavergleichskettedisp
{\vergleichskette
{ M^ \mathfrak{ u }_ \mathfrak{ u }(\varphi) }
{ =} { M^{ \mathfrak{ v } }_{ \mathfrak{ u } } \circ M^ \mathfrak{ v }_ \mathfrak{ v }(\varphi) \circ ( M^{ \mathfrak{ v } }_{ \mathfrak{ u } })^{-1} }
{ } { }
{ } { }
{ } { }
} {}{}{.}}
\faktzusatz {}
\faktzusatz {}

}
{

Dies folgt direkt aus Lemma 10.4.

}







\zwischenueberschrift{Eigenschaften von linearen Abbildungen}





\inputfaktbeweis
{Lineare Abbildung/Matrix zu Basen/Verschiedene Eigenschaften/Fakt}
{Lemma}
{}
{

\faktsituation {Es sei $K$ ein \definitionsverweis {Körper}{}{} und es seien \mathkor {} {V} {und} {W} {} \definitionsverweis {Vektorräume}{}{} über $K$ der \definitionsverweis {Dimension}{}{} \mathkor {} {n} {bzw.} {m} {.} Es sei \maabbdisp {\varphi} {V} {W } {} eine \definitionsverweis {lineare Abbildung}{}{,} die bezüglich zweier \definitionsverweis {Basen}{}{} durch die \definitionsverweis {Matrix}{}{}
\mavergleichskette
{\vergleichskette
{ M }
{ \in }{ \operatorname{Mat}_{ m \times n } (K) }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} beschrieben werde.}
\faktuebergang {Dann gelten folgende Eigenschaften.}
\faktfolgerung {\aufzaehlungdrei{$\varphi$ ist genau dann \definitionsverweis {injektiv}{}{,} wenn die Spalten der Matrix \definitionsverweis {linear unabhängig}{}{} sind. }{$\varphi$ ist genau dann \definitionsverweis {surjektiv}{}{,} wenn die Spalten der Matrix ein \definitionsverweis {Erzeugendensystem}{}{} von $K^m$ bilden. }{Bei
\mavergleichskette
{\vergleichskette
{m }
{ = }{n }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} ist $\varphi$ genau dann \definitionsverweis {bijektiv}{}{,} wenn die Spalten der Matrix eine \definitionsverweis {Basis}{}{} von $K^m$ bilden, und dies ist genau dann der Fall, wenn $M$ \definitionsverweis {invertierbar}{}{} ist. }}
\faktzusatz {}
\faktzusatz {}

}
{

Es seien
\mavergleichskette
{\vergleichskette
{ \mathfrak{ v } }
{ = }{ v_1 , \ldots , v_n }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} und
\mavergleichskette
{\vergleichskette
{ \mathfrak{ w } }
{ = }{ w_1 , \ldots , w_m }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} Basen von \mathkor {} {V} {bzw.} {W} {} und es seien
\mathl{s_1 , \ldots , s_n}{} die Spaltenvektoren von $M$. \teilbeweis {}{}{}
{(1). Die Abbildung $\varphi$ hat die Eigenschaft
\mavergleichskettedisp
{\vergleichskette
{ \varphi(v_j) }
{ =} { \sum_{ i = 1 }^{ m } s_{ij} w_i }
{ } { }
{ } { }
{ } { }
} {}{}{,} wobei
\mathl{s_{ij}}{} der $i$-te Eintrag des $j$-ten Spaltenvektors ist. Daher ist
\mavergleichskettedisp
{\vergleichskette
{ \varphi { \left( \sum_{ j = 1 }^{ n } a_j v_j \right) } }
{ =} { \sum_{ j = 1 }^{ n } a_j { \left( \sum_{ i = 1 }^{ m } s_{ij } w_i \right) } }
{ =} { \sum_{ i = 1 }^{ m } { \left( \sum_{ j = 1 }^{ n } a_j s_{ij} \right) } w_i }
{ } { }
{ } { }
} {}{}{.} Dies ist genau dann $0$, wenn
\mavergleichskette
{\vergleichskette
{ \sum_{ j = 1 }^{ n } a_j s_{ij} }
{ = }{ 0 }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} für alle $i$ ist, und dies ist äquivalent zu
\mavergleichskettedisp
{\vergleichskette
{ \sum_{ j = 1 }^{ n } a_js_j }
{ =} { 0 }
{ } { }
{ } { }
{ } { }
} {}{}{.} Dafür gibt es ein nichttriviales \zusatzklammer {Lösungs} {-} {}Tupel
\mathl{{ \left( a_1 , \ldots , a_n \right) }}{} genau dann, wenn die Spalten linear abhängig sind und genau dann, wenn $\varphi$ nicht injektiv ist.}
{} \teilbeweis {}{}{}
{(2). Siehe Aufgabe 10.12.}
{} \teilbeweis {}{}{}
{(3). Sei
\mavergleichskette
{\vergleichskette
{n }
{ = }{m }
{ }{ }
{ }{ }
{ }{ }
} {}{}{.} Die erste Äquivalenz folgt aus (1) und (2). Wenn $\varphi$ bijektiv ist, so gibt es die \zusatzklammer {lineare} {} {} \definitionsverweis {Umkehrabbildung}{}{}
\mathl{\varphi^{-1}}{} mit
\mathdisp {\varphi \circ \varphi^{-1} = \operatorname{Id}_{ W } \text{ und } \varphi^{-1} \circ \varphi = \operatorname{Id}_{ V }} { . }
Es sei $M$ die Matrix zu $\varphi$ und $N$ die Matrix zu $\varphi^{-1}$. Die Matrix zur Identität ist die \definitionsverweis {Einheitsmatrix}{}{.} Nach Lemma 10.1 ist daher
\mavergleichskettedisp
{\vergleichskette
{ M \circ N }
{ =} { E_{ n } }
{ =} {N \circ M }
{ } { }
{ } { }
} {}{}{} und somit ist $M$ invertierbar. Die Umkehrung wird ähnlich bewiesen.}
{}

}







\zwischenueberschrift{Elementarmatrizen}




\inputdefinition
{}
{

Es sei $K$ ein \definitionsverweis {Körper}{}{} und sei $M$ eine $m \times n$-\definitionsverweis {Matrix}{}{} über $K$. Dann nennt man die folgenden Manipulationen an $M$ \definitionswort {elementare Zeilen\-umformungen}{.} \aufzaehlungdrei{Vertauschung von zwei Zeilen. }{Multiplikation einer Zeile mit
\mathl{s \neq 0}{.} }{Addition des $a$-fachen einer Zeile zu einer anderen Zeile. }

}

Elementare Zeilenumformungen ändern nicht den Lösungsraum von homogenen linearen Gleichungssystemen, wie in Lemma 5.7 gezeigt wurde.





\inputfaktbeweis
{Matrix/Treppengestalt durch elementare Umformungen/Fakt}
{Satz}
{}
{

\faktsituation {Es sei $K$ ein \definitionsverweis {Körper}{}{} und sei $M$ eine $m \times n$-\definitionsverweis {Matrix}{}{} über $K$.}
\faktfolgerung {Dann gibt es \definitionsverweis {elementare Zeilenumformungen}{}{} und eine (Neu-)Nummerierung der Spalten
\mathdisp {j_1 ,\, j_2 , \ldots , j_n} { }
und ein
\mathl{r \leq n}{} derart, dass in der entstandenen Matrix die Spalten die Gestalt
\mathdisp {s_{j_k} = \begin{pmatrix} b_{1, j_k} \\ \vdots\\ b_{k, j_k}\\0\\ \vdots\\ 0 \end{pmatrix} \text{ mit } b_{k, j_k} \neq 0 \text{ für } k \leq r} { }
und
\mathdisp {s_{j_k} = \begin{pmatrix} b_{1, j_k} \\ \vdots\\ b_{r, j_k}\\0\\ \vdots\\ 0 \end{pmatrix} \text{ für } k > r} { }
besitzen. Durch elementare Zeilenumformungen und zusätzliche Spaltenvertauschungen kann man also eine Matrix auf die Gestalt
\mathdisp {\begin{pmatrix} d_{11} & * & \cdots & * & * & \cdots & * \\ 0 & d_{22} & \cdots & * & * & \cdots & * \\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & d_{ r r } & * & \cdots & * \\ 0 & 0 & \cdots & 0 & 0 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 0 & 0 & \cdots & 0 \end{pmatrix}} { }
mit
\mavergleichskette
{\vergleichskette
{d_{ii} }
{ \neq }{0 }
{ }{ }
{ }{ }
{ }{ }
} {}{}{} bringen.}
\faktzusatz {}
\faktzusatz {}

}
{

Dies beruht auf den entsprechenden Manipulationen wie beim Eliminationsverfahren, siehe Vorlesung.

}





\inputdefinition
{}
{

Es sei $K$ ein \definitionsverweis {Körper}{}{.} Mit
\mathl{B_{ij}}{} bezeichnen wir diejenige $n \times n$-\definitionsverweis {Matrix}{}{,} die an der Stelle
\mathl{(i,j)}{} den Wert $1$ und sonst überall den Wert $0$ hat. Dann nennt man die folgenden Matrizen \definitionswort {Elementarmatrizen}{.} \aufzaehlungdrei{$V_{ij} \defeq E_{ n } - B_{ii} -B_{jj} + B_{ij} +B_{ji}$. }{$S_k (s) \defeq E_{ n } + (s-1) B_{kk} \text{ für } s \neq 0$. }{$A_{ij}(a) \defeq E_{ n } + a B_{ij} \text{ für } i \neq j \text{ und } a \in K$. }

}

Ausgeschrieben sehen diese Elementarmatrizen folgendermaßen aus.
\mavergleichskettedisp
{\vergleichskette
{ V_{ij} }
{ =} { \begin{pmatrix} 1 & 0 & \cdots & \cdots & \cdots & \cdots & 0 \\ \vdots & \ddots & \cdots & \cdots & \cdots & \cdots & \vdots \\ 0 & \cdots & 0 & \cdots & 1 & \cdots & 0 \\ \vdots & \cdots & \cdots & 1 & \cdots & \cdots & \vdots \\ 0 & \cdots & 1 & \cdots & 0 & \cdots & 0 \\ \vdots & \cdots & \cdots & \cdots & \cdots & \ddots & \vdots \\ 0 & \cdots & \cdots & \cdots & \cdots & 0 & 1 \end{pmatrix} }
{ } { }
{ } { }
{ } { }
} {}{}{.}
\mavergleichskettedisp
{\vergleichskette
{ S_k(s) }
{ =} { \begin{pmatrix} 1 & 0 & \cdots & \cdots & \cdots & \cdots & 0 \\ \vdots & \ddots & \ddots & \vdots & \vdots & \vdots & \vdots \\ 0 & \cdots & 1 & 0 & \cdots & \cdots & 0 \\ 0 & \cdots & 0 & s & 0 & \cdots & 0 \\ 0 & \cdots & \cdots & 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \vdots & \vdots & \ddots & \ddots & \vdots \\ 0 & \cdots & \cdots & \cdots & \cdots & 0 & 1 \end{pmatrix} }
{ } { }
{ } { }
{ } { }
} {}{}{.}
\mavergleichskettedisp
{\vergleichskette
{ A_{ij}(a) }
{ =} { \begin{pmatrix} 1 & 0 & \cdots & \cdots & \cdots & \cdots & 0 \\ \vdots & \ddots & \cdots & \cdots & \cdots & \cdots & \vdots \\ 0 & \cdots & 1 & \cdots & a & \cdots & 0 \\ \vdots & \cdots & \cdots & \ddots & \cdots & \cdots & \vdots \\ 0 & \cdots & \cdots & \cdots & 1 & \cdots & 0 \\ \vdots & \cdots & \cdots & \cdots & \cdots & \ddots & \vdots \\ 0 & \cdots & \cdots & \cdots & \cdots & 0 & 1 \end{pmatrix} }
{ } { }
{ } { }
{ } { }
} {}{}{.}


\inputfaktbeweis
{Matrix/Elementare Zeilenumformung/Elementarmatrix von links/Fakt}
{Lemma}
{}
{

\faktsituation {Es sei $K$ ein \definitionsverweis {Körper}{}{} und $M$ eine $m \times n$-\definitionsverweis {Matrix}{}{} mit Einträgen in $K$.}
\faktuebergang {Dann hat die \definitionsverweis {Multiplikation}{}{} mit den $m \times m$-\definitionsverweis {Elementarmatrizen}{}{} von links mit $M$ folgende Wirkung.}
\faktfolgerung {\aufzaehlungdrei{$V_{ij} \circ M =$ Vertauschen der $i$-ten und der $j$-ten Zeile von $M$. }{$(S_k (s)) \circ M =$ Multiplikation der $k$-ten Zeile von $M$ mit $s$. }{$(A_{ij}(a)) \circ M =$ Addition des $a$-fachen der $j$-ten Zeile von $M$ zur $i$-ten Zeile (\mathlk{i \neq j}{}). }}
\faktzusatz {}
\faktzusatz {}

}
{ Siehe Aufgabe 10.11. }







\zwischenueberschrift{Auffinden der inversen Matrix}




\inputverfahren{}
{

Es sei $M$ eine \definitionsverweis {quadratische Matrix}{}{.} Wie kann man entscheiden, ob die Matrix \definitionsverweis {invertierbar}{}{} ist, und wie kann man die \definitionsverweis {inverse Matrix}{}{}
\mathl{M^{-1}}{} finden?

Dazu legt man eine Tabelle an, wo in der linken Seite zunächst die Matrix $M$ steht und in der rechten Seite die Einheitsmatrix. Jetzt wendet man auf beide Matrizen schrittweise die gleichen elementaren Zeilenumformungen an. Dabei soll in der linken Seite die Ausgangsmatrix in die Einheitsmatrix umgewandelt werden. Dies ist genau dann möglich, wenn diese Matrix invertierbar ist. Wir behaupten, dass bei dieser Vorgehensweise in der rechten Seite die Matrix $M^{-1}$ als Endmatrix entsteht. Dies beruht auf folgendem \stichwort {Invarianzprinzip} {.} Jede elementare Zeilenumformung kann als eine Matrizenmultiplikation mit einer \definitionsverweis {Elementarmatrix}{}{} $E$ von links realisiert werden. Wenn in der Tabelle
\mathdisp {(M_1, M_2)} { }
steht, so steht im nächsten Schritt
\mathdisp {(EM_1,EM_2)} { . }
Wenn man das Inverse \zusatzklammer {das man noch nicht kennt, das es aber gibt unter der Voraussetzung, dass die Matrix invertierbar ist} {.} {} der linken Seite mit der rechten Seite multipliziert, so ergibt sich
\mavergleichskettedisp
{\vergleichskette
{ (EM_1)^{-1} EM_2 }
{ =} { M_1^{-1} E^{-1} E M_2 }
{ =} { M_1^{-1} M_2 }
{ } { }
{ } { }
} {}{}{.} D.h., dass sich dieser Ausdruck bei den Einzelschritten nicht ändert. Zu Beginn ist dieser Ausdruck gleich
\mathl{M^{-1} E_{ n }}{,} daher muss zum Schluss für
\mathl{( E_{ n } , N)}{} gelten
\mavergleichskettedisp
{\vergleichskette
{ N }
{ =} { E_{ n }^{-1} N }
{ =} { M^{-1} E_{ n } }
{ =} { M^{-1} }
{ } {}
} {}{}{.}

}




\inputbeispiel{}
{

Wir wollen zur Matrix
\mathl{\begin{pmatrix} 1 & 3 & 1 \\ 4 & 1 & 2 \\0 & 1 & 1 \end{pmatrix}}{} gemäß dem in Verfahren 10.11 beschriebenen Verfahren die \definitionsverweis {inverse Matrix}{}{} $M^{-1}$ bestimmen. \matabellezweisieben {\leitzeilezwei {} {} } {\mazeileundzwei { \begin{pmatrix} 1 & 3 & 1 \\ 4 & 1 & 2 \\0 & 1 & 1 \end{pmatrix} } { \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\0 & 0 & 1 \end{pmatrix} } }
{\mazeileundzwei { \begin{pmatrix} 1 & 3 & 1 \\ 0 & -11 & -2 \\0 & 1 & 1 \end{pmatrix} } { \begin{pmatrix} 1 & 0 & 0 \\ -4 & 1 & 0 \\0 & 0 & 1 \end{pmatrix} } }
{\mazeileundzwei { \begin{pmatrix} 1 & 3 & 1 \\ 0 & 1 & 1 \\0 & -11 & -2 \end{pmatrix} } { \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 1 \\-4 & 1 & 0 \end{pmatrix} } }
{\mazeileundzwei { \begin{pmatrix} 1 & 3 & 1 \\ 0 & 1 & 1 \\0 & 0 & 9 \end{pmatrix} } { \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 1 \\-4 & 1 & 11 \end{pmatrix} } }
{\mazeileundzwei { \begin{pmatrix} 1 & 3 & 1 \\ 0 & 1 & 1 \\0 & 0 & 1 \end{pmatrix} } { \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 1 \\\frac{-4}{9} & \frac{1}{9} & \frac{11}{9} \end{pmatrix} } }
{\mazeileundzwei { \begin{pmatrix} 1 & 0 & -2 \\ 0 & 1 & 1 \\0 & 0 & 1 \end{pmatrix} } { \begin{pmatrix} 1 & 0 & -3 \\ 0 & 0 & 1 \\\frac{-4}{9} & \frac{1}{9} & \frac{11}{9} \end{pmatrix} } }
{\mazeileundzwei { \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\0 & 0 & 1 \end{pmatrix} } { \begin{pmatrix} \frac{1}{9} & \frac{2}{9} & \frac{-5}{9} \\ \frac{4}{9} & \frac{-1}{9} & \frac{-2}{9} \\\frac{-4}{9} & \frac{1}{9} & \frac{11}{9} \end{pmatrix} } }


}



<< | Kurs:Mathematik für Anwender (Osnabrück 2011-2012)/Teil I | >>

PDF-Version dieser Vorlesung

Arbeitsblatt zur Vorlesung (PDF) (PDF englisch)