Die Wirkungsweise von verschiedenen linearen Abbildungen des
R
2
{\displaystyle {}\mathbb {R} ^{2}}
in sich, dargestellt an einer Gehirnzelle.
Eine lineare Abbildung
φ
:
K
n
⟶
K
m
{\displaystyle \varphi \colon K^{n}\longrightarrow K^{m}}
ist durch die Bilder
φ
(
e
j
)
{\displaystyle {}\varphi (e_{j})}
,
j
=
1
,
…
,
n
{\displaystyle {}j=1,\ldots ,n}
,
der Standardvektoren eindeutig festgelegt, und jedes
φ
(
e
j
)
{\displaystyle {}\varphi (e_{j})}
ist eine Linearkombination
φ
(
e
j
)
=
∑
i
=
1
m
a
i
j
e
i
{\displaystyle {}\varphi (e_{j})=\sum _{i=1}^{m}a_{ij}e_{i}\,}
und damit durch die Elemente
a
i
j
{\displaystyle {}a_{ij}}
eindeutig festgelegt. Insgesamt ist also eine solche lineare Abbildung durch
m
n
{\displaystyle {}mn}
Elemente
a
i
j
{\displaystyle {}a_{ij}}
,
1
≤
i
≤
m
{\displaystyle {}1\leq i\leq m}
,
1
≤
j
≤
n
{\displaystyle {}1\leq j\leq n}
,
festgelegt. Eine solche Datenmenge kann man wieder als Matrix schreiben. Nach
dem Festlegungssatz
gilt dies für alle endlichdimensionalen Vektorräume, sobald sowohl im Definitionsraum als auch im Zielraum der linearen Abbildung eine Basis fixiert ist.
Es sei
K
{\displaystyle {}K}
ein
Körper und sei
V
{\displaystyle {}V}
ein
n
{\displaystyle {}n}
-dimensionaler Vektorraum
mit einer
Basis
v
=
v
1
,
…
,
v
n
{\displaystyle {}{\mathfrak {v}}=v_{1},\ldots ,v_{n}}
und sei
W
{\displaystyle {}W}
ein
m
{\displaystyle {}m}
-dimensionaler Vektorraum mit einer Basis
w
=
w
1
,
…
,
w
m
{\displaystyle {}{\mathfrak {w}}=w_{1},\ldots ,w_{m}}
.
Zu einer
linearen Abbildung
φ
:
V
⟶
W
{\displaystyle \varphi \colon V\longrightarrow W}
heißt die
m
×
n
{\displaystyle {}m\times n}
-Matrix
M
=
M
w
v
(
φ
)
=
(
a
i
j
)
i
j
,
{\displaystyle {}M=M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )=(a_{ij})_{ij}\,,}
wobei
a
i
j
{\displaystyle {}a_{ij}}
die
i
{\displaystyle {}i}
-te
Koordinate
von
φ
(
v
j
)
{\displaystyle {}\varphi (v_{j})}
bezüglich der Basis
w
{\displaystyle {}{\mathfrak {w}}}
ist, die beschreibende Matrix zu
φ
{\displaystyle {}\varphi }
bezüglich der Basen.
Zu einer Matrix
M
=
(
a
i
j
)
i
j
∈
Mat
m
×
n
(
K
)
{\displaystyle {}M=(a_{ij})_{ij}\in \operatorname {Mat} _{m\times n}(K)}
heißt die durch
v
j
⟼
∑
i
=
1
m
a
i
j
w
i
{\displaystyle v_{j}\longmapsto \sum _{i=1}^{m}a_{ij}w_{i}}
gemäß
Fakt
definierte lineare Abbildung
φ
w
v
(
M
)
{\displaystyle {}\varphi _{\mathfrak {w}}^{\mathfrak {v}}(M)}
die durch
M
{\displaystyle {}M}
festgelegte lineare Abbildung .
Wenn
V
=
W
{\displaystyle {}V=W}
,
ist, so interessiert man sich häufig, aber nicht immer, für die beschreibende Matrix bezüglich einer einzigen Basis
v
{\displaystyle {}{\mathfrak {v}}}
von
V
{\displaystyle {}V}
.
Es sei
K
{\displaystyle {}K}
ein
Körper und sei
V
{\displaystyle {}V}
ein
n
{\displaystyle {}n}
-dimensionaler
Vektorraum
mit einer
Basis
v
=
v
1
,
…
,
v
n
{\displaystyle {}{\mathfrak {v}}=v_{1},\ldots ,v_{n}}
und sei
W
{\displaystyle {}W}
ein
m
{\displaystyle {}m}
-dimensionaler Vektorraum mit einer Basis
w
=
w
1
,
…
,
w
m
{\displaystyle {}{\mathfrak {w}}=w_{1},\ldots ,w_{m}}
mit den zugehörigen Abbildungen
Ψ
v
:
K
n
⟶
V
{\displaystyle \Psi _{\mathfrak {v}}\colon K^{n}\longrightarrow V}
und
Ψ
w
:
K
m
⟶
W
.
{\displaystyle \Psi _{\mathfrak {w}}\colon K^{m}\longrightarrow W.}
Es sei
φ
:
V
⟶
W
{\displaystyle \varphi \colon V\longrightarrow W}
eine
lineare Abbildung
mit
beschreibender Matrix
M
w
v
(
φ
)
{\displaystyle {}M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )}
.
Dann ist
φ
∘
Ψ
v
=
Ψ
w
∘
M
w
v
(
φ
)
,
{\displaystyle {}\varphi \circ \Psi _{\mathfrak {v}}=\Psi _{\mathfrak {w}}\circ M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )\,,}
d.h. das Diagramm
K
n
⟶
Ψ
v
V
M
w
v
(
φ
)
↓
↓
φ
K
m
⟶
Ψ
w
W
{\displaystyle {\begin{matrix}K^{n}&{\stackrel {\Psi _{\mathfrak {v}}}{\longrightarrow }}&V&\\\!\!\!\!\!M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )\downarrow &&\downarrow \varphi \!\!\!\!\!&\\K^{m}&{\stackrel {\Psi _{\mathfrak {w}}}{\longrightarrow }}&W&\!\!\!\!\!\\\end{matrix}}}
ist kommutativ.
Zu einem Vektor
v
∈
V
{\displaystyle {}v\in V}
kann man
φ
(
v
)
{\displaystyle {}\varphi (v)}
ausrechnen, indem man das Koeffiziententupel zu
v
{\displaystyle {}v}
bezüglich der Basis
v
{\displaystyle {}{\mathfrak {v}}}
bestimmt, darauf die Matrix
M
w
v
(
φ
)
{\displaystyle {}M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )}
anwendet und zu dem sich ergebenden
m
{\displaystyle {}m}
-Tupel den zugehörigen Vektor bezüglich
w
{\displaystyle {}{\mathfrak {w}}}
berechnet.
Beweis
Siehe
Aufgabe .
◻
{\displaystyle \Box }
Wir zeigen, dass beide Hintereinanderschaltungen die Identität sind. Wir starten mit einer Matrix
M
=
(
a
i
j
)
i
j
{\displaystyle {}M={\left(a_{ij}\right)}_{ij}}
und betrachten die Matrix
M
w
v
(
φ
w
v
(
M
)
)
.
{\displaystyle M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi _{\mathfrak {w}}^{\mathfrak {v}}(M)).}
Zwei Matrizen sind gleich, wenn für jedes Indexpaar
(
i
,
j
)
{\displaystyle {}(i,j)}
die Einträge übereinstimmen. Es ist
(
M
w
v
(
φ
w
v
(
M
)
)
)
i
j
=
i
−
te Koordinate von
(
φ
w
v
(
M
)
)
(
v
j
)
=
i
−
te Koordinate von
∑
i
=
1
m
a
i
j
w
i
=
a
i
j
.
{\displaystyle {}{\begin{aligned}(M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi _{\mathfrak {w}}^{\mathfrak {v}}(M)))_{ij}&=i-{\text{te Koordinate von }}(\varphi _{\mathfrak {w}}^{\mathfrak {v}}(M))(v_{j})\\&=i-{\text{te Koordinate von }}\sum _{i=1}^{m}a_{ij}w_{i}\\&=a_{ij}.\end{aligned}}}
Es sei nun
φ
{\displaystyle {}\varphi }
eine lineare Abbildung, und betrachten wir
φ
w
v
(
M
w
v
(
φ
)
)
.
{\displaystyle \varphi _{\mathfrak {w}}^{\mathfrak {v}}(M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )).}
Zwei lineare Abbildungen stimmen nach
Fakt
überein, wenn man zeigen kann, dass sie auf der Basis
v
1
,
…
,
v
n
{\displaystyle {}v_{1},\ldots ,v_{n}}
übereinstimmen. Es ist
(
φ
w
v
(
M
w
v
(
φ
)
)
)
(
v
j
)
=
∑
i
=
1
m
(
M
w
v
(
φ
)
)
i
j
w
i
.
{\displaystyle {}(\varphi _{\mathfrak {w}}^{\mathfrak {v}}(M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )))(v_{j})=\sum _{i=1}^{m}(M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi ))_{ij}\,w_{i}\,.}
Dabei ist nach Definition der Koeffizient
(
M
w
v
(
φ
)
)
i
j
{\displaystyle {}(M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi ))_{ij}}
die
i
{\displaystyle {}i}
-te Koordinate von
φ
(
v
j
)
{\displaystyle {}\varphi (v_{j})}
bezüglich der Basis
w
1
,
…
,
w
m
{\displaystyle {}w_{1},\ldots ,w_{m}}
. Damit ist diese Summe gleich
φ
(
v
j
)
{\displaystyle {}\varphi (v_{j})}
.
◻
{\displaystyle \Box }
Wir bezeichnen die Menge aller linearen Abbildungen von
V
{\displaystyle {}V}
nach
W
{\displaystyle {}W}
mit
Hom
K
(
V
,
W
)
{\displaystyle {}\operatorname {Hom} _{K}{\left(V,W\right)}}
.
Fakt
bedeutet also, dass die Abbildung
Hom
K
(
V
,
W
)
⟶
Mat
m
×
n
(
K
)
,
φ
⟼
M
w
v
(
φ
)
,
{\displaystyle \operatorname {Hom} _{K}{\left(V,W\right)}\longrightarrow \operatorname {Mat} _{m\times n}(K),\,\varphi \longmapsto M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi ),}
bijektiv mit der angegebenen Umkehrabbildung ist. Eine lineare Abbildung
φ
:
V
⟶
V
{\displaystyle \varphi \colon V\longrightarrow V}
nennt man auch einen Endomorphismus . Die Menge aller Endomorphismen auf
V
{\displaystyle {}V}
wird mit
End
K
(
V
)
{\displaystyle {}\operatorname {End} _{K}{\left(V\right)}}
bezeichnet.