Es sei
K
{\displaystyle {}K}
ein
Körper
und
V
{\displaystyle {}V}
ein
K
{\displaystyle {}K}
-Vektorraum der
Dimension
n
{\displaystyle {}n}
. Es seien
v
=
v
1
,
…
,
v
n
{\displaystyle {}{\mathfrak {v}}=v_{1},\ldots ,v_{n}}
und
w
=
w
1
,
…
,
w
n
{\displaystyle {}{\mathfrak {w}}=w_{1},\ldots ,w_{n}}
zwei
Basen
von
V
{\displaystyle {}V}
. Es sei
v
j
=
∑
i
=
1
n
c
i
j
w
i
{\displaystyle {}v_{j}=\sum _{i=1}^{n}c_{ij}w_{i}\,}
mit den Koeffizienten
c
i
j
∈
K
{\displaystyle {}c_{ij}\in K}
,
die wir zur
n
×
n
{\displaystyle {}n\times n}
-Matrix
M
w
v
=
(
c
i
j
)
i
j
{\displaystyle {}M_{\mathfrak {w}}^{\mathfrak {v}}={\left(c_{ij}\right)}_{ij}\,}
zusammenfassen.
Dann hat ein Vektor
u
{\displaystyle {}u}
, der bezüglich der Basis
v
{\displaystyle {}{\mathfrak {v}}}
die Koordinaten
(
s
1
⋮
s
n
)
{\displaystyle {}{\begin{pmatrix}s_{1}\\\vdots \\s_{n}\end{pmatrix}}}
besitzt, bezüglich der Basis
w
{\displaystyle {}{\mathfrak {w}}}
die Koordinaten
(
t
1
⋮
t
n
)
=
M
w
v
(
s
1
⋮
s
n
)
=
(
c
11
c
12
…
c
1
n
c
21
c
22
…
c
2
n
⋮
⋮
⋱
⋮
c
n
1
c
n
2
…
c
n
n
)
(
s
1
⋮
s
n
)
.
{\displaystyle {}{\begin{pmatrix}t_{1}\\\vdots \\t_{n}\end{pmatrix}}=M_{\mathfrak {w}}^{\mathfrak {v}}{\begin{pmatrix}s_{1}\\\vdots \\s_{n}\end{pmatrix}}={\begin{pmatrix}c_{11}&c_{12}&\ldots &c_{1n}\\c_{21}&c_{22}&\ldots &c_{2n}\\\vdots &\vdots &\ddots &\vdots \\c_{n1}&c_{n2}&\ldots &c_{nn}\end{pmatrix}}{\begin{pmatrix}s_{1}\\\vdots \\s_{n}\end{pmatrix}}\,.}
Dies folgt direkt aus
u
=
∑
j
=
1
n
s
j
v
j
=
∑
j
=
1
n
s
j
(
∑
i
=
1
n
c
i
j
w
i
)
=
∑
i
=
1
n
(
∑
j
=
1
n
s
j
c
i
j
)
w
i
{\displaystyle {}u=\sum _{j=1}^{n}s_{j}v_{j}=\sum _{j=1}^{n}s_{j}{\left(\sum _{i=1}^{n}c_{ij}w_{i}\right)}=\sum _{i=1}^{n}{\left(\sum _{j=1}^{n}s_{j}c_{ij}\right)}w_{i}\,}
und der Definition der
Matrizenmultiplikation .
◻
{\displaystyle \Box }
Man kann diese Aussage auch so auffassen: Zu den beiden Basen gehören die bijektiven linearen Abbildungen
ψ
v
:
K
n
⟶
V
und
ψ
u
:
K
n
⟶
V
{\displaystyle \psi _{\mathfrak {v}}:K^{n}\longrightarrow V{\text{ und }}\psi _{\mathfrak {u}}:K^{n}\longrightarrow V}
(die jeweils die Standardvektoren auf die Basisvektoren schicken). Dann ist
(
ψ
u
)
−
1
∘
ψ
v
:
K
n
⟶
K
n
{\displaystyle (\psi _{\mathfrak {u}})^{-1}\circ \psi _{\mathfrak {v}}\colon K^{n}\longrightarrow K^{n}}
ebenfalls eine bijektive lineare Abbildung, und diese wird bezüglich der Standardbasis durch
M
u
v
{\displaystyle {}M_{\mathfrak {u}}^{\mathfrak {v}}}
beschrieben. Die Matrix, die den Basiswechsel beschreibt, nennt man auch die Übergangsmatrix .
Die linearen Standardabbildungen
K
n
→
V
{\displaystyle {}K^{n}\rightarrow V}
bzw.
K
m
→
W
{\displaystyle {}K^{m}\rightarrow W}
zu den Basen seien mit
Ψ
v
,
Ψ
u
,
Ψ
w
,
Ψ
z
{\displaystyle {}\Psi _{\mathfrak {v}},\,\Psi _{\mathfrak {u}},\,\Psi _{\mathfrak {w}},\,\Psi _{\mathfrak {z}}}
bezeichnet. Wir betrachten das
kommutative Diagramm
K
n
⟶
M
w
v
(
φ
)
K
m
↘
Ψ
v
Ψ
w
↙
M
u
v
↓
V
⟶
φ
W
↓
M
z
w
↗
Ψ
u
Ψ
z
↖
K
n
⟶
M
z
u
(
φ
)
K
m
,
{\displaystyle {\begin{matrix}K^{n}&&&{\stackrel {M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )}{\longrightarrow }}&&&K^{m}\\&\searrow \Psi _{\mathfrak {v}}\!\!\!\!\!&&&&\Psi _{\mathfrak {w}}\swarrow \!\!\!\!\!&\\\!\!\!\!\!M_{\mathfrak {u}}^{\mathfrak {v}}\downarrow &&V&{\stackrel {\varphi }{\longrightarrow }}&W&&\,\,\,\,\downarrow M_{\mathfrak {z}}^{\mathfrak {w}}\\&\nearrow \Psi _{\mathfrak {u}}\!\!\!\!\!&&&&\Psi _{\mathfrak {z}}\nwarrow \!\!\!\!\!&\\K^{n}&&&{\stackrel {M_{\mathfrak {z}}^{\mathfrak {u}}(\varphi )}{\longrightarrow }}&&&K^{m},\!\!\!\!\!\end{matrix}}}
wobei die Kommutativität auf
Fakt
und
Fakt
beruht. In dieser Situation ergibt sich insgesamt
M
z
u
(
φ
)
=
Ψ
z
−
1
∘
φ
∘
Ψ
u
=
Ψ
z
−
1
∘
(
Ψ
w
∘
M
w
v
(
φ
)
∘
Ψ
v
−
1
)
∘
Ψ
u
=
(
Ψ
z
−
1
∘
Ψ
w
)
∘
M
w
v
(
φ
)
∘
(
Ψ
v
−
1
∘
Ψ
u
)
=
(
Ψ
z
−
1
∘
Ψ
w
)
∘
M
w
v
(
φ
)
∘
(
Ψ
u
−
1
∘
Ψ
v
)
−
1
=
M
z
w
∘
M
w
v
(
φ
)
∘
(
M
u
v
)
−
1
.
{\displaystyle {}{\begin{aligned}M_{\mathfrak {z}}^{\mathfrak {u}}(\varphi )&=\Psi _{\mathfrak {z}}^{-1}\circ \varphi \circ \Psi _{\mathfrak {u}}\\&=\Psi _{\mathfrak {z}}^{-1}\circ (\Psi _{\mathfrak {w}}\circ M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )\circ \Psi _{\mathfrak {v}}^{-1})\circ \Psi _{\mathfrak {u}}\\&=(\Psi _{\mathfrak {z}}^{-1}\circ \Psi _{\mathfrak {w}})\circ M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )\circ (\Psi _{\mathfrak {v}}^{-1}\circ \Psi _{\mathfrak {u}})\\&=(\Psi _{\mathfrak {z}}^{-1}\circ \Psi _{\mathfrak {w}})\circ M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )\circ (\Psi _{\mathfrak {u}}^{-1}\circ \Psi _{\mathfrak {v}})^{-1}\\&=M_{\mathfrak {z}}^{\mathfrak {w}}\circ M_{\mathfrak {w}}^{\mathfrak {v}}(\varphi )\circ (M_{\mathfrak {u}}^{\mathfrak {v}})^{-1}.\end{aligned}}}
◻
{\displaystyle \Box }
Dies folgt direkt aus
Fakt .
◻
{\displaystyle \Box }
Es ist ein wichtiger Aspekt, zu einer gegebenen linearen Abbildung eines Vektorraumes in sich selbst eine Basis zu finden, bezüglich der die beschreibende Matrix „möglichst einfach“ wird. Dieses Problem ist äquivalent damit, zu einer quadratischen Matrix
M
{\displaystyle {}M}
eine invertierbare Matrix
A
{\displaystyle {}A}
zu finden derart, dass
A
M
A
−
1
{\displaystyle {}AMA^{-1}}
möglichst einfach ist.