Das Problem der Interpolation besteht allgemein darin, für
gegebene Stützpunkte bzw. Daten
ein Funktion
eines gegebenen endlich-dimensionalen Funktionenraums
zu bestimmen, so dass

gilt. Dabei können die
von einer gegebenen, in den
definierten Funktion
herrühren, d. h. kann

gelten.
Ähnlich wie bei der Ausgleichsrechnung geht es also darum, eine große Zahl von Daten durch eine Funktion zu ersetzen bzw. eine Funktion
, die möglicherweise durch eine komplizierte und numerisch aufwendig auszuwertende Vorschrift definiert ist, durch eine Funktion
mit einer einfacheren Vorschrift anzunähern, die ebenfalls die Daten
interpoliert.
Bei bei der Interpolation wird im Unterschied zur Ausgleichsrechnung gefordert, dass der Graph der gesuchten Funktion
genau durch die Punkte
verläuft und nicht nur mit einem möglichst geringen Fehler annähert.
Bei der linearen Regression versucht man eine Ausgleichsgerade zu finden, dessen Abstand zu den Daten
minimiert.
Das aus den Daten entstehende Gleichungssystem ist überbestimmt und daher im Allgemeinen nicht eindeutig lösbar. Eine Interpolation von mehr als zwei Datenpunkten mit einem Polynom 1. Grades ist daher im Allgemeinen nicht möglich.
Für die Wahl des Ansatzraumes
gibt es nun wie bei der Ausgleichsrechnung oder anderen Arten der Approximation viele Möglichkeiten. Hier wollen wir nur auf die wichtigste Art der Interpolation eingehen, die Polynominterpolation, bei der

der Funktionenraum aller Polynome vom Höchstgrad
, also
mit
ist.
Wir betrachten also jetzt das folgende Problem (IP) der Interpolation durch ein Polynom:
- (IP) Für gegebene Stützpunkte
- (6.1)

- mit Stützstellen
- (6.2)

- bestimme ein Interpolationspolynom
mit
- (6.3)

Die Bedingung (6.2) könnte man an einigen Stellen in diesem Kapitel fortlassen. Sie ist aber sinnvoll und wird insbesondere zum Beweis der Eindeutigkeit des Interpolationspolynoms im nächsten Satz benötigt.
Satz - Eindeutigkeitssatz - Interpolationsproblem
[Bearbeiten]
- Das Interpolationsproblem (IP) hat eine eindeutige Lösung
.
Sei
in der Form

gegeben. Dann lauten die Gleichungen (6.3)
- (6.4)

Dies sind
Gleichungen in den
Unbekannten
. Die zu diesen Gleichungen gehörende Systemmatrix ist die bereits aus Abschnitt 4.2 bekannte Vandermonde-Matrix

Ihre Determinante, die Vandermonde-Determinante, ist durch

gegeben (siehe R. Zurmühl: Matrizen und ihre technischen Anwendungen, Springer, Berlin, 1965). Wegen (6.2) ist
und alles gezeigt.
q.e.d.
Der Beweis des letzten Satzes macht deutlich, dass man das Interpolationspolynom bestimmen kann, indem man das System (6.4) löst. Leider ist die zugehörige Systemmatrix, die Vandermonde-Matrix, sehr schlecht konditioniert, wie wir bereits in Abschnitt 4.2 festgestellt hatten. Daher ist von diesem Weg zur Lösung des Interpolationsproblems abzuraten. Wir geben im Folgenden andere Möglichkeiten der Bestimmung an, die aber alle auch Vor- und Nachteile haben.
6.2 Die Lagrangesche Darstellung des Interpolationspolynoms
[Bearbeiten]
Wir führen zunächst spezielle Polynome ein:
- Zu
Stützstellen
mit
für
sind die Langrangeschen Basispolynome
definiert durch

Offenbar hat das Lagrangesche Basispolynom
die
Nullstellen
und genügt es den
Bedingungen
- (6.5)

Da
ein Polynom vom Höchstgrad
ist und somit, wenn es nicht das Nullpolynom ist, maximal
Nullstellen hat, folgt:
- (6.6)

Das heißt, die
sind linear unabhängig und es ist somit

Wegen

folgt damit

Die Funktionen
bilden also eine Basis des Polynomraumes
, so dass sich jedes Polynom vom Höchstgrad
und damit auch das eindeutig bestimmte Interpolationspolynom als Linearkombination der
darstellen lässt. Für die nach Satz 6.1 eindeutige Lösung
des Interpolationsproblems (IP) ist diese Darstellung wegen (6.5) besonders einfach. Denn macht man für
den Ansatz

so folgt mit (6.3) und (6.5)

und damit die Lagrangesche Darstellung des Interpolationspolynoms
- (6.7)

Sie hat den Vorteil, dass man an ihr die Stützwerte
für die Stützpunkte
und damit die Interpolationsbedingungen (6.3) sofort ablesen kann.
Zu den Stützpunkten

lauten die Langrangeschen Basispolynome



Das Interpolationspolynom
zu diesen Stützpunkten ist somit gegeben durch

Zum Beispiel für
berechnet man

Man beachte, dass die Abbildung

die für vorgegebene, paarweise verschiedene
jeder Menge von
Stützwerten
das eindeutige Interpolationspolynom zuordnet, linear ist.
Leider ist aber auch die Lagrangesche Darstellung des Interpolationspolynoms für praktische Rechnungen mit großem
weniger geeignet. Denn die Berechnung von
in einem Punkt
für ein
verlangt insgesamt
Produkte und 1 Division, so dass für die Auswertung des Interpolationspolynoms an einer Stelle
insgesamt
, also
wesentliche arithmetische Operationen benötigt werden. Außerdem erfordert die Lagrangesche Darstellung des Interpolationspolynomes im Fall der Hinzunahme eines Stützpunktes oder mehrerer Stützpunkte zu der ursprünglichen Stützpunktmenge die Neuberechnung aller
und damit des gesamten Interpolationspolynoms.
Die Lösung für das Problem (IP), d. h. das Interpolationspolynom, kann auch schrittweise aus den Interpolationspolynomen für
Stützpunkte berechnet werden. Um dies zu zeigen, benötigen wir:
- Zu
Stützpunkten
wie in (6.1) und (6.2) bezeichne
das (eindeutig bestimmte) Polynom vom Grad
mit
- (6.8)

- wobei
und
seien.
Damit können wir die Lösung
des Problems (IP) auch in der Form

schreiben. Weiter können wir in diesem Zusammenhang beweisen:
- Für
gilt die Rekursionsformel
- (6.9)

- (6.10)
, falls
.
Die Identität (6.9) ist wegen
und
richtig. Nun bezeichne
die rechte Seite von (6.10), so dass
zu zeigen ist.
Es gilt
und
und demnach
. Weiter gilt

und für
hat man

Wegen der Eindeutigkeit des Interpolationspolynoms (vgl. Satz 6.1) folgt
.
q.e.d.
Die Formel (6.10) ist eine Rekursionsformel, die es ermöglicht, das Polynom
vom Grad
aus den beiden Polynomen
und
vom Grad
zu bestimmen. Sie führt auf das Neville-Schema, bei dem sich die Einträge spaltenweise berechnen lassen:

Mit diesem Schema lässt sich das Interpolationspolynom
an einzelnen Stellen
auswerten. Dazu werden jeweils

Multiplikationen und Divisionen benötigt.
Wir betrachten wieder die Stützpunkte aus Beispiel 6.3:

Für
berechnet man



Demnach sieht das Neville-Schema hier wie folgt aus:

Bei Aufnahme eines neuen Stützpunktes oder mehrerer neuer Stützpunkte und Auswertung des Interpolationspolynoms an derselben Stelle wie zuvor, muss das Neville-Schema, anders als es eine Auswertung über die Lagrangesche Darstellung erfordern würde, nicht vollständig neu aufgestellt werden, sondern müssen nur entsprechende Zeilen am Ende des Schemas hinzugefügt werden. Falls ein Interpolationspolynom jedoch an mehreren Stellen zu bestimmen ist, sind trotzdem andere Methoden vorzuziehen. Eine davon wird im folgenden Abschnitt vorgestellt.
6.4 Die Newtonsche Darstellung des Interpolationspolynoms
[Bearbeiten]
Wir definieren zunächst:
- Zu gegebenen
Stützstellen
sind die Newtonschen Basispolynome
definiert durch

Man beachte dabei, dass das leere Produkt als 1 definiert, also
ist. Ähnlich wie für die Lagrangeschen Basispolynome in (6.6) schließt man, dass die Newtonschen Basispolynome linear unabhängig sind und

ist. Jedes Polynom vom Höchstgrad
lässt sich also auch nach Newtonschen Basispolynomen entwickeln. Insbesondere soll nun eine solche Entwicklung
- (6.11)

d. h., sollen nun zugehörige Koeffizienten
für das Interpolationspolynom
bestimmt werden.
Die Koeffizienten
in (6.11) lassen sich nacheinander aus den Gleichungen



gewinnen. Zur Berechnung der Koeffizienten des Interpolationspolynoms wären bei dieser Vorgehensweise

Multiplikationen und Divisionen und insgesamt
arithmetische Operationen erforderlich. Eine Vorgehensweise, die dafür nur
Divisionen und nur insgesamt
arithmetische Operationen verlangt, soll im Folgenden vorgestellt werden.
- Für
Stützpunkte
wie in (6.1) und (6.2) heißen die Zahlen
![{\displaystyle y[x_{i}]:=y_{i},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c860afe8eb77964bf0833d4aedf384e72af3cbd5)
- (6.12)
![{\displaystyle y[x_{i},\ldots ,x_{i+k}]:={\frac {y[x_{i+1},\ldots ,x_{i+k}]-y[x_{i},\ldots ,x_{i+k-1}]}{x_{i+k}-x_{i}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4d55282d0c8f41d1a7f624fd714410bb7f3d6f00)
- dividierte Differenzen, wobei
und
seien.
Man beachte, dass die dividierte Differenz
von den Stützstellen
und den Stützwerten
abhängt. Die genauen Abhängigkeiten zwischen den einzelnen dividierten Differenzen können dem folgenden Tableau entnommen werden.
![{\displaystyle {\begin{matrix}y_{0}=y[x_{0}]&&&&&&&&\\&\searrow &&&&&&&\\y_{1}=y[x_{1}]&\rightarrow &y[x_{0},x_{1}]&&&&&&\\&\searrow &&\searrow &&&&&\\y_{2}=y[x_{2}]&\rightarrow &y[x_{1},x_{2}]&\rightarrow &y[x_{0},x_{1},x_{2}]&&&&\\\vdots &&\vdots &&\vdots &\ddots &&&\\y_{n-1}=y[x_{n-1}]&\rightarrow &y[x_{n-2},x_{n-1}]&\rightarrow &\ldots &\ldots &y[x_{0},x_{n-1}]&&\\&\searrow &&\searrow &&&&\searrow &\\y_{n}=y[x_{n}]&\rightarrow &y[x_{n-1},x_{n}]&\rightarrow &\ldots &\ldots &y[x_{1},\ldots ,x_{n}]&\rightarrow &{y[x_{0},\ldots ,x_{n}]}\end{matrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/37be6746878bdcb4d22dfbc20f59d9f95f2642c1)
Zum Beispiel gilt
![{\displaystyle y[x_{0},x_{1}]={\frac {y[x_{1}]-y[x_{0}]}{x_{1}-x_{0}}},\quad y[x_{1},x_{2}]={\frac {y[x_{2}]-y[x_{1}]}{x_{2}-x_{1}}},\quad y[x_{0},x_{1},x_{2}]={\frac {y[x_{1},x_{2}]-y[x_{0},x_{1}]}{x_{2}-x_{0}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4ba3f809acfbcd4decf812a8f84ed6e913744ff3)
Zur Berechnung aller dividierten Differenzen für
Stützpunkte werden insgesamt nur

Divisionen benötigt. Ferner gilt folgender Satz:
- Für die Lösung
des Interpolationsproblems (IP) hat man die Darstellung (6.11) mit
- (6.13)
![{\displaystyle a_{i}:=y[x_{0},\ldots ,x_{i}],\quad i=0,1,\ldots ,n.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b1b9aa216f70aedbcc65dbf7e292b578fdf5acce)
Der Beweis wird per vollständiger Induktion über
geführt. Die Behauptung ist sicher für
richtig. Es sei nun angenommen, dass sie für beliebiges
und beliebige Stützpunkte
mit
für
richtig sei.
Seien nun
Stützpunkte
mit
für
gegeben und
das zugehörige Interpolationspolynom. Mit den in Definition 6.4 definierten Polynomen gilt dann

und daher mit einer Konstanten
(
ist möglich)

bzw.
- (6.14)

Nach Induktionsvoraussetzung gilt nun
so dass noch
![{\displaystyle a=y[x_{0},\ldots ,x_{n+1}]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cfd6070f7b01d0c0b457d6d8d76605538d907921)
zu zeigen bleibt.
Nach Satz 6.5 gilt
- (6.15)

so dass die Behauptung per Koeffizientenvergleich folgt: wegen (6.14) muss a der Hauptkoeffizient von
, d. h. muss

für ein gewisses Polynom
sein. Weiter ist nach Induktionsvoraussetzung bekannt, dass
und
die Hauptkoeffizienten
und
haben und damit
den folgenden Hauptkoeffizienten hat:
![{\displaystyle a={\frac {y[x_{1},\ldots ,x_{n+1}]-y[x_{0},\ldots ,x_{n}]}{x_{n+1}-x_{0}}}=y[x_{0},\ldots ,x_{n+1}].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0480a142e1629f76dc21ed5358a4d02187282d29)
Somit ist alles gezeigt.
q.e.d.
Die Darstellung (6.13) nennt man die Newtonsche Darstellung des Interpolationspolynoms. Nimmt man einen weiteren Stützpunkt zu den ursprünglich
Stützpunkten zusätzlich mit auf, so ändern sich offenbar die ersten
Koeffizienten des Interpolationspolynoms in dieser Darstellung nicht und kann man den Koeffizienten
berechnen, indem man im Schema der dividierten Differenzen unten eine zusätzliche Zeile für diesen Punkt berechnet.
Sind schließlich die Koeffizienten
der Newtonschen Darstellung (6.11) des Interpolationspolynoms
bekannt, so kann dieses für jedes
effizient mit dem Horner-Schema
+\ldots +a_{1}](\xi -x_{0})+a_{0}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5ceb5eef2a152c09af54b797a6e79dc8c640d581)
ausgewertet werden, wobei die Operationen von links nach rechts auszuführen sind.
Zum Abschluss zeigen wir die Vorgehensweise wieder an unserem Standardbeispiel.
Gegeben seien die Stützpunkte

Dazu stellen wir das Schema der dividierten Differenzen auf:
![{\displaystyle {\begin{matrix}y[x_{0}]=1&&&&\\&\searrow &&&\\y[x_{1}]=3&\rightarrow &y[x_{0},x_{1}]={\frac {y[x_{1}]-y[x_{0}]}{x_{1}-x_{0}}}=2&&\\&\searrow &&\searrow &\\y[x_{2}]=2&\rightarrow &y[x_{1},x_{2}]={\frac {y[x_{2}]-y[x_{1}]}{x_{2}-x_{1}}}=-{\frac {1}{2}}&\rightarrow &y[x_{0},x_{1},x_{2}]={\frac {y[x_{1},x_{2}]-y[x_{0},x_{1}]}{x_{2}-x_{0}}}=-{\frac {5}{6}}\end{matrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dd49032ed898cf3c27b765562be376ce6160dae1)
Das Interpolationspolynom
zu diesen Stützpunkten lautet somit in der Newtonschen Darstellung:
- (6.16)

Nimmt man beispielsweise den Punkt
mit hinzu, so muss man nur das obige Schema um eine Zeile erweitern:

Das Interpolationspolynom
zu diesen Stützpunkten ist dann in Bezug auf (6.16) nur um einen Term zu erweitern:

Das Horner-Schema zur Berechnung von letzterem Polynom an der Stelle
lässt sich mit

wie folgt darstellen, wobei hier
ist:

Offenbar ist
.
6.5 Der Fehler bei der Polynominterpolation
[Bearbeiten]
Der folgende Satz gibt für hinreichend oft differenzierbare Funktionen eine Darstellung des bei der Polynominterpolation auftretenden Fehlers an.
- Es seien
und
. Für jedes
genügt dann die Lösung
des Interpolationsproblems (IP) der Gleichung
- (6.17)

- mit
- (6.18)

- und einem
.
Da für
für
nichts zu zeigen ist, nehmen wir
für
an. Sei nun

mit

so dass
folgt. Also besitzt
in dem Intervall
mindestens
paarweise verschiedene Nullstellen

Wiederholte Anwendung des Satzes von Rolle zeigt, dass
in dem Intervall
mindestens
Nullstellen besitzt,
mindestens
usw. und somit
mindestens noch eine Nullstelle
. Nun gilt aber

wobei die zweite Identität aus der Tatsache folgt, dass
den Hauptkoeffizienten 1 hat. Insgesamt erhält man damit

was den Beweis vervollständigt.
q.e.d.
Eine weitere Darstellung für den bei der Polynominterpolation entstehenden Fehler erhält man mittels dividierter Differenzen.
- Es seien
und
. Für jedes
genügt dann die Lösung
des Interpolationsproblems (IP) der Gleichung
![{\displaystyle f(x)-p(x)=y[x_{0},\ldots ,x_{n},x]\omega (x).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4eb6f244858309d87cd5245b9c93c267a1364b4a)
Mit
für
hat man nach Satz 6.9
![{\displaystyle P_{0,\ldots ,n+1}(t)=P_{0,\ldots ,n}(t)+y[x_{0},\ldots ,x_{n},x]\omega (t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/66e52141954659fa6222a42ebb5b13484bd0df0c)
für alle
, so dass mit der Identität
die Behauptung folgt.
q.e.d.
Als Konsequenz aus den Sätzen 6.11 und 6.12 ergibt sich für die dividierten Differenzen:
Es seien
und
Stützwerte zu Stützstellen
mit
für
. Dann existiert ein
mit
![{\displaystyle y[x_{0},\ldots ,x_{n}]={\frac {f^{(n)}(\xi )}{n!}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8405aae9364d6278e952285d08150cf7e67b2fda)
Für
ist die Behauptung trivial und für
folgt sie unmittelbar aus einem Vergleich der rechten Seiten in den Sätzen 6.11 und 6.12, wenn diese auf
und
angewandt werden.
q.e.d.
Wir wollen nun der Frage nachgehen, ob die Wahl von mehr Stützstellen automatisch auch zu einer Verringerung des bezüglich
maximalen Interpolationsfehlers führt oder, anders ausgedrückt, ob der maximale Interpolationsfehler für eine Folge von Interpolationspolynomen zu zunehmend wachsender Zahl von Stützstellen gegen Null strebt. Dazu sei für jedes
für den Rest des Unterabschnitts
- (6.19)

mit einem
eine Partition von
und

ein Maß für die Feinheit der Unterteilung. Weiter sei
das Interpolationspolynom zu
mit den Stützstellen
. Aus Satz 6.11 können wir dann zunächst das folgende Konvergenzergebnis schließen. Man beachte, dass dafür nicht
gefordert ist.
- Es sei
und es gelte mit einem
![{\displaystyle \max _{x\in [a,b]}\left|f^{(k)}(x)\right|\leq M,\quad k\in \mathbb {N} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c2e4a9324b3590c390b69be0c3b5dbbe65e0a207)
- Weiter sei
eine Folge von Partitionen von
der Form (6.19) mit
. Dann konvergiert die Folge der zugehörigen Interpolationspolynome auf
gleichmäßig gegen
, d. h., es gilt
![{\displaystyle \lim _{j\to \infty }\max _{x\in [a,b]}|f(x)-p_{j}(x)|=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/66875d82d1302783b3aceffece08402f7504b9bc)
Aus Satz 6.11 schließt man
![{\displaystyle \max _{x\in [a,b]}|f(x)-p_{j}(x)|\leq {\frac {M}{(n_{j}+1)!}}\max _{x\in [a,b]}\left|(x-x_{0})\cdots (x-x_{n_{j}})\right|\leq {\frac {M(b-a)^{n_{j}+1}}{(n_{j}+1)!}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0195848dbc4e5e3a0ea83bf283dd0e9bc73e2720)
Für
konvergiert der letzte Term für
gegen Null, so dass alles gezeigt ist.
q.e.d.
Für
hat man

und somit z. B. für
![{\displaystyle \max _{x\in [0,2]}\left|f^{(k)}(x)\right|\leq {\frac {1}{2^{k}}}e^{0}\leq {\frac {1}{2}},\quad k\in \mathbb {N} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cf207d82148515c33dfbfb8b16f97c1e57ddda80)
Allgemein kann man jedoch nicht erwarten, dass eine gegebene Funktion auf einem kompakten Intervall umso besser durch ein Interpolationspolynom approximiert wird, je feiner die Unterteilung der Stützstellen gewählt wird. Wie man zeigen kann, ist dafür die Funktion
![{\displaystyle f(x):={\frac {1}{1+x^{2}}},\quad x\in [-5,5]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cf865bb799545254a1f25f78795091ec2542b9ae)
ein Beispiel. Für deren Ableitungen in
man

zeigen kann, so dass z. B. für
mit einer Konstanten
folgt:

In diesem Fall ist also auch die Voraussetzung von Satz 6.14 nicht erfüllt. Allgemein hat man in diesem Zusammenhang das folgende „Negativergebnis“, den Satz von Faber, welcher insbesondere für Folgen von Partitionen
mit
von Interesse ist. (Einen Beweis, der allerdings einiges voraussetzt, findet man bei E. W. Cheney: Introduction to Approximation Theory, 2nd edition, Chelsea, New York, 1982.)
- Zu jeder Folge von Partitionen
von
der Form (6.19) existiert eine Funktion
, so dass für die Folge der zugehörigen Interpolationspolynome auf
gilt:
![{\displaystyle \lim _{j\to \infty }\max _{x\in [a,b]}|f(x)-p_{j}(x)|=\infty .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f6f87047697e8b602c2c5e311a2c2c417a90d7a3)
Der Fehler des Interpolationspolynoms zu
vorgegebenen Stützstellen wird durch (6.17) beschrieben. Da der Punkt
in (6.17) i. a. unbekannt ist, macht es Sinn, statt der Darstellung (6.17) des Interpolationsfehlers die Abschätzung
- (6.20)
![{\displaystyle \max _{x\in [a,b]}|f(x)-p(x)|\leq {\frac {1}{(n+1)!}}\max _{x\in [a,b]}\left|f^{(n+1)}(x)\right|\max _{x\in [a,b]}|\omega (x)|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6d3020e3ed99ed91ed31247db98507cbf5a72e5e)
zu betrachten. In diesem Abschnitt wird der Frage nachgegangen, für welche Stützstellen
der darin stehende Ausdruck
![{\displaystyle \max _{x\in [a,b]}|\omega (x)|=\max _{x\in [a,b]}|(x-x_{0})\cdots (x-x_{n})|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4dc15224ee951e9899267157682b9eda57d0abe0)
am kleinsten wird, d. h. es soll das Minimax-Problem
![{\displaystyle \min _{x_{0},\ldots ,x_{n}\in [a,b]}\max _{x\in [a,b]}|(x-x_{0})\cdots (x-x_{n})|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1d4eb19a3b8f708932a34dae9010ba18839153dc)
gelöst werden. Da jedes Polynom vom Grad
mit Hauptkoeffizientem 1 mit Hilfe seiner Nullstellen
als Produkt
geschrieben werden kann, ist also ein Polynom gesucht, welches unter allen Polynomen vom Grad
mit Hauptkoeffizienten 1 die Maximumnorm bezüglich
minimal macht. Wählt man die
Nullstellen eines solchen Polynoms als Stützstellen, so erzeugt also das zugehörige Interpolationspolynom
unter allen Interpolationspolynomen zu
Stützpunkten
die kleinste obere Fehlerschranke in (6.20).
Wir betrachten zunächst nur das Intervall
. Es wird sich im Folgenden herausstellen, dass die gesuchten „optimalen“ Stützstellen
gerade die Nullstellen des
-ten Tschebyscheff-Polynoms erster Art sind.
- Die Funktionen
- (6.21)
![{\displaystyle T_{n}(x):=\cos(n\arccos(x)),\quad x\in [-1,1],\quad n=0,1,\ldots }](https://wikimedia.org/api/rest_v1/media/math/render/svg/7f531a6e5ca23d3f823c739feedc9571a1b2bec7)
- heißen Tschebyscheff-Polynome erster Art.
Im folgenden Satz sind einige Eigenschaften dieser Funktionen aufgeführt.
- Für
wie in (6.21) gelten die folgenden Aussagen:
- (i)
![{\displaystyle T_{n}(\cos(\theta ))=\cos(n\theta ),\quad \theta \in [0,\pi ],\quad n=0,1,\ldots }](https://wikimedia.org/api/rest_v1/media/math/render/svg/3ede2f33103cee970e58101fd8fa7d02810d7d63)
- (ii) Für
gilt
und
- (6.22)

- und Fortsetzung des Definitionsbereichs der so definierten
auf ganz
liefert
- (6.23)

- (iii)
hat für
den Hauptkoeffizienten
.
- (iv) Es gilt
![{\displaystyle \max _{x\in [-1,1]}|T_{n}(x)|=1.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0f3b036b4e5c04de4140637f4e1d5a10a513ecc4)
- (v)
besitzt die
einfachen Nullstellen
- (6.24)

- welche alle in dem Intervall
liegen.
- (vi)
besitzt in dem Intervall
insgesamt
Extremwerte

- für
- (6.25)

(i) gilt offensichtlich und die Darstellungen für
und
in (ii) ergeben sich sofort aus der Definition (6.21). Für die Herleitung der Rekursionsformel (6.22) benötigen wir die Formel

Mit (i) liefert diese für
und
![{\displaystyle T_{n+1}(x)=\cos[(n+1)\theta ]=2\cos(\theta )\cos(n\theta )-\cos[(n-1)\theta ]=2xT_{n}(x)-T_{n-1}(x).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/14cd7686efb2ee02dffaba760b5539b1bef1b340)
Weiter folgt (iii) aus der Rekursionsformel (ii) und folgt (iv) mit (i) wegen
![{\displaystyle \max _{x\in [-1,1]}|T_{n}(x)|=\max _{\theta \in [0,\pi ]}|T_{n}(\cos(\theta ))|=\max _{\theta \in [0,\pi ]}|\cos(n\theta )|=1.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c51e3bcdce7f70efdec762ab4e400b921222139a)
Schließlich sind die Aussagen (v) und (vi) offensichtlich richtig.
q.e.d.
Nach Satz 6.18 (iii) und (v) gilt mit den Nullstellen
von
wie in (6.24) die Darstellung
- (6.26)
=(x-x_{0}^{(n+1)})\cdots (x-x_{n}^{(n+1)}).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/765c1089115efd73cfcddb802a3760cb10d1fa6d)
Der folgende Satz besagt nun, dass dieses Polynom unter allen Polynomen vom Grad
mit Hauptkoeffizienten 1 die Maximumnorm auf
minimal macht und dass man überdies den zugehörigen Wert dieser Norm auch angeben kann.
Für
und die
wie in (6.24) gilt die folgende Optimalitätseigenschaft:
- (6.27)
![{\displaystyle \min _{x_{0},\ldots ,x_{n}\in [-1,1]}\max _{x\in [-1,1]}|(x-x_{0})\cdots (x-x_{n})|=\max _{x\in [-1,1]}\left|(x-x_{0}^{(n+1)})\cdots (x-x_{n}^{(n+1)})\right|={\frac {1}{2^{n}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3ce5e2919889a0f7d430f216546cc9b82f808f1)
Die zweite Identität folgt aus (6.26) mit Satz 6.18 (iv). Weiter ist bei der ersten Identität in (6.27) die Abschätzung „
“ offensichtlich. Die Abschätzung „
“ soll nun durch eine Widerspruchsannahme nachgewiesen werden.
Angenommen, es gibt Zahlen
mit
- (6.28)
![{\displaystyle {\frac {1}{2^{n}}}>\max _{x\in [-1,1]}|\omega (x)|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/04a4623d01c9dc2c28eded266b8cd35921abf06d)
für
. Also ist insbesondere
- (6.29)
![{\displaystyle -{\frac {1}{2^{n}}}<\omega (x)<{\frac {1}{2n}},\quad x\in [-1,1].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fc423b649831ad616a6592b3aff6194e4861a074)
Für das Polynom

schließt man mit (6.25) und (6.29)
})={\frac {1}{2^{n}}},&\omega (y_{0}^{(n+1)})<{\frac {1}{2^{n}}}&\Rightarrow &q(y_{0}^{(n+1)})>0,\\\left[{\frac {1}{2^{n}}}T_{n+1}\right](y_{1}^{(n+1)})=-{\frac {1}{2^{n}}},&\omega (y_{1}^{(n+1)})>-{\frac {1}{2^{n}}}&\Rightarrow &q(y_{1}^{(n+1)})<0,\\\left[{\frac {1}{2^{n}}}T_{n+1}\right](y_{2}^{(n+1)})={\frac {1}{2^{n}}},&\omega (y_{2}^{(n+1)})<{\frac {1}{2^{n}}}&\Rightarrow &q(y_{2}^{(n+1)})>0.\\\vdots &\vdots &\vdots &\vdots \end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6d83fffaf82e66e5f43320e75d67de0d15fd3ca8)
Also hat
mindestens
Vorzeichenwechsel in
und gilt allgemein

Das Polynom
besitzt demnach
einfache paarweise verschiedene Nullstellen in
. Nun ist sowohl
als auch
ein Polynom vom Grad
und besitzen beide Funktionen den führenden Koeffizienten 1, so dass notwendigerweise
gilt. Da
im Fall
nur höchstens
paarweise verschiedene Nullstellen haben kann, folgt
bzw.

was aber wegen Satz 6.18 (iv) und (6.29) der Annahme (6.28) widerspricht.
q.e.d.
Damit haben wir den Fall
behandelt. Abschließend werden wir nun noch allgemeine Intervalle
betrachten. Dazu verwenden wir die affin-lineare Transformation
- (6.30)
![{\displaystyle \psi :[-1,1]\to [a,b],\quad \psi (t):={\frac {1}{2}}[a+b+(b-a)t],}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dfd9b7d3a32771f3886a4fc25417a0a9e72e3463)
mit welcher der nachfolgende Satz leicht aus Satz 6.19 zu schließen ist.
- Mit der Funktion
aus (6.30) und den
wie in (6.24) gilt die Optimalitätseigenschaft
![{\displaystyle \min _{x_{0},\ldots ,x_{n}\in [a,b]}\max _{x\in [a,b]}|(x-x_{0})\cdots (x-x_{n})|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1d4eb19a3b8f708932a34dae9010ba18839153dc)
- (6.31)
![{\displaystyle =\max _{x\in [a,b]}{\Bigl |}{\Bigl (}x-\psi (x_{0}^{(n+1)}){\Bigr )}\cdots {\Bigl (}x-\psi (x_{n}^{(n+1)}){\Bigr )}{\Bigr |}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae1130e2164f748136419524957f977301a1d1b4)
- (6.32)

Die Identität (6.32) ergibt sich mit Satz 6.19 unter Verwendung von (6.30) aus
![{\displaystyle \max _{x\in [a,b]}{\Bigl |}{\Bigl (}x-\psi (x_{0}^{(n+1)}){\Bigr )}\cdots {\Bigl (}x-\psi (x_{n}^{(n+1)}){\Bigr )}{\Bigr |}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bdac9349c0a27150a3bc29973606070d7db575c6)
![{\displaystyle =max_{t\in [-1,1]}{\Bigl |}{\Bigl (}\psi (t)-\psi (x_{0}^{(n+1)}){\Bigr )}\cdots {\Bigl (}\psi (t)-\psi (x_{n}^{(n+1)}){\Bigr )}{\Bigr |}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/35c24a2d4ad155b628404a119ad9e924e9120171)
![{\displaystyle =\left({\frac {b-a}{2}}\right)^{n+1}\max _{t\in [-1,1]}\left|(t-x_{0}^{(n+1)})\cdots (t-x_{n}^{(n+1)})\right|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0718102c0e2752656e6eb37f53fa013dabbcceff)

Weiter ist in (6.31) sicher die Ungleichung „
“ richtig. Zum Beweis der Ungleichung „
“ seien nun
beliebig. Dann gibt es eindeutig bestimmte Zahlen
mit
für
und mit diesen erhält man ähnlich wie im ersten Teil des Beweises
![{\displaystyle max_{x\in [a,b]}|(x-x_{0})\cdots (x-x_{n})|=\max _{t\in [-1,1]}|(\psi (t)-\psi (y_{0}))\cdots (\psi (t)-\psi (y_{n}))|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3d98eafc9f9790fba337c9d30bf7ac12f7975685)
![{\displaystyle =\left({\frac {b-a}{2}}\right)^{n+1}\max _{t\in [-1,1]}|(t-y_{0})\cdots (t-y_{n})|\geq {\frac {(b-a)^{n+1}}{2^{2n+1}}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/114a07aff0490b851d3ef5a1422793bc33b8ecb1)
q.e.d.
- Sei
und
das Interpolationspolynom zu den Stützpunkten
mit
für
aus (6.30) und
wie in (6.24). Dann gilt für den Interpolationsfehler
- (6.33)
![{\displaystyle \max _{x\in [a,b]}|f(x)-p(x)|\leq {\frac {(b-a)^{n+1}}{2^{2n+1}\cdot (n+1)!}}\max _{x\in [a,b]}\left|f^{(n+1)}(x)\right|.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/260dd61bc148a2665c4f129b99912f3267178582)
Man beachte aber, dass nach dem Satz von Faber 6.16 auch bei Wahl der Tschebyscheff-Knoten die Interpolationspolynome mit wachsendem
nicht gleichmäßig auf
gegen
konvergieren müssen.
Gegeben sei die Funktion
, welche im Intervall
in 5 Punkten durch ein Interpolationspolynom möglichst kleinen Grades so interpoliert werden soll, dass die maximale Schranke für den Approximationsfehler möglichst klein ausfällt. Die Stützstellen sind dann gemäß Korollar 6.21 zu wählen. Da der erste Punkt den Index 0 hat, ist hier
. Mit
![{\displaystyle \psi (t):={\frac {1}{2}}[a+b+(b-a)t]={\frac {1}{2}}[-2+2t]=t-1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7c2a616d46218af60c6c72e015fbc32505c1a54e)
und (6.24) lauten die gesuchten Stützstellen

Demnach errechnet man mit

Man hat weiter für

und damit
![{\displaystyle \max _{x\in [-2,0]}\left|f^{(5)}(x)\right|={\frac {243}{512}}e^{{\frac {3}{4}}\cdot 0}={\frac {243}{512}}\approx 0.474\,609\leq 0.48.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d58db6dc72bdf1c6a129b376afff82977ae8c41c)
Für das Interpolationspolynom
zu den berechneten Stützpunkten kann man also gemäß (6.33) die folgende maximale Abweichung von
auf
vorhersagen:
![{\displaystyle \max _{x\in [-2,0]}|f(x)-p_{4}(x)|\leq {\frac {2^{5}}{2^{9}\cdot 5!}}\max _{x\in [-2,0]}\left|f^{(5)}(x)\right|\leq {\frac {1}{16\cdot 120}}0.48=0.000\,25.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bda392f80c86f347010817da7358a9ec24256d11)
Abschließend sei noch gesagt, dass ein Nachteil der in diesem gesamten Kapitel dargestellten Form der Interpolation ihrer großen Fehlerempfindlichkeit ist. Fehlerhafte Daten
wirken sich nicht nur lokal bei der Stützstelle
aus, sondern verändern den Verlauf über das ganze Intervall hinweg relativ stark. Dies wird an dem folgenden einfachen Beispiel deutlich.
Seien


Dann hat man
und somit

Darstellung des Interpolationspolynoms
und damit des auf
bezogenen Interpolationsfehlers für z. B.
zeigt, dass
durch „Messfehler“
und
an der Stelle
sehr unterschiedlich verändert wird und zwar keineswegs nur an der Stelle
.
Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.
Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Numerik I' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.