Kurs:Mathematische Modellbildung/Themen/Tourismus in der südlichen Weinstraße

Aus Wikiversity
Zur Navigation springen Zur Suche springen

Entwicklung des Tourismus an der deutschen Weinstraße[Bearbeiten]

Der Tourismus an der deutschen Weinstraße ist in den vergangenen Jahren stetig gewachsen. Im Gegensatz zu anderen Ferienregionen in Deutschland ist die Hauptferienzeit nicht der Sommer, sondern der Herbst. Der Herbst an der Weinstraße wirkt wie ein Tourismus-Magnet durch Weinlese, zahlreiche Weinfeste wie z.B den Wurstmarkt, mildes Klima und schöne Landschaften. Eine stetig steigende Besucherzahl bringt neue Herausforrderungen für Land, Gemeinden und Betriebe mit sich. Das Projekt beschäftigt sich mit dem Wetter ( Temperatur, Niederschlag ), der Anzahl an verfügbaren Übernachtungsmöglichkeiten und der tatsächlichen Anzahl der Übernachtungen in der Hauptferienzeit der Pfalz, dem Herbst. Ziel ist es, Vorhersagen für die Anzahl der Übernachtungen zu erstellen, da diese für touristische Betriebe ( z.B. Gästezimmer, Hotels,...) interessant sind. Die Anzahl der Übernachtungen kann letztlich als Indikator für den Gesamt-Tourismus in der Region interpretiert werden, da Übernachtungen und Tourismus immer in einem ähnlichen Verhältnis miteinander einhergehen.

Untersucht werden folgende Parameter:

  1. Durchschnittstemperatur in Grad Celsius = Ø °C
  2. Gesamte Niederschlagsmenge in mm = ∑ NS in (mm)
  3. Anzahl der Übernachtungsmöglichkeiten
  4. Anzahl der Übernachtungen im Herbst ( August, September, Oktober )

Anhand der Anzahl an Übernachtungen lässt sich der Trend im Tourismus verdeutlichen - ein kontinuierlicher Anstieg der Besucher/Übernachtungen im Herbst führt zu Planungsproblemen. Mit einer verlässlichen Vorhersage könnten Gemeinden, Betrieben etc. sich besser auf die Saison vorbereiten und eventuell das Dienstleistungsangebot verbessern und ggf. erweitern.

Studierendengruppe[Bearbeiten]

  • Defi2697
  • Akbu6745
  • Acar5809

Modellierungsproblem[Bearbeiten]

Wie kann man aus den von uns betrachteten Parametern

  1. Durchschnittstemperatur in Grad Celsius = Ø °C
  2. Gesamte Niederschlagsmenge in mm = ∑ NS in (mm)
  3. Anzahl der Übernachtungsmöglichkeiten

und aus ggf. der Wettervorhersage entnommen Daten, Prognosen für die Übernachtungszahlen des(r) nächsten Jahr(e) erstellen?

Sinn des Modells ist es, planerische Aufgaben zu erleichtern, Trend und Entwicklung des Tourismus der Weinstraße zu erfassen und zu prognostizieren und Dienstleistung der rheinlandpfälzischen Tourismusbranche anzupassen und ggf. zu erweitern oder verbessern.

Leitfragen des Themas:

  1. Wie genau lässt sich eine Prognose mit verschiedenen mathematischen Werkzeugen ( aus: SEK I, SEK II und Uniniveau ) berechnen?
  2. Wie genau fällt die Prognose aus und wie verlässlich ist sie ?
  3. Mit welchen Verfahren und Werkzeugen könnte man das Modell ergänzen, verbessern oder ggf. generalüberholen ?

Fachwissenschaftliche Grundlagen[Bearbeiten]

Funktion[1][Bearbeiten]

Die Funktion als grundlegendes Werkzeug zur Abbildung der Abhängigkeit zweier Mengen voneinander. Für unser Projekt dient die Funktion zur verdeutlichung der Abhängigkeit verschiedener Variablen (z.B Anzahlder Übernachtungen und Anzahl der verfügbaren Betten).

Mittelwert[2][Bearbeiten]

Anzunehmen ist, dass die genutzten Werte um den wahren Wert schwanken und dabei die positiven (über dem wahren Wert) als auch die negativen (unter dem wahren Wert) Differenzen gleichermaßen verteilt sind. Um ein möglichst genaues Ergebnis zu erhalten, welches dicht neben dem wahren Wert liegt, nutzt man die Mittelwertbildung

Empirische Standardabweichung[3][Bearbeiten]

Durch Ermittlung der Streuung von Werten um den wahren Wert, lässt sich auch eine Aussage über die Genauigkeit eines einzelnen Wertes machen. Dazu verwendet man die Standardabweichung nach Gauß.Empirische Standardabweichung“.

der Stichprobe wird auf zweierlei verschiedene Arten definiert. Entweder wird sie (1. Definition) als

.

Standardfehler des arithmetischen Mittels[4][Bearbeiten]

Der Fehler um den Mittelwert herum lässt sich errechnen. In Relation zur Standardabweichung sieht man, das dieser um einen konstanten Faktor kleiner ausfällt.

Normalverteilung [5][Bearbeiten]

Die Normalverteilung ist eine der wichtigsten stetigen Wahrscheinlichkeitsverteilungen. Aufgrund ihrer charakteristischen Form wird sie öfters auch Glockenkurve genannt In den meisten Fällen schwanken die errechneten/gemessenen/dokumentierten Werte in einem gewissen Abstand um den Mittelwert herum. Diese Verteilung um den Mittelwert lässt sich mittels einer Gauß-Kurve oft sehr genau darstellen.


Dichtefunktion der Standardnormalverteilung '"`UNIQ--postMath-00000005-QINU`"'

Korrelation[6][Bearbeiten]

Die Korrelation beschreibt, in welcher Beziheung zwei oder mehrere Variable(n) zueinander stehe. Es können drei verschiedene Zuammenhänge auftreten:

  • positive Korrlelation : beschreibt den positiven Zusammenhang von zwei oder mehreren Variablen - steigt eine Variable an so steigt(en) auch die andere(n).
  • negative Korrelation : beschreibt den negativen Zusammenhang von zwei oder mehreren Variablen - steigt eine Variable an so sinkt(en) auch die andere(n).
  • keine Korrelation : die Variablen stehen in keiner Beziehung zueinander - Steigung oder Senkung einer Variable hat keine Auswirkung auf die weitere Entwicklung der andere(n) Variable(n).

Zur Interpretation der Zusammenhänge dient der Korrelationskoeffizient. Dieser kann Werte zwischen -1 und +1 annehmen wobei +1 (-1) für vollständig positive (negative) Korrelation steht, 0 für garkeine Korrelation.

Wichtig: Die Korrelation kann gewissermaßen eine Fehlerquelle sein, sofern sie falsch interpretiert wird! Ein scheinbare Korrelation muss nicht zwangsläufig heißen, dass jene Parameter sich gegenseitig beeinflussen. Eine Ursachen-Wirkung Beziehung herrscht also nicht immmer!

Q-Q-Plot[7][Bearbeiten]

Der Qualntil-Quantil-Plot wird dafür benutzt um zwei Merklame oder theoretische Quantile gegeneinander abzutragen um diese zu vergleichen bzw deren Verteilung zu prüfen. Zur Überprüfung der Verteilung werden die Beobachtungswerte eines Merkmals der Größe nach abgebildet und mit den thoeretischen Quantilen ( Quantile der theoretischen Verteilung ) verglichen. Stimmen empirische und theoretische Quantile überein, liegen die Werte auf einer Diagonalen. Dies ist ein indikator für Normalverteilung. Der Q-Q-Plot ersetzt keinen Verteilungstest, jedoch dient er zur grafischen Veranschaulichung der Verteilung.

Logarithmus[8][Bearbeiten]

Der Logarithmus einer Zahl (x) ist diese, potenziert mit einer vorher festgelegten Zahl, der Basis. Der Vorteil des Logarithmus für unsere Zwecke besteht darin, dass er stark ansteigende Zahlenreihen -bereiche übersichtlicher darstellt, da der Logarithmus für große Zahlen deutlich langsamer steigt als die Zahlen selbst. Dadurch grenzt sich der Umfang des Zahlenbereichs stark ein bzw wird deutlich kleiner.

Kreuzvalidierungsverfahren[9][Bearbeiten]

Die Kreuzvalidierung dient als Test für die Gültigkeit eines Modells. Dazu schaut man sich seinen Datensatz an und teilt ihn in k Blöcke auf. Mit dem Zufallsprinzip nimmt man nun einen Block heraus und bildet mit den k-1 Restblöcken ein Regressionsmodell, mit dem man versucht auf den letzten Block zu schließen. Dies macht man so oft, bis jeder Datenblock einmal rausgenommen worden ist. Man erhält somit k Regressionsgleichungen. Bei jedem Versuch den realen Datensatz mittels den Regressionsmodellen bzw. Regressionsgleichungen zu errechnen, entsteht ein gewisser Fehlr. Der Mittelwert aus allen Fehlern ist dann ein Referenzwert dafür, inwieweit das Modell gültig ist.

Lineare Regression[10][Bearbeiten]

Bei der linearen Regression wird anhand von einander unabhängigen Variablen, eine einzige Variable versucht zu erklären. Das Modell der linealen Regression basiert entweder auf mehreren (multiple Regression) oder einer einzelnen, erklärenden Variable. Besonders oft wird dieses Modell in der Ökonomie genutzt, da es sowohl für Analysen, als auch für zukünftige Vorhersagen dient.

Softwarenutzung[Bearbeiten]

Modellierungszyklus[Bearbeiten]

Vorbereitung[Bearbeiten]

Beschaffung der Rohdaten[Bearbeiten]

Zu Anfangs, noch bevor wir mit den verschiedenen Zyklen der Modellierung beginnen können, beschäftigten wir uns mit der Verarbeitung der Rohdaten. Die Digitaliesierung und Tabellierung der Daten ist für die weitere Bearbeitung mit Programmen wie R zwingend notwendig. Als erstes befassten wir uns mit den Wetterdaten - unsere hier untersuchten Parameter sind ( Ø °C / Niederschlag ∑ (mm) ) Im Anschluss suchten wir uns aus einer Karte mit rheinlandpfälzischen Wetterstationen die Stationen raus, welche sich entweder genau, oder in der Nähe der deutschen Weinstraße befinden. Wir entschieden uns für folgende 10 Sationen (samt Höhelage) :

  • 01) Grünstadt Asselheim (228m)
  • 02) Grünstadt Sausenheim (186m)
  • 03) Dackenheim (180m)
  • 04) Bad Dürkheim (140m)
  • 05) Neustadt an der Weinstaße (145m)
  • 06) Maikammer (147m)
  • 07) Edesheim (145m)
  • 08) Siebeldingen (197m)
  • 09) Bad Bergzabern (213m)
  • 10) Schweigen Rechtenbach (198m)

Danach beschäftigten wir uns mit Besucherzahlen der Hauptsaison ( August, September, Oktober ), der Anzahl an verfügbaren Betten, der Anzahl der Betriebe und den Herkunftsländern der Besucher innerhalb der letzten 10 Jahre - von 2007 bis 2017.

Wir erstellten eine Tabelle mit den eben genannten Parametern für:

Die Einzugsgebiete des Tourismus der deutschen Weinstraße, schließen auf folgende Karte:

HeatMap

(Jahr 2007) Die "Stärke" der Marker, wurde hierbei je nach Anzahl angepasst. Bei größeren Einzugsgebieten wie etwa Europa, wurden beispielsweise 100 Marker zu einem 1 Marker der "Stärke" 100 zusammengefasst. Die Karte selbst ist empirisch nicht nutzbar, da man die Marker willkürlich gesetzt hat und grundsätzlich nur verdeutlicht werden soll, dass vor allem die naheliegenden, europäischen Staaten und die USA in den deutschen Tourismus in dieser Region einfließen. Einzugsgebiete wie Asien wurden dabei stark vereinfacht zu wenigen Punkten, diese sind theoretisch auf einer so großen Fläche verteilt, dass man dessen Einzugsgebiete nicht mehr lokalisieren kann.

Zyklus 1 Beschreibung[Bearbeiten]

Der erste Zyklus ist auf Basis von Mittelstufen-Wissen konzipiert. Untersucht wird die Anzahl der Übernachtungen des Monats August im 10-Jahresintervall von 2007 bis 2017 innerhalb unseres Untersuchungsgebiets, der Weinstraße. Anhand der Mittelwerte wird eine Prognose erstellt, wie sich der untersuchte Parameter im August der nächsten Jahre entwickeln könnten. Dabei wird angenommen, dass jedes Jahr die Übernachtungszahlen um einen gewissen Wert schwanken und dementsprechend jedes Jahr gleich-stark gewichtet werden kann.


Die Rohdaten ergeben für die Anzahl der Übernachtungen im August:

Einfache Prognose für das Jahr 2018


Zyklus 1

Beachte: Der Mittelwert beinhaltet einen gewissen Fehler. Dieser lässt sich mithilfe des Standardfehlers bzw. der Standabweichung errechnen. Der letztlich angegebene Wert ist dann der Mittelwert +/- Standardfehler.


Fehlerquellen:[Bearbeiten]

  • Zusammenhänge der ausschlaggebenden Parameter (Temperatur, Niederschlag, Bettenangebot etc.) für die Übernachtungszahlen werden nicht berücksichtigt.
  • Prognosen die anhand von Mittelwertbetrachtung erstellt werden basieren nicht auf kontinuierlicher Veränderung. Die Dynamik der Touristikbranche wird nicht berücksichtigt( starres Modell ) - ein eventueller Grundanstieg der Besucherzahlen fließt nicht mit ein da jedes jahr gleich gewichtet wird.

Zyklus 2[Bearbeiten]

Der zweite Zyklus verbessert den ersten Zyklus und basiert auf Oberstufenwissen. Anders als bei Zyklus 1, wird im Zyklus 2 ein längerer Zeitraum bertachtet, nämlich die Monate August, September und Oktober. Eine Prognose für die Veränderung der Parameter hin zum nächsten Jahr wird, anders als bei Zyklus 1, in Zyklus 2 mit den Steigungen erstellt. Wichtig hierbei ist, dass man als Grundwert den letzten existierenden Wert hinzuzieht ( in diesem Fall: Jahr 2017 ). Nun kann mithilfe der Steigung der vergangenen Jahre eine Prognose für das nächste bzw. darauffolgende Jahre erstellt werden.

Zyklus 2.1[Bearbeiten]

Beim ersten Durchgang des Zyklus 2 schaut man sich die Übernachtungen in den Kreisstädten 'Neustadt an der Weinstraße' bzw. 'Landau in der Pfalz' und den Landkreisen 'Bad Dürkheim' bzw. 'Südliche Weinstraße' für August, September und Oktober an, bildet daraus den Mittelwert für alle 3 Monate um eine durchschnittliche Monats-Übernachtungszahl zu erhalten und schaut sich dann die Steigung bzgl. des Vorjahres an. Diese lassen sich durch Differenzbildung zum Vorjahr errechnen. Nun kann man aus der Tabelle die Steigungen entnehmen - die maximale positive und negative Steigung. Diese dienen als Referenzwerte, um mithilfe von Zufallszahlen einen Bereich zu generieren, welcher die möglichen Steigungen für die kommenden Jahre angibt. Die Steigungen werden dann jeweils auf den zuletzt errechneten "Mittelwert" hinzu addiert. Wir erhalten somit eine Prognose für die kommenden 10 Jahre.

21TABELLENEU

Fehlerquellen[Bearbeiten]

  • Mittelwert der 3 Monate ungenauer Referenzwert
  • Die zufällig generierten Zahlen nutzen Maximal- bzw. Minimalwerte der real existierenden Steigungen als Zufallsbereich. Diese können von "Ausreißern" abhängig sein, die nicht den Durchschnitt der Steigungen repräsentieren. Somit erhalten wir sehr ungenaue Steigungen.
  • Zusammenhänge der Parameter nicht berücksichtigt

Dieses Modell ist aufgrund seiner Ungenauigkeit nicht weiter geeignet! Zyklus 2.2 wird eingeführt, bei dem weiterhin mit Steigungen gerechnet wird, allerdings die jeweiligen Monate explizit genutzt werden und eine Prognose nur für das darauffolgende Jahr erstellt wird, um den immer größer werdenden Fehler der darauffolgenden Jahre zu vermeiden.

Zyklus 2.2[Bearbeiten]

Zunächst wird von den kreisfreien Städten 'Neustadt an der Weinstraße', 'Landau in der Pfalz' und den Landkreisen 'Bad Dürkheim', 'Südliche Weinstraße' mithilfe der Rohdaten die Steigung der Übernachtungen bzgl. des Vorjahres errechnet. Dabei geht jeweils die Differenz zum Vorjahr als Steigung ein. Der Mittelwert der Steigungen kann als Referenzwert für die Steigung zum nächsten Jahr hin genutzt werden, da diesmal die Ausreißer aus Zyklus 2.1 nur bedingt in die Rechnung einher gehen. Das liegt daran, dass positive und negative Ausreißer sich im Bestfall ausgleichen. Beachte: Der Mittelwert beinhaltet einen gewissen Fehler. Dieser lässt sich mithilfe des Standardfehlers bzw. der Standabweichung errechnen. Der letztlich angegebene Wert ist dann der Mittelwert +/- Standardfehler. Für den Monat August ergibt dies:

Tabelleaugust2

Veranschaulicht in einem Diagramm ergibt dies, sofern man als Referenzwert für 2018 den Mittelwert ohne Standardfehler nimmt, folgendes:

AUGUSTFERTIG

Für den Monat September ergibt dies:

Tabelleseptember

Veranschaulicht in einem Diagramm ergibt dies, sofern man als Referenzwert für 2018 den Mittelwert ohne Standardfehler nimmt, folgendes Steigungsdiagramm:

September

Für den Monat Oktober ergibt dies:

Tabelleoktober

Veranschaulicht in einem Diagramm ergibt dies, sofern man als Referenzwert für 2018 den Mittelwert ohne Standardfehler nimmt, folgendes Steigungsdiagramm:

OKTOBERFERTIG

Zyklus 3[Bearbeiten]

Der dritte und finale Zyklus zur Erstellung einer aussagekräftigen Prognose der Übernachtungszahlen wird anhand einer linearen Regression in dem Pogramm R erstellt. Wir entschieden uns, den Datenbereich einzugrenzen und wählten die beiden kreisfreien Städte Neustadt an der Weinstarße und Landau in der Pfalz aus, da diese im Vergleich zu den Landkreisen ein geringeres Einzugsgebiet repräsentieren und das Modell somit nicht durch räumliche Effekte( Landkreise umfassen viele Dörfer und deren Grenzgebiete und landwirtschaftliche Nutzflächen, die für den Tourismus bzw. die Anzahl der Übernachtungen nicht relevant sind ) beeinträchtigt wird.

Die angepassten Datensätze beinhalten die Monate August, September und Oktober der Jahre 2007 bis 2017, die zu erklärende Variable Übernachtungsanzahl und die erklärenden Variablen Temperatur, Niederschlag und Anzahl der verfügbaren Betten. Jeweils für Neustadt an der Weinstraße und Landau in der Pfalz.


Bearbeitung in R[Bearbeiten]

I) Aufbereitung und Prüfung der Daten

  • Datenbereich: Zuerst schauen wir uns die Datenbereiche an, um diese in weiten Schritten miteinander vergleichen zu können - weichen die Datenbereiche der erklärenden Variablen zu stark voneinander ab müssen diese transformiert werden, z.B. durch logarithmieren oder Wurzel-Ziehen. Ggf. muss die Transformation mehrmals wiederholt werden um den Datenbereich ausreichend anzupassen. Ist der Bereich zwischen 1 und 10, ist die Vorraussetzung erfüllt. Anmerkung: R verwendet den natürlichen Logarithmus zur Basis e.
  • Normalverteilung: Sind die Datenbereiche der erklärenden Variablen angepasst, werden die Daten auf Normalverteilung geprüft. Hierzu gibt es zahlreiche Verfahren und Tests. Wir entschieden uns für den Q-Q-Plot - dieser bildet den Datensatz in einer Punktewolke ab und fügt die Linie der Normalverteilung ein - je nach Lage der Datenpunkte innerhalb des Diagramms und im Vergleich zu Normalverteilungslinie dient der Q-Q-Plot zur optischen Überprüfung der Daten auf das Kriterium der Normalverteilung. Die Überprüfung erfolgt für jede erklärende Variable einzeln - sind alle Variablen annähernd normalverteilt ist die Vorraussetzung erfüllt.
  • Korrelation: eine weitere Vorrausetzung für die lineare Regression ist, dass die erklärenden Variablen ( in unserem Fall: Temperatur, Niederschlag und Anzahl der Betten ) untereinander nicht korrelieren dürfen. Wir berechneten 3 Korrelationen ( Temperatur ~ Niederschlag / Anzahl der Betten ~ Niederschlag / Temperatur ~ Anzahl der Betten ). Das jeweilige Ergebnis der Korrelation ist wie folgt zu interpretieren : je näher der Korrelationskoeffizient an 0 liegt, desto besser. Das Maximum der Korrelationswerte liegt bei + - 0,7 bis 0,8. Überschreiten Werte diese Grenze, korrelieren die getesteten Variablen miteinander und werden somit für die lineare Regression unbrauchbar.
  • Stichprobengröße im Verhältnis zu den Variablen: Damit die lineare Regresion verläsliche Schätzungen generieren kann, benötigt man auseichend Werte für jede Variable. Hierbei gilt, dass pro Variable 10 - 20 Werte vorhanden sein sollen. Der kritische Wert errechnet sich durch [(n/p)>=10 ]


II) Erstellung des Modells

  • Das Modell mittels linearer Regression hat die Form f(x)= b1*x1 + b2*x2 + b3*x3 + b4 ; wobei f(x) für die zu erklärende Variable Besucherzahl steht, x1 - x3 die erklärenden Variablen darstellen; b1 - b4 die jeweiligen geschätzten Steigungen sind.


III) Überprüfung des Modells

  • Varianzhomogenität: Die Streuung des Fehlerterms ( Abweichung der tatsächlichen Besucherzahl und der durch das Modell vorhergesagten ) sollte über den gesamten Zeitraum ungefähr gleich weit vom Mittelwert der Fehler entfernt sein.
  • Normalverteilung des Fehlerterms: Alle Fehler sollten ungefähr normalverteilt sein.

Zur Überprüfung der beiden, eben genannten Kriterien, werden vier diagnostische Plots erstellt und anschließend Interpretiert. Sind die beiden Kriterien erfüllt gilt das Modell als verwendbar.


IV) Qualität des Modells

  • Qualität des Modells anhand von Kriterien: zu Prüfen gibt es 3 verschiedene Möglichkeiten.1. Akaike Informationsriterium (AIC) 2. Bayesian Informationskriterum (BIC) und das 3.Bestimmtheitsmaß R²; dieses erklärt wie viel % der Varianz durch das Model erklärt wird.
  • Die Wichtigkeit der erklärenden Variablen: tragen die erklärenden Variablen signifikant zum Modell bei ( Wie wichtig sind Temperatur, Niederschlag und Anzahl der Betten in dem Modell um die Variable Übernachterzahlen zu erklären ?)


V) Validierung des Models

  • Funktioniert das Modell nur mit dem von uns verwendeten Datensatz oder auch mit anderen? Um dies zu Prüfen verwenden wir das Kreuzvalidierungsverfahren. Dieses Verfahren gibt einen angepassten R² Wert, das Bestimmtheitsmaß, aus welcher mit neuen Datensätzen errechnet wurde. Je nach Qualität des Modells wird die Spanne zwischen dem originalen R² Wert und dem nach der Kreuzvalidierung angepassten R² Wert kleiner ( für ein "gutes" Modell ) oder größer ( für ein "schlechteres" Modell ). Je weniger sich die R² Werte unterscheiden, desto besser - somit kann das Modell auch andere Datensätze verwenden und bleibt trotzdem aussagekräftig.
  • Die Interpretation des R² und des angepassten R² Wertes ist subjektiv; ab welchem Bestimmtheitsmaß wertet man das erstellte Modell als gut, bzw. schlecht hängt größtenteils von der persönlichen Meinung und von dem Verwendungszweck ab.


VI) Verbesserung des Modells

  • Als letztes befassten wir uns damit, wie man das erstellte Modell verbessern könnte um das Bestimmtheitsmaß noch zu erhöhen. Es können mehr kausale Zusammenhänge der Variablen betrachtet werden und dadurch mehr signifikante erklärende Variable(n) für die lineare Regresseion hinzufügen und die nicht signifikanten Variable(n) zu entfernen.

Downloads[Bearbeiten]

Bearbeitungshinweise[Bearbeiten]

Bitte Literaturhinweise mit dem Standardwerkzeug ergänzen (kleines Buch-Icon im Editor ergänzen) und entsprechende Lit-Quelle eingeben.

Literatur[Bearbeiten]

  1. https://de.wikipedia.org/w/index.php?title=Funktion_(Mathematik)&oldid=172606487
  2. „Mittelwert“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 28. November 2017, 22:54 UTC. URL: https://de.wikipedia.org/w/index.php?title=Mittelwert&oldid=171490001 (Abgerufen: 11. Dezember 2017, 13:32 UTC) :
  3. Empirische Standardabweichung“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 21. November 2017, 14:02 UTC. URL: https://de.wikipedia.org/w/index.php?title=Empirische_Standardabweichung&oldid=171225943 (Abgerufen: 11. Dezember 2017, 14:08 UTC)
  4. „Standardfehler“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 29. November 2017, 21:18 UTC. URL: https://de.wikipedia.org/w/index.php?title=Standardfehler&oldid=171518096 (Abgerufen: 11. Dezember 2017, 14:21 UTC)
  5. Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 29. November 2017, 21:18 UTC. URL: https://de.wikipedia.org/w/index.php?title=Standardfehler&oldid=171518096 (Abgerufen: 11. Dezember 2017, 14:21 UTC)
  6. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. Januar 2018, 07:14 UTC. URL: https://de.wikipedia.org/w/index.php?title=Korrelation&oldid=172671669 (Abgerufen: 15. Januar 2018, 12:30 UTC)
  7. Seite „Quantil-Quantil-Diagramm“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 18. Januar 2018, 22:49 UTC. URL: https://de.wikipedia.org/w/index.php?title=Quantil-Quantil-Diagramm&oldid=173083024 (Abgerufen: 21. Januar 2018, 15:01 UTC)
  8. Seite „Logarithmus“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 16. Januar 2018, 21:09 UTC. URL: https://de.wikipedia.org/w/index.php?title=Logarithmus&oldid=173003032 (Abgerufen: 21. Januar 2018, 15:17 UTC)
  9. Seite „Kreuzvalidierungsverfahren“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 7. Januar 2018, 14:38 UTC. URL: https://de.wikipedia.org/w/index.php?title=Kreuzvalidierungsverfahren&oldid=172685256 (Abgerufen: 21. Januar 2018, 15:40 UTC)
  10. Seite „Lineare Regression“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 10. Januar 2018, 04:20 UTC. URL: https://de.wikipedia.org/w/index.php?title=Lineare_Regression&oldid=172770123 (Abgerufen: 21. Januar 2018, 15:47 UTC)