Projekt:FE Auswerteverfahren 1/Wolken/Methodik

Aus Wikiversity

Die Methodik der Wolkenerkennung anhand der spezifischen Strahlungseigenschaften, nimmt bei der Interpretation und Weiterverarbeitung von Wolkensatellitendaten einen wichtigen Platz ein. In einem Satellitenbild, welches die Strahldichte verschiedener spektraler Kanäle in Form von Grauwerten wiedergibt, befinden sich grundsätzlich Pixel, die unbewölkte Erdoberflächen, optisch dünne Wolkenoberflächen und optisch dicke Wolkenoberflächen repräsentieren. Ziel einer Wolkenklassifikation ist es alle Pixel eines Überfluges mittels Wolkendetektionsalgorithmus in unbewölkte und bewölkte Bildelemente zu trennen und den oben genannten Wolkenarten zuzuordnen. Das Produkt eines Wolkendetektionsalgorithmus wird in der Fernerkundung als „Wolkenmaske“ bezeichnet. Grundsätzlich ist ein Wolkendetektionsalgorithmus in mehrere Wolkendetektionstests unterteilt die anhand dynamischer oder statischer Schwellwertgrenzen zwischen unbewölkt oder bewölkt entscheiden.

Der eigentliche Prozess der Wolkenklassifikation wird durch gängige Verfahren der Sattelitenbildverarbeitung durchgeführt. Man unterscheidet Bildklassifikationen grundsätzlich nach:

Bei einer Klassifikation werden die einzelnen Pixel automatisch oder semiautomatische über bestimmte Algorithmen einzelnen Wolkenklassen zugeordnet. Hierfür werden die Grauwerte der einzeln aufgenommenen Kanäle auf Beziehungen untereinander analysiert. Bestehende Regelmäßigkeiten dieser Beziehungen werden funktional interpretiert. Die optimale Wahl der Spektralenkanäle ist deshalb für eine Wolkenklassifikation grundlegend und ergibt sich aus den Strahlungstheoretischen Grundlagen einer Wolke. Die Qualität der Klassifikationsergebnisse ist jedoch auch stark von vorangegangenen Pre-Klassifikations-Prozessen (z.B. Reduzierung des Rauschens, Beseitigung von Redundanzen) und nachfolgenden Post-Klassifikations-Prozessen abhängig (Lu und Weng 2007).

Als gängige Verfahren werden in der Wolkenklassifikation verschiedene Verfahren angewendet. Je nach Datengrundlage (Art des Sensors; spektrale, räumliche, zeitliche Auflösung, multitemporale Daten) und Zielsetzung (Klimatologische Untersuchungen, Bedeckungsgrad, Niederschlagsvorhersagen …) können spezifische Stärken der einzelnen Klassifikationsmethoden dementsprechend genutzt werden. Ein Klassifikationsverfahren mit dem alle Anwendungsbereiche einer Wolkenklassifikation bedient werden können und das auf sämtliche Sensorsysteme angewendet werden kann, ist aufgrund der heterogenen Datengrundlagen und der grundsätzlich unterschiedlichen Zielsetzung einer Wolkenklassifikation nicht realisierbar(Lu und Weng 2007).

Wolkenmaske[Bearbeiten]

Bevor die eigentlichen Wolkendetektionsalgorithmen durchgeführt werden, teilt man die Pixel des Eingangsdatensatzes in Land (Vegetation, Wüste, Küste), Ozean (Sunglint/ kein Sunglint) und Schnee ein. Diese Oberflächenklassen werden durch vorhandene Oberflächenkarten vorgegeben (Kriebel et al., 2003). Die Entscheidung ob ein Pixel unbewölkt oder bewölkt ist, wird durch die verschiedenen Wolkendetektionstests des Wolkendetektionsalgorithmus getroffen.

Wolkendetektionstests[Bearbeiten]

Um Wolken von Landoberflächen anhand ihres Reflexionsvermögens zu unterscheiden verwendet man einfache bzw. dynamische Schwellwerttests (threshold tests), Verhältnistests (ratio tests), Differenzentests und räumliche Homogenitätstests (spatial coherence tests). Man unterscheidet diese Tests nach Strahlungseigenschaften und mikrophysikalischen Eigenschaften (Saunders und Kriebel, 1988; Stowe et al., 1991; Ackerman et al., 2002; Rathke, 2002). Einige Tests können nur über bestimmten Oberflächen (Land oder Wasser; Schneefrei und Eisfrei) durchgeführt werden, andere Tests sind unabhängig vom Untergrund. Die meisten Tests sind von den Beleuchtungsverhältnissen (Tag, Nacht, Dämmerung und Sunglint-Effekt) abhängig. Alle Tests entscheiden anhand eines Schwellwertes ob es sich um eine Wolke handelt oder nicht. Einfache Schwellwerttests berücksichtigen den Untergrund anhand ihrer Schwellwerte, saisonale und tageszeitliche Änderungen des Untergrundes werden jedoch nur bei dynamischen Schwellwerttests berücksichtigt. Um den wechselnden Oberflächenbeschaffenheiten Rechnung zu tragen, sind dynamische Schwellwert- und Verhältnistests einfachen vorzuziehen(Derrien und Gléau, 2005.Schwellwertverfahren werden hauptsächlich aufgrund ihrer robusten und für große Spektrale Vielfalt leicht zu optimierenden Methodik angewendet. Sogar im Falle eines Spektralkanalausfalls können diese Verfahren durch Anpassung noch zu sinnvollen Ergebnissen führen (Derrien und Gléau 2005; Derrien et al., 1993).

Schwellwerttests[Bearbeiten]

Anhand einfacher bzw. dynamischer Schwellentests lassen sich helle Wolken über dunklem Untergrund unterscheiden (z.B. Stratus (St) über Ozean). Dies ist besonders gut in VIS-Kanälen um die 0,6µm und 0,8µm gegeben (Wolken im sichtbaren Spektralbereich). Im VIS 0,8µm Bereich lassen sich Oberflächenstrukturen besser erkennen. Die Reflexion des Bodens und der Vegetation ist stärker. Er wird über Ozean und Wüste angewandt. Im VIS 0,6µm Bereich hingegen, sind transparente Wolken aufgrund der geringeren Reflexion der Landoberfläche besser auszumachen, Dieser Bereich wird deshalb über Land verwendet. Haben Untergrund und Wolken die gleichen Reflexionseigenschaften in den beiden Wellenlängenbereichen, wie es für Schnee (in beiden VIS-Bereichen) und für Wüsten (im VIS 0,6µm) zutrifft müssen weitere Entscheidungsschritte folgen. Die Erkennung von hohen Wolken (Cirren) gelingt im Spektralbereich 1,38µm gut. In diesem Bereich ist die Wasserdampfabsorption besonders stark ausgeprägt und die von der Erdoberfläche reflektierte Strahlung, erreicht den Satelliten nicht. Somit erscheint der klare Himmel verdunkelt, niedrige und mittlere Wolken reflektieren abgeschwächt. Somit erscheinen nur die hohen Wolken in diesem Kanal hell(Gao und Goetz (1993). Im IR 11µm und 12µm Bereich lassen sich bei allen Beleuchtungsverhältnissen, die meisten Wolken über dem Ozean erkennen. Besonders kalte und hohe Wolken über dem Ozean. Mit einem nonlinear Split - Window - Verfahren lässt sich die Seeoberflächentemperatur(SST) ermitteln . Ein Pixel wird als wolkig Klassifiziert wenn der geschätzte SST-Wert kleiner als ein dynamischer Schwellenwert ist. In diesem Fall ein klimatologischer SST-Mittelwert, Eisfreier Ozean vorausgesetzt(Derrien und Gléau 2005). Die Anpassung des Schwellwertes ist jedoch aufgrund der starken Variation der Ausstrahlung über Land (LST)nur schwer realisierbar (Ackerman et al. 2002).


Verhältnistests[Bearbeiten]

Setzt man die beiden VIS-Bereiche ins Verhältnis (ratio test) VIS 0,8µm / VIS 0,6µm geht es gegen eins, da sich die Reflektionseigenschaften von Wolken in den beiden VIS-Bereichen stark ähneln. Auch hier müssen einfache oder dynamische Schwellwerte zwischen 0 und 1 (keine Ähnlichkeit bis starke Übereinstimmung der Reflektionsstärke beider VIS-Bereiche) als Entscheidungskriterium ermittelt werden (Odebrecht 2004).

Räumliche Homogenitätstests[Bearbeiten]

Bei Räumlichen Homogenitätstests handelt es sich um eine Nachbarschaftsanalyse, die eine definierte Umgebung (z.B.3x3 Matrix) um jedes Pixel analysiert. Entsprechen alle Pixel der definierten Umgebung dem gleichen Untergrund und ist keine Bewölkung in der Umgebungsmatrix mit enthalten, so ist die Standardabweichung innerhalb der Matrix gering. Der Zentralwert wird als unbewölkt Klassifiziert. Räumliche Homogenitätstests können für verschiedene Spektralbereiche zur Identifizierung kleiner zerbrochener Wolken, dünner Zirruswolken oder Wolkenkanten verwendet werden. Der Schwellwert muss der Homogenität des Untergrundes angepasst sein (Derrien und Gléau 2005).

Differenzentests[Bearbeiten]

Ein Differenzentest bei dem die Helligkeitstemperaturen zweier thermischer Kanäle (Wolken im infraroten Spektralbereich von einander subtrahiert wird, kann zur Unterscheidung von Eis- und Wasserwolken eingesetzt werden. Bei Differenzentests zur Unterscheidung der beiden Wolkenphasen nutzt man die Abhängigkeit der thermischen Ausstrahlung optischer Wolkenparameter (optische Dicke einer Wolke und der Effektivradien der Wolkenpartikel) von der Wellenlänge. Die als Brightness Temperature Difference (BTD) bezeichnete Methode, wurde in der Fachliteratur häufig analysiert und gilt als sehr zuverlässig (Inoue, 1985; Ackerman et al., 1990; Strabala et al., 1994). Das Ausstrahlungsverhalten dünner Wolken z.B. ist stark vom Effektivradius der Wolkenpartikel abhängig und variiert besonders zwischen 11µm und 12µm. Die Differenz dieser beiden Helligkeitstemperaturen BT11-BT12 eignet sich deshalb zur Detektion dünner Wolken(Cirruswolken) bei allen Beleuchtungsverhältnissen, unabhängig vom Untergrund (auch Schnee und Eis). Bei dünnen Wolken ergeben sich grundsätzlich größere Werte als bei klarem Himmel oder stratiformer Bewölkung. Aufgrund zu geringer Differenzen können die stratiformen, niedrigen Wolkentypen jedoch nur schwer abgegrenzt werden. Die Differenz der Helligkeitstemperaturen BT11-BT3,9 und BT12-BT3,9 wird zu der Erkennung von durchbrochenen und dünnen Wolken (z.B. Stratus, Stratocumulus, Cumulus) als auch zu Erkennung von überdeckten tiefen Wasserwolken bei Nacht (Derrien und Gléau 2005)gebildet. Hierbei unterscheidet man zwischen Tag und Nacht. Die Ausstrahlung bei 3,9µm ist nachts sehr gering, es ergeben sich kleine, positive Differenzen. Tags ergeben sich aufgrund der starken solaren Reflektion bei 3,9µm große, negative Differenzen. Sind dicke Wolken oder klarer Himmel vorhanden ergeben sich kleine, negative Differenzen. Hohe und mittelhohe Wolken lassen sich bei Nacht von tiefen Wolken und Nebel durch die Differenz BT3,7 - BT12 differenzieren. Hohe und mittelhohe Wolken haben im Gegensatz zu tiefen Wolken, nachts ein höhere Helligkeitstemperatur bei 3,7µm als bei 12µm (Saunders und Kriebel, 1988). Es können weitere Differenzentests verwendet werden um dünne Wolken zu detektieren. Die Differenzentests BT7,3-BT11; BT8,6-BT11; BT12-BT3,9 sowie BT13,7-BT13,9 finden besonders dann Anwendung, wenn große Differenzen zwischen Erdboden- und Wolkentemperatur vorhanden sind. Allgemein wird die Erkennung von hohen, kalten Wolken in infraroten Kanälen durch kalte Oberflächen wie Schnee und Gletscher erschwert(Ackerman et al, 1998). Das Sonnenglitzern auf geeigneten Oberflächen (sunglint effect) kann bei der Erkennung tiefer Wolken am Tag und bei Dämmerung aufgrund gleicher Reflektionscharakteristik bei 3,9µm(Derrien und Gléau 2005).

Problematik[Bearbeiten]

Als besonders problematisch erweist sich bei der Erstellung einer Wolkenmaske die Identifikation von Schnee und Eis, der Einfluss von Sunglint-Effekten und die Entwicklung dynamischer Schwellwerte.

Schnee und Eisproblematik[Bearbeiten]

Die Identifizierung von Schnee und Eis ist für eine Wolkendetektion unabdingbar. Gerade tiefe Wolken lassen sich nur so von Schnee und Eis differenzieren. Auch dazu werden Wolkendetektionstests eingesetzt. Schnee und Eis unterscheidet sich von Wasserwolken durch seine geringe Reflektion bei 1,6 und 3,9µm. Die Reflektion bei 0,6 ist im Vergleich zu wolkenfreier Oberfläche über Land und Wasser sehr hoch und bei BT10,8 niedriger. Bei 0,8µm trennt man Schatten von Schnee und Eis

Sunglint-Effekt[Bearbeiten]

Trifft Elektromagnetische Strahlung in einem bestimmten Winkel auf bestimmte Oberflächen wie z.B. Wasser, wird der sichtbare und nahe Infrarotbereich stärker als an tiefen Wolken reflektiert. Diesen Effekt nennt man Sunglint-Effekt. Die Verwendung der Spektralbereiche 0,6 und 3,9µm erlaubt es tiefe Wolken in durch Sunglint-Effekte beeinflussten Bereichen zu detektieren. Im Gegensatz zu tiefen Wolken reflektieren diese Bereiche auch sehr stark bei 3,9µm. Durch geschickte Ratiobildung relevanter Kanäle und entsprechend festgelegte Schwellwerte können diese Pixel als wolkig detektiert werden (Derrien und Gléau 2005).

Ermittlung dynamischer Schwellwerte[Bearbeiten]

Die dynamischen Schwellwerte werden anhand von Strahlungstransfermodellen (RTM) aus Zusatzinformationen abgeleitet. Als Zusatzinformationen dienen Oberflächenkarten, Höhenmodelle, Klimakarten und Parameter aus numerischen Wettervorhersagemodellen (NWP) wie Oberflächentemperatur und Wasserdampfgehalt. Anhand von Zenitwinkel und Azimutwinkel der Sonne sowie des Sensors und der genannten Zusatzinformationen, werden Sensorabhängige Look-up Tabellen (LUT) erstellt. Dynamische Schwellwerttests erhalten aus diesen Tabellen ihren angepassten Schwellwert. Dynamische Schwellwerte die im solaren Spektrum zum Einsatz kommen, werden anhand von Oberflächenreflektionssimulationen außerhalb der Atmosphäre (TOA) ermittelt. Die Simulationen werden durch Offsets, für die unterschiedlichen Oberflächen und Korrekturfaktoren angepasst(Derrien und Gléau 2005).


Beispiele für verschiedene Wolkenmasken[Bearbeiten]

Ein Wolkendetektionsalgorithmus ist immer Anwendungs- und Sensorbezogen. Je nach Wolkendetektionsalgorithmus kommen verschiedene Wolkendetektionstests zur Detektierung von Wolken und zur Unterscheidung von Schnee und Wolken zur Anwendung. Der APOLLO-Wolkendetektionsalgorithmus von Saunders und Kriebel wird seit über 12 Jahren auf die Daten des Advanced Very High Resolution Radiometer (AVHRR) angewandt. Gesell (2003) wandelte diesen Algorithmus für Daten des Moderate Resolution Imaging Spectroradiometer (MODIS), welches sich an Bord der Satellitenplattformen Terra und Aqua befindet, ab. Ackerman et al. (2002) sowie Rathke (2002) entwickelten extra Wolkendetektionsalgorithmen für die MODIS-Daten. Mit der Validierung passiver Fernerkundungsverfahren zur Erkennung und Klassifizierung von Wolken wurde in den 1960er erstmals begonnen (Arking, 1964; Clapp, 1964; Mohr, 1971), jedoch ließen die sehr geringe räumliche und spektrale Auflösung eine fehlerfreie Wolkendetektion nur sehr bedingt zu. Eine neuere, die aktuellen technischen Gegebenheiten berücksichtigende Validierung, der auf MODIS-Daten bezogenen Wolkendetektionsalgorithmen wurde von Odebrecht (2004) durchgeführt. Es wird also durch Ausnutzung der Strahlungstheoretischen Eigenschaften eine Wolkenmaske generiert. Im ersten Schritt werden meist fehlerhafte Pixel (unrealistisch kleine bzw. große Werte) eliminiert. Im zweiten Verfahrensschritt werden anhand verschiedener Wolkendetektionstests die einzelnen Pixel in „bewölkt“ bzw. „unbewölkt“ getrennt. Im APOLLO-Algorithmus nach Gesell (2003) wird das anhand eines Differenzentests mit den +Helligkeitstemperatutren BT11-BT12, eines dynamischen Verhältnistests R0,87/R0,66, sowie eines dynamischen Schwellwerttests mit Hilfe des Reflektionsgrades R1,38 realisiert. Besteht ein Pixel alle Tests, wird es als „bewölkt“ klassifiziert (cloud conservative). Der dritte Verfahrensschritt unterscheidet anhand eines Schwellwerttests mit dem Reflektionsgrad R1,6 zwischen „bewölkten“ und „wolkenfreien Schnee-Pixel oder „bewölkte“ Pixel einer Eiswolke. Im vierten Schritt werden die irrtümlich als bewölkt gesetzten Pixel (wolkenfreien Schnee-Pixel) durch einen „clear sky restoral test“ (Klaren-Himmel-Wiederherstellungstest) auf unbewölkt gesetzt. Dies geschieht über die Anpassung des Differenztestschwellwertes BT11-BT12. Des Weiteren werden noch lokale Fehlerkorrekturen vorgenommen (Gesell, 2003). Für den Spinning Enhanced Visible and InfraRed Imager (SEVIRI) Sensor, an Bord des Meteosat Second Generation (MSG) Satelliten wurde ein extra Algorithmus entwickelt. Dieser Algorithmus der in Kooperation mit Satellite Application Facility for supporting NoWCasting and very short range forecasting (SAFNWC) entstand, kann über EUMETSAT bezogen werden. Die Wolkenmaske des SAFNWC/MSG Algorithmus, beruht ebenfalls auf dynamischen multispektralen Schwellwerttests. Eine Trainingsdatenbank in der über 10000 manuell, durch erfahrene Experten klassifizierte Fallbeispiele (5x5 SEVIRI Pixel) erfasst sind, dient der Feinanpassung der Methodik. Der Output der Wolkenmaske, ist eine Kategorisierung der Pixel in Cloud filled, Cloud contaminated, Cloud-free, Snow/ice, Undefined und Non-processed. Auch die Detektierung von Dunstwolken oder vulkanischer Aschewolken in den Wolkendetektionstests implementierte. Die entstandene Wolkenmaske kann dann durch weitere Klassifikationsprozesse in weitere Wolkenkategorien unterteilt werden. Bei der SAFNW/MSG Klassifikationsprozedur können 21 Wolkenkategorien differenziert werden. Mehrer Validierungen der Ergebnisse fanden anhand von Synoptischen-Daten stat(Derrien und Gléau 2005).

Klassifikation[Bearbeiten]

Grundlagen einer (numerischen) Klassifikation[Bearbeiten]

Bei einer Klassifikation werden Objekte anhand bestimmter Merkmale in Klassen eingeteilt. Im Zusammenhang mit Satellitenbildern sind diese Objekte meist die einzelnen Pixel des Bildes und ihre Merkmale sind die verschiedenen Grauwerte, also die gemessenen Strahldichten, in verschiedenen Spektralkanälen eines jeden Pixels. Es gibt verschiedene Möglichkeiten eine Klassifizierung vorzunehmen. Sie unterscheiden sich vor allem in Aufwand, Rechenzeit und damit auch in der Güte der Ergebnisse. Die Schwierigkeit bei der eigentlichen Klassifikation, und damit auch ein Hauptunterscheidungsmerkmal der verschiedenen Arten, ist die Bestimmung der Klassengrenzen. Sind die Klassengrenzen bzw. der Klassenmittelpunkt festgelegt werden die einzelnen Objekte/Pixel mit Hilfe von Zuordnungsregeln in die Klassen eingeteilt. Abschließend erfolgt eine Überprüfung des Ergebnisses. Die Klassifizierung erfolgt dabei immer Multispektral.

Datei:Schema Wolkenklassifikation 2.jpg

Unüberwachte Klassifikation[Bearbeiten]

Die unüberwachte Klassifikation erfolgt anhand einer Clusteranalyse. Es handelt sich dabei um eine rein statistische Analyse, der keine Verifizierung der Wolkendaten zugrunde liegt. Der Computer ermittelt die im Merkmalsraum vorhandenen Cluster durch ein iteratives Clusteranalyseverfahren. Die Ergebniscluster werden erst nachträglich vom Auswerter identifiziert und interpretiert und somit den Objektklassen (den gewünschten Wolkenklassen) zugewiesen. Bei der unüberwachten Klassifikation wird also nur die statistische Verteilung der Pixel innerhalb der Merkmalsräume zur Unterscheidung von Ergebnisclustern genutzt. Man unterscheidet zwischen zwei Vorgehensweisen. Entweder man aggregiert schrittweise, vom einzelnen Pixel ausgehend die jeweils ähnlichsten Pixel oder man unterteilt die Gesamtmenge der Objekte an den Stellen größter Unähnlichkeit, bis man bei den individuellen Objekten angelangt ist. Diese zweite der beiden Methoden wird als Clusterung Bezeichnet. Bei der Clusterung wird die Anzahl der gewünschten Klassen vorgegeben. Die Klassen werden zunächst zufällig im Merkmalraum verteilt. Die Grauwerte werden den zufällig verteilten Klassen anhand der geringsten Euklidischen Distanz zugeordnet. Im 2. Schritt wir aus den zur Klasse zugeordneten Pixeln ein neuer Klassenmittelpunkt berechnet, zu dem wiederum die Grauwerte anhand der geringsten Euklidischen Distanz zugeordnet werden. Dieses iterative Verfahren verschiebt somit die Zentren der Klassen in den Merkmalsräumen solange, bis ein bestimmtes Abbruchkriterium erreicht ist. Entweder wird die Anzahl der maximalen Iterationsschritte oder ein gesetzter Konvergenz-Schwellenwert (Convergence Theshold) erreicht, welcher den maximalen Prozentsatz der Pixel angibt, die nach einer weiteren Iteration im Cluster verbleiben. Einzige Durchführungsvorrausetzungen der Klassifizierung einer Wolkenmaske anhand der unüberwachten Clustertechnik sind also nur die Festlegung der Anzahl der Cluster, die Festlegung der maximalen Iterationsschritte und die Festlegung eines Konvergenz-Schwellenwertes. Klassen die sich nicht eindeutig ausreichend von einander differenzieren lassen, können in weitern Post-Processing Operationen und verschiedenen Verifizierungsprozessen zusammengefasst werden. Der Nachteil dieses Verfahrens liegt eindeutig in der nachträglichen Interpretation der Ergebniscluster. Die ermittelten Cluster im Merkmalsraum müssen nicht zwangsläufig mit den, zu identifizierenden Wolkenobjektklassen übereinstimmen. Die unüberwachte Klassifikation dient deshalb häufig als Anhaltspunkt für die Differenzierbarkeit der einzelnen Objekte und kann als eine Sichtung der möglichen Klassen, die man in der Wolkenmaske als Trainingsdaten identifizieren will, betrachtet werden.


Überwachte Klassifikation[Bearbeiten]

Bei der überwachten Klassifikation (Supervised Classification) werden die erwünschten Klassen und die durch sie definierten spektralen Merkmale im Vorhinein durch den Nutzer festgelegt und bekommen anschließend die einzelnen Objekte/Pixel über Klassifizierungsalgorithmen zugewiesen.

Dabei werden folgende Schritte durchgeführt:

  • Erstellung der spektralen Signaturen über geeignete Trainingsgebiete
  • Signaturanalyse und -manipulation
  • Wahl einer Zuordnungsregel bzw. eines Klassifikationsalgorithmus und anschließende Klassifikation
  • Validierung

Trainingsgebiete[Bearbeiten]

Die jeweiligen Wolkenklassen erhalten ihre spektralen Signaturen durch repräsentativ gewählte Trainingsgebiete, in denen möglichst homogene Vorkommen der jeweiligen Wolkenklassen wiedergegeben werden. Es werden also repräsentative Stichproben festgelegt, welche als Referenzpixel für die Klassifikation dienen. Diese sind über ihre statistischen Größen wie Mittelwert, Standardabweichung und Kovarianz charakterisiert. Die Anforderungen an den Nutzer sind sehr hoch, da er selbst die Trainingsbeispiele vorgibt und somit die so genannte Ground Truth, also die tatsächlichen Verhältnisse, kennen muss. Vorteile des überwachten Trainings liegen in der höheren Genauigkeit der spektralen Signaturen und vor allem der Klassengrenzen.

Signaturanalyse[Bearbeiten]

Das Ergebnis des überwachten Trainings ist ein spektrales Muster von z.B. Mittelwert und Standardabweichung für jede Klasse. Bevor jedoch zur eigentlichen Klassifikation übergegangen wird ist eine Analyse dieser Signaturen notwendig um die wirkliche Trennbarkeit der Klassen zu beurteilen. Dabei gibt es unter anderem folgende Möglichkeiten zur Analyse:

  • Mittelwertdiagramme (Meanplots) geben einen Überblick über die spektralen Mittelwerte der Klassen. Dabei werden jedoch deren Streuung und absolute Trennbarkeit nicht berücksichtigt.
  • Signaturellipsen zeigen wo sich die Trainingsgebiete im 2-dimensionalen Merkmalsraum befinden. Damit ist erkennbar, ob und wo sich Trainingsgebiete in ihrem Spektralbereich überlagern und wie schließlich die Trennbarkeit der Klassen ist. Die spektrale Ausdehnung der Klassen wird hierbei über die Standardabweichung gegeben.
  • Die Kontrolle von Histogrammen der Trainingsgebiete dient der Suche nach Ausreißern, sowie dem Vergleich der Trainingsgebiete untereinander.
  • Statistischen Kennwerte können interpretiert werden.


Es ist irrelevant wenn sich die festgelegten Klassen nicht in allen Spektralbereichen gut unterscheiden solange sie sich in einigen der Spektralbereiche abheben. Durch Abschluss der Signaturanalyse und -manipulation werden die Klassengrenzen im Merkmalsraum festgelegt.

Klassifikationsalgorithmen[Bearbeiten]

Der eigentliche Klassifikationsschritt ist die Gegenüberstellung der individuellen Signaturen der thematisch definierten Klassen mit den konkreten Ausprägungen der spektralen Messwerte aller Pixel. Mit Hilfe von Klassifikationsalgorithmen wird jedes Pixel hinsichtlich der Ähnlichkeit mit allen Signaturen überprüft und entsprechend einer der Kategorien zugeordnet. Dabei ist zwischen parametrischen und nicht-parametrischen Entscheidungsregeln zu unterscheiden. Während die nicht-parametrischen mit einfachen, harten Klassengrenzen arbeiten funktionieren gerade die parametrischen Klassifikatoren über zum Teil sehr komplexe statistische und mathematische Berechnungen. In den gängigen Lehrbüchern (Hildebrandt, 1996; Albertz, 1991; Lillesand & Kiefer, 2000) werden folgende Klassifikatoren aufgeführt:

  • Minimum-Distance-Klassifikator
  • Box-Klassifikator (Parallelepiped)
  • Maximum-Likelihood-Klassifikator


Dabei sind Maximum Likelihood und Minimum Distance zu den parametrischen und Parallelepiped zu den nicht-parametrischen Verfahren zugewiesen. Parametrische Verfahren verwenden für die Klassifizierung statistische Parameter, wie Mittelwert und Standardabweichung. Es gibt durchaus viele weitere Entscheidungsregeln, jedoch sind dies die gängigsten. Ein weiteres Beispiel wäre das Mahalanobis Distance Verfahren.

Minimum-Distance-Klassifikator[Bearbeiten]
Prinzip des Minimum-Distance Klassifikators

Das Minimum-Distance Verfahren gehört zu den einfachsten Klassifikationsalgorithmen. Die Zuordnung jedes Pixels zu einer Referenzklasse erfolgt ausschließlich auf Basis der Entfernung zu den jeweiligen Klassenmittelwerten. Es basiert also auf dem Verfahren der nächsten Nachbarschaft (Minimum-Distance) und benötigt eine vergleichsweise kurze Rechenzeit. Von den durch die Trainingsgebiete festgelegten Spektralbereichen wird ein Mittelwert im mehrdimensionalen Raum berechnet, den man auch als Mittelwertvektor bezeichnet. Für jedes zu klassifizierende Pixel wird in den folgenden Schritten der Abstand zu den Mittelpunkten der Klassen ermittelt. Als Abstandsmaß dient meist die spektral-euklidische Distanz:



SDxyc = Spektrale Distanz von Pixel (x,y) zum Mittelwert der Klasse c

Xxyi = Grauwert des zu klassifizierenden Pixels im Kanal i

μci = Mittelwert der Klasse c im Kanal i

n = Anzahl der Spektralkanäle


Das einzelne Pixel wird jener Klasse zugeteilt, zu deren Mittelwertvektor es den geringsten Abstand besitzt. Das Verfahren hat den Nachteil, dass es die unterschiedlichen Streubereiche (niedrige und hohe Varianzen) der Klassen nicht berücksichtigt und es zu Fehlklassifizierungen kommt.

Parallelepiped-Klassifikator[Bearbeiten]
Prinzip des Parallelepiped Klassifikators

Dieser häufig auch Box- oder Quader-Klassifikator bezeichnete Algorithmus trennt die Klassen im spektralen Merkmalsraum durch Rechtecke oder mehrdimensionale Quader. Die Quadergrenzen, und damit auch die Klassengrenzen, werden durch das Minimum und Maximum der Trainingsgebiete in den verschiedenen Kanälen bestimmt. Während das Parallelepiped Verfahren aufgrund der einfachen Vergleichsoperatoren ein sehr schnelles Klassifizierungsverfahren darstellt, ist die Ergebnissgüte nur seltenen ausreichend. Da der Klassifikator nur mittels eines umschreibenden mehrdimensionalen Quaders operiert, die Pixelwerte der Trainingsgebiete sich jedoch unterschiedlichst um den Mittelwert scharen können, ist die Wahrscheinlichkeit der Überlappung zwischen den Quadern und somit uneindeutiger Zuordnung zu Klassen vergleichsweise groß. Um diese Überlappung zu reduzieren, kann man z.B. die Klasse verkleinern, damit nimmt jedoch die Zahl der Pixel, die in keine Box fallen zu. Es besteht somit die Wahl zwischen einer höheren Anzahl von Fehlklassifizierungen oder einer höheren Anzahl von nicht klassifizierten Pixeln. Eine weitere Möglichkeit ist die Überlappungsbereiche noch einmal gesondert zu betrachten und z.B. mit der Maximum-Likelihood Methode neu zuzuordnen.

Maximum-Likelihood-Klassifikator[Bearbeiten]
Prinzip des Maximum-Likelyhood-Klassifikators

Der in der Fernerkundung am häufigsten verwendete Algorithmus, ist der Maximum-Likelihood-Klassifikator (Verfahren der größten Wahrscheinlichkeit), da damit die genauesten Ergebnisse produziert werden. In spektralen Überschneidungsbereichen zwischen verschiedenen Referenzklassen (siehe Parallelepiped) oder im Falle verschieden stark streuender Referenzklassen ist die Berücksichtigung der Klassen-Varianz sowie der Kovarianz zwischen Klassen sinnvoll. Die Varianz eignet sich zur Erfassung der Streuungswerte um ihr gemeinsames Mittel. Die Kovarianz kennzeichnet die Form der Punktwolke zweier oder mehrerer Merkmalswerte. Varianz und Kovarianz beschreiben also jeweils die Streuung der Pixel im Merkmalsraum. Es wird von der Annahme ausgegangen, dass die Grauwerte einer Objektklasse nicht willkürlich streuen, sondern um den Mittelpunkt eine Gauß’sche Normalverteilung aufweisen. Diese beschreibt eine symmetrische Verteilung von Daten um den Mittelwert, in Abhängigkeit von der Varianz. Bei einer mehrdimensionalen Verteilung, also im Falle multispektraler Fernerkundungsdaten, muss dieser mehrdimensionale Merkmalsraum entsprechend repräsentiert werden. Statt Mittelwert und Varianz werden der Mittelwertvektor und die Varianz-Kovarianz-Matrix zur Beschreibung herangezogen. Die Klassenzugehörigkeit wird daher bei der Maximum-Likelihood-Klassifikation durch eine Wahrscheinlichkeitsdichtefunktion allein mit den statistischen Parametern einer Klasse berechnet. Im multispektralen Merkmalsraum werden Linien gleicher Zuordnungswahrscheinlichkeit bestimmt. Ein Pixel wird der Klasse zugeordnet, der es mit der größten Wahrscheinlichkeit angehört. Bei zu geringer Wahrscheinlichkeit bleibt das Pixel unklassifiziert.

Postprocessing und Verifizierung[Bearbeiten]

Nachdem ein Satellitenbild klassifiziert wurde ergeben sich häufig noch Fehler. Diese beruhen darauf, dass sich die angewendeten Methoden der Klassifizierung auf den spektralen Raum (Merkmalsraum) beziehen, und nicht auf den geographischen Raum (Ausnahme: Objektbasierte Methoden). Es gibt verschiedene Werkzeuge zur Fehlerbeseitigung:

  • Analyse des Umfeldes von Pixeln oder Vektoren (Analyse der Klassenabstände)
  • Analyse des Klassenzusammenhangs zur Entfernung von Klassen unter einer bestimmten Mindestgröße
  • Analyse der Nachbarschaftsbeziehungen: Ähnlich der Convolution Filterung zur Bildverbesserung von Rasterdaten. Hauptsächlich werden Majority oder Maximum Filter verwendet, da andere, wie Mittelwert- oder Gaußfilter, bei klassifizierten, thematischen Bildern keinen Sinn machen.


Um eine Klassifikation zu verifizieren und ihre Güte zu beurteilen muss eine Genauigkeitsabschätzung vorgenommen werden. Hauptursache für eine mangelnde Genauigkeit ist oft, dass die Trainingsgebiete nicht repräsentativ gewählt wurden. Weitere Gründe sind unter anderem die spektrale Überlappung von Trainingsgebieten (bei eventuell nicht spektral voneinander zu trennenden Klassen), Mischpixel, Messfehler des Sensors oder variierende atmosphärische Einflüsse. Eine Überprüfung setzt immer bekannte Prüfflächen (ground truth data) voraus, die nicht in die Klassifikation in Form von Referenzflächen eingegangen sein sollten. Für die Beurteilung der Klassifikationsgüte werden zunächst unabhängige Testgebiete gewählt, die nicht mit den Trainingsgebieten übereinstimmen. Diese Verifizierungsgebiete sollten gleichmäßig über das gesamte Bild verteilt sein und möglichst als Zufallsstichprobe erfasst werden. Außerdem sollten alle Klassen repräsentativ abgedeckt werden. Nach Congalton (1991) werden mindesten 250 Referenzpixel gebraucht um die mittlere Güte einer Klasse mit einer Fehlergenauigkeit von ± 5% abzuschätzen. Die einfachste Kennzahl stellt die Gesamtgenauigkeit (overall accuracy) dar, welche sich aus dem Verhältnis von klassifizierten zu korrekt klassifizierten Prüfdaten errechnet. Veranschaulicht wird dies meist in einer Konfusionsmatrix oder auch Error Matrix. Weitere, komplexere Kennzahlen sind der Kappa-Koeffizient (KHAT-Statistik) oder der error of commission/omission.

Objektbasierte Klassifikation[Bearbeiten]

Mit ansteigender geometrischer Auflösung von Fernerkundungsdaten, gewinnen objekt- oder segmentbasierte Ansätze der Klassifikation immer mehr an Bedeutung. Pixelbasierte Klassifikationsmethoden, wie die bereits vorgestellten, lassen sich auf hochaufgelöste Fernerkundungsdaten immer eingeschränkter anwenden, da mit steigender Genauigkeit und zunehmenden erkennbaren Details auch die Anzahl der Klassen steigt, bzw. die Klassen sich immer weiter aufgliedern. Objektbasierte Klassifikationen beruhen auf einer Zusammenfassung einzelner Pixel zu einem (vektoriellen) Segment, dessen spektrale und texturelle Eigenschaften zu einer Klassenzuordnung führen. Dabei kann eine bottom-up Methode verwendet werden, die bei einem Pixel beginnend, die jeweils ähnlichsten Segmente zusammenfasst. Es kann aber auch über eine Erkennung von Grenzen zwischen einzelnen Objekten eine Segmentierung durchgeführt werden.

Objektbasierte Verfahren liegen der Annahme zugrunde, dass ein Pixel mit hoher Wahrscheinlichkeit der gleichen Klasse angehört wie sein Nachbarpixel. Mit Hilfe von Software wie dem kommerziellen eCognition, welches seit 2000 auf dem Markt ist, wird ein Bild in zunächst homogene Segmente aufgeteilt, die sich nicht überlappen, jedoch verschiedene Hierarchiestufen haben können. Für diesen Prozess stehen zahlreiche Segmentierungsalgorithmen zur Verfügung, welche aber alle auf drei grundlegenden Kriterien basieren (Blaschke, 2000):

  • Homogenität innerhalb eines Segments: Man versucht Flächen mit einer geringen Heterogenität in den spektralen Eigenschaften zu finden.
  • Verschiedenheit bzw. Trennstärke gegenüber räumlich angrenzender Segmente
  • Formhomogenität

Da diese Kriterien sich zum Teil konkurrierend gegenüberstehen, unterscheiden sich die verschiedenen Segmentierungsmethoden durch unterschiedliche Wichtung der Kriterien, zum Teil kann diese jedoch auch vom Nutzer vorgegeben werden.

Die Clusterbildung, welche prinzipiell der unüberwachten Klassifikation ähnelt, ist eine Methode der Bildsegmentierung, die Merkmalsraum statt findet. Für eine vorgegebenen Anzahl von Klassen werden Pixel zusammengefasst, die sich möglichst ähnlich sind. Dafür muss die Quadratsumme der Pixelwerte von den Mittelwerten der Cluster minimal sein. Die Methode der regionenbasierten Segmentierung bezieht sich, im Gegensatz zur Clusterbildung, ausschließlich auf den Bildraum. Nachbarpixel werden auf ihre Ähnlichkeit geprüft und gegebenenfalls in das Segment integriert. Die Prüfung auf Ähnlichkeit kann zum einen mit dem unmittelbar benachbarten Pixel des Segmentes erfolgen oder über den Mittelwert aller in dem Segment befindlichen Pixel. So „wächst“ das Segment, bis die angrenzenden Pixel sich deutlich von denen des Segmentes unterscheiden. An dieser Grenze entsteht ein neues Objekt. Auch kantenbasierte Verfahren arbeiten mit dem Bildraum. Sie untersuchen das Bild auf starke Gradienten (Kanten) und definieren diese als Objektgrenzen. Diese Grenzlinien werden anschließend zu Gruppen zusammengefasst (Blaschke, 2000). Die durch die Segmentierung entstandenen Objekte werden anschließend mit Hilfe von Trainingsgebieten auf ihre spektralen Eigenschaften untersucht und zusätzlich mit ihrer Topologie, anders als einzelne Pixel, als Einheit klassifiziert.

Die Objektbasierte Klassifikation erzielt hohe Genauigkeiten und vermeidet den unerwünschten Salt-and-Pepper-Effect. Unter dem Salt-and-Pepper-Effect (Pixelrauschen) versteht man einzelne Pixel, die bedingt durch Sensorverschmutzung, atmosphärische Trübungen oder Reflexionen, anders klassifiziert werden als ihre Umgebung die. Bei den pixelbasierten Verfahren führt dies zu fehlerhaften Klassifizierungen (Blaschke, 2000). Objektorientierte Klassifikationen liefern ein vektorbasiertes Ergebnis, die eine leichte Integration in ein GIS ermöglichen.

Komplexe Klassifikationen (Expert Classifier)[Bearbeiten]

Die Methoden der expertenbasierte Bildklassifizierung benutzen eine auf festen Regeln aufgebaute Herangehensweisen. Es ist ein hybrider Ansatz, in dem man verschiedene Klassifikationsverfahren miteinander für bestimmte Entscheidungen kombiniert. So können Ratios, Maximum Likelihood Verfahren, Schwellwerte usw. nebeneinander verwendet werden. Des weiteren können empirische Zusatzinformationen eingebunden werden, wie zum Beispiel digitale Geländemodelle.

Der Expert Classifier setzt dies nach dem Entscheidungsbaumverfahren um. Dafür müssen Hypothesen, Regeln und Variablen festgelegt werden. In den Variablen definieren sich zunächst die Datensätze, welche eingebunden werden, wie z.B. ein bestimmter Kanal, ein Ratiobild oder das Ergebnis eines Modells. Verschiedene Variablen werden dann über die Regeln, wie z.B. Schwellwerte im einfachsten Fall, kombiniert. Hypothesen sind die Umsetzung der Regeln auf sie Datensätze und damit auch die neu gebildeten Klassen.

Durch die vielseitigen Möglichkeiten der Einbindung von Zusatzdaten und die Verwendung verschiedener Klassifikatoren für unterschiedliche Klassen ist der Expert Classifier eine sehr genaue Art der Klassifizierung. Jedoch ist zu beachten, das die Entwicklung der Entscheidungsbäume und die Vorbereitung der Ausgangsdatensätze großen Aufwand erfordern.

Problematik[Bearbeiten]

Die Entscheidung für eine der verschiedenen Klassifikationstechniken hängt oft von der Zielstellung ab. Die Wahl hat Auswirkungen auf die Genauigkeit des Ergebnisses und damit aber gleichzeitig auch auf den Aufwand der Erstellung. Bezüglich des Aufwandes ist noch zwischen Rechen- und Entwicklungszeit zu unterscheiden. Während die Maximum-Likelihood Methode ein rechenaufwändiges Verfahren darstellt, bedarf vor allem die komplexe Klassifikation immer langer Entwicklungszeiten. Des Weiteren ist zu unterscheiden, ob der größere Aufwand für die Input Vorbereiung oder die Output Auswertung benötigt wird. So ist eine unüberwachte Klassifikation ohne große Vorkenntnisse des Nutzers durchfürbar, jedoch ist die Interpretation der Ergebnisklassen ungleich schwieriger. Die Übertragbarkeit der Ergebnisse auf weitere Datensätze ist ebenfalls bei jeder Klassifikation unterschiedlich.

Bei der Fülle an Möglichkeiten zur Klassifizierung von Satellitendaten sind die vorgestellten nur eine Auswahl. Gerade neuere Methoden, wie Neuronale Netze, oder Vorverarbeitungsschritte, wie die spektrale Entmischung von Pixeln, bieten vielseitige neue Lösungswege und sollen deswegen hier noch genannt werden.