Projekt:FE Auswerteverfahren 1/Schnee/Srivastava 2003

Aus Wikiversity
Zur Navigation springen Zur Suche springen

Onboard Detection of Snow, Ice, Clouds and other Geophysical Processes Using Kernel Methods

ASHOK N. SRIVASTAVA, JULIENNE STROEVE

ICML 2003 Workshop on Machine Learning Technologies for Autonomous Space Sciences

Die Erkennung von Wolken innerhalb eines Satellitenfotos ist sehr wichtig um geophysikalische Oberflächenparamater von optischen und thermischen Bildern abzuleiten. Selbst der noch so kleinste Anteil an Wolkenbedeckung innerhalbe eines Pixels kann die Bestimmung von Oberflächenparametern wie Albedo und Temperatur negativ beeinflussen. Daher benötigt das „Onboard Processing“ von Satellitendaten zuverlässige automatische Wolkenbestimmungsalgorithmen, welche auf eine Vielzahl verschiedener Oberflächentypen anwendbar sein muss. Erschwerend kommt hinzu, dass die Bestimmung von Wolken, besonders über schnee- und eisbedeckten Oberflächen mangels spektralen Kontrasts ein Problem darstellen, welches die Fernerkundung schon sehr lange beschäftigt. Dieser Artikel diskutiert vorläufige Erkenntnisse basierend auf der Anwendung von Kernel-Methoden für die nicht überwachte Klassifikation von Schnee, Eis, Wolken und anderen geophysikalischen Prozessen, basierend auf MODIS Daten und diskutiert deren Einbindung in Onboard-Systeme in Satelliten.

Der Autor sieht seine Motivation darin begründet, dass die generelle Vorgehensweise bei der Wolkenerkennung auf spektralem, strahlungsräumlichem sowie strahlungszeitlichem Kontrast und einer Kombination aus diesen basiert. Die verwendeten Algorithmen haben dabei das Problem der Unterscheidung zwischen Schnee-/Eis und Wolkenerkennung. Kernel wiederum könnten mit geeigneter Modifikation die Lösung für dieses Problem darstellen. Zum jetzigen Zeitpunkt werden Wolkenerkennungsalgorithmen vor allem bei bodengestützten Systemen angewendet. Daher muss es nun Ziel sein, Onboard-Algorithmen zu entwickeln, die es erlauben, in schneller Folge Aufnahmen von Phänomenen zu machen und gleichzeitig die Übertragung von Bildern mit weniger aussagekräftigen Inhalten zu reduzieren. Zudem würde sich so die Datenmenge verringern, da sich eine solche Klasseneinteilung besser komprimieren ließe. Die in diesem Artikel beschriebenen Kernel-Methoden haben dabei wenig mit den herkömmlichen Kernel-Dichteschätzungen im klassischen Sinne zu tun. Es wird versucht, wahrscheinlichkeitsbasierende Kernel zu erzeugen, die im Vergleich zu gewöhnlichen Kernel, eine überlegene Leistung in Bezug auf den Entdeckungsprozess aufweisen, sowie sehr robust gegenüber Fehlern sind, die in der zugrundeliegenden Annahme über die Verteilung der Daten zu finden sind.

Als Ergebnisse wartet der Artikel mit einer Messreihe über dem Grönlandeisschild auf. Insgesamt weicht dabei das Modell um etwa 4.4% von den Vorhersagen ab. Die „Probabilistic Kernel“ Methode isoliert Gebiete, die nicht eindeutig zugeordnet werden können und weist diesen eine bestimmte Klasse zu. Die Klasse ist abhängig von der zugrunde liegenden Wahrscheinlichkeitsverteilung und stellt den Versuch dar, das Verhältnis zwischen Signal und Rauschen zu verbessern. Im Moment wird aktiv daran gearbeitet, diesen Wert noch weiter zu verbessern.

Kernel-Methoden sind hinsichtlich ihrer Resultate vielversprechend, allerdings ist ihr Einsatz bei Onboard-Systemen herausfordernd. Sie sind rechen- und speichertechnisch aufwendig, da stets eine NxN Kernel-Matrix benötigt wird, wobei N die Anzahl der unabhängigen Datenpunkte darstellt. Daraus ergibt sich, dass die Forschung zur Verminderung des Speicherbedarfs sehr wichtig ist. Ein weiteres Problem sieht der Autor in der noch nicht angemessenen Interpretation beim Auftreten von Ähnlichkeiten in den Daten. Jedoch zeigen die vorläufigen Resultate, dass Kernel-basierte Methoden geophysikalische Prozesse sehr wohl aufdecken und auch zwischen ihnen entscheiden können. Weiterhin könnte es möglich sein, neue Kernels direkt aus Daten zu generieren, welche von vornherein zuverlässig mit den vorhandenen Unsicherheiten der zugrundeliegenden Wahrscheinlichkeitsverteilung umgehen können. Onboard-Algorithmen, welche auf solchen Kernels basieren, könnten die Übertragung von wertvollen und nützlichen Daten drastisch erhöhen, während Bilder mit nicht verwertbaren Inhalten reduziert werden würden.