Zum Inhalt springen

Kurs:E-Marketing 2/ThemenSS13/Web Mining

Aus Wikiversity

Web Mining: Kundenbeobachtung im Internet

Einleitung und Problemstellung

[Bearbeiten]

Text: Silvana Szamosvari

In diesem Wiki-Artikel soll der wesentliche Unterschied zwischen Data Mining und Web Mining hervorkommen und es werden dazu Beispiele geschildert, welche die Funktionen und Aufgabenfelder dieser Schlagwörter deutlich machen werden.

In einem Zeitalter der Digitalisierung und modernster Informationstechnologien sind die Schlagwörter „Datensätze“ oder „Datenbestände“ aufgekommen. Diese meist sehr umfangreichen Datenbestände beinhalten wertvolle Informationen für Entscheidungsträger eines Unternehmens und erfordern somit die Anwendung von anspruchsvollen, mathematisch-statistischen Verfahren zur Datenanalyse. Die systematische und schnelle Beschaffung, Verwaltung, Bereitstellung, Analyse und Interpretation von Daten liefert Informationen, die vorher nur als unternehmerische Ressource angesehen werden. Um unter anderem Wettbewerbsvorteile am Markt zu erzielen, verwenden Unternehmen immer stärker modernste Informationstechnologien. In diesem Zusammenhang stellt die intensive Nutzung von Daten eine Schlüsselposition dar.[1]

In diesem Artikel sollen einerseits die wichtigsten und grundlegendsten Definitionen, Arten/ Eigenschaften, beziehungsweise Modelle und Prozessvorgänge im Bezug auf Data Mining und Web Mining dargestellt und andererseits mit Hilfe einer Fallstudie beispielhaft untermauert werden. Des Weiteren soll das Thema „Kundenbeobachtung im Internet“ näher beleuchtet werden, um auf den Nutzen und die Qualität schließen zu können.

Im letzten Teil dieses Artikels soll ein kurzer Zukunftsausblick gegeben werden, wobei das Thema "Big Data" angesprochen wird und eventuelle Probleme und Anfechtungen geschildert werden, mit denen Unternehmen in der Zukunft umgehen müssen.

Wie sich dieses Informationstechnologie-Zeitalter in den nächsten zwanzig Jahren entwickelt wissen wir alle nicht. Es ist jedoch gewiss, dass der Fortschritt keine Grenzen kennt und es noch viele spannende Innovationen und Technologien geben wird, um den Blick für den Kunden noch mehr zu schärfen.

                                    "Knowledge has to be improved, challenged, and increased constantly, or it vanishes." [Peter Drucker]

Data Mining und Knowledge Discovery in Databases (KDD)

[Bearbeiten]

Text: Silvana Szamosvari

Definition Data Mining

[Bearbeiten]

Unter Data Mining versteht man eine Datenmenge, aus welcher man verschiedene Daten extrahiert und diese für bestimmte Zwecke nutzt. Prinzipiell könnte man auch sagen, Data Mining ist eine systematische Anwendung statistischer Methoden auf einen Datenbestand mit dem Ziel, ein bestimmtes Muster zu erkennen. In unserer Fragestellung geht es um die Nutzung von Data Mining im Bezug auf eine Mustererkennung bestehender oder potenzieller Kunden im Internet, bzw. um Mustererkennung auf ganz bestimmten Webseiten. Des Weiteren geht es beim Data Mining um die Verarbeitung großer Datenmengen beziehungsweise Datensätze. Da die manuelle Verarbeitung komplexer und großer Datenmengen unter Umständen nicht mehr bewältigbar ist, sind effiziente Methoden notwendig die diesem Problem Abhilfe schaffen können.[2]

Durch die Einführung der Scanner-Kassen ist das Data Mining vor vielen Jahren erfunden worden, da man auf Grund der Scans an den Kassen Informationen über Kunden speichern, analysieren, jederzeit abrufen und für verschiedene Zwecke nutzen kann. Um ein Beispiel zu nennen: Der Lebensmittelkonzert Walmart hat versucht einen Zusammenhang zwischen Babywindeln und Bier (Dosen) herzustellen und es wurde auf Grund von den vorhandenen Informationen die Annahme getroffen, dass junge Väter mehr Alkohol brauchen. Dieses Beispiel zeigt, dass es äußerst riskant ist, auf Grund von trivialer Datensammlungen Schlüsse zu ziehen, die möglicherweise überhaupt keinen Bezug zu einander haben und eine Verallgemeinerung daher höchst fragwürdig erscheint. Informationen dieser Art werden auch dazu verwendet, Massenmärkte zu individualisieren.

Das 5-Phasen Modell

Data Mining: Das 5-Phasen Modell

[Bearbeiten]

Im Data Mining kann ein mehrphasiger Prozess beschrieben werden, der selbst nicht automatisiert abläuft. In der Literatur werden verschiedene Vorschläge und Versionen für ein optimales Vorgehen beim Data Mining genannt. Die Abbildung zeigt ein einfaches Vorgehensmodell, welches in eine Planungsphase, Vorbereitungsphase, Miningphase und Auswertungsphase unterteilt wird.[3]

Im Folgenden soll eine kurze Beschreibung des 5-Phasen Modells gegeben werden: Das Phasen-Modell beschreibt die Auswahl, Aufbereitung, Festlegung, Analyse und schlussendlich die Interpretation der gewonnenen Datensätze. In der ersten Phase geht es um die Festlegung einer für das Data Mining geeigneten Aufgabe. Es muss definiert und klar sein, was beziehungsweise welches Ziel erreicht werden soll und welche Ergebnisse erwartet werden können. Diese Aufgabe kann mehrere Merkmale haben. Um dies zu erreichen muss die zu entdeckende Information beziehungsweise das Wissen für das Unternehmen nützlich sein. Einfach gesagt: die Datenbestände müssen für das Unternehmen verwertbar sein.

In der Aufbereitungsphase müssen die Daten bearbeitet und insbesondere auf ihre Qualität, Vollständigkeit und Konsistenz überprüft werden. Anschließend werden die Daten für den Analyseprozess freigegeben. In der Phase der Festlegung werden vor allem die Analyseverfahren und damit verbundene Ziele festgelegt. Im Zusammenhang mit der Festlegung der Ziele sind vier Teilziele relevant: die Gruppenbildung (Clustering), das Vornehmen von Klassifikationen, das Erklären von Zusammenhängen und das Entdecken von verschiedenen Abhängigkeiten.

In der „Analyse durchführen“-Phase werden schließlich und endlich die Analyseverfahren festgelegt, wobei die Ziele schon klar definiert sein müssen. Zur Verfügung stehen hierbei Methoden wie Clusterverfahren, Entscheidungsbaumanalyse, Neuronale Netze und Assoziationsregelverfahren, sowie weitere, weniger häufig eingesetzte Methoden. Die verschiedenen Verfahren und Methoden verfolgen unterschiedliche Zielsetzungen, was es sehr schwer macht, sich für nur eine Variante oder Methode zu entscheiden. Zum Beispiel bieten sich neuronale Netze und lineare Regression bei Fragestellungen mit „Prognose-Charakter“ an. Die meisten Unternehmen entwickeln mehrere Data-Mining-Lösungen für dieselbe Aufgabenstellung oder legen Kombinationen der einzelnen Methoden innerhalb einer Lösung fest.

Die letzte Phase – nämlich die der Auswertung und Interpretation - prüft einerseits die Analyseergebnisse auf ihre Qualität und Güte. Es wird analysiert ob die erwarteten Muster gefunden wurden, ist dies nicht der Fall müssen Ursachen dafür erforscht werden. Es kann sogar sein, dass man zu einem früheren Schritt im 5-Phasen Prozess zurückkehren muss, um dem Fehler auf den Grund zu gehen. Im Zuge der Auswertung von Ergebnissen werden diese in graphischer Darstellung erfasst, damit Zusammenhänge klar und verständlich werden. Im letzten Punkt dieser Phase wird die eigentliche Anwendung und Nutzung des gewonnenen Wissens vorgenommen.[4]

Jenes Wissen, welches aus dem Data Mining Prozess gewonnen wird dient meist als Unterstützung für Entscheidungsprozesse innerhalb eines Unternehmens. Um ein Beispiel zu nennen: auf Grund dieser Analyseverfahren wird es möglich Beziehungen zwischen einzelnen Konsumgüter zu gewinnen, um ein besseres Kundenverständnis zu bekommen.

Aufgaben des Data Mining

[Bearbeiten]

• Ausreißererkennung

• Clusteranalyse

• Klassifikation

• Assoziationsanalyse

• Regressionsanalyse


Die Aufgaben des Data Mining sind typischerweise das Erkennen von Ausreißern, die Clusteranalyse, Klassifikation, Analyse von Assoziationen und eine Analyse von Regressionen.

In der Ausreißererkennung geht es um die Identifizierung von ungewöhnlichen Datensätzen. In diesem Verfahren werden Ausreißer, Fehler oder auch Änderungen analysiert und Lösungen dieser Probleme werden gesucht, damit der Datensatz „rein“ ist und weiterverwertet werden kann.

In der Clusteranalyse werden Daten und Objekte auf Grund ihrer Ähnlichkeit zu Gruppen zusammengefasst.

Konnten Elemente der Datensätze bislang noch in keine Gruppe zugeordnet werden, so werden diese in bestehende Klassen eingeordnet. Die Assoziationsanalyse beschäftigt sich des Weiteren mit der Identifizierung von Zusammenhängen und Abhängigkeiten in den Daten in Form von Regeln, wie zum Beispiel: „Aus A und B folgt normalerweise C“. In der Regressionsanalyse werden Beziehungen zwischen ein oder mehreren abhängigen und unabhängigen Variablen identifiziert.[5]


Zusammenfassend kann man sagen: Die wesentliche Aufgabe des Data Mining ist eine Reduktion der Datensätze, inklusive kompakter Beschreibungen ohne dass es einen Informationsverlust gibt.

Der KDD Prozess

[Bearbeiten]

• Datenbank

• Fokussieren

• Vorverarbeitung

• Transformation

• Data Mining

• Muster

• Evaluation

• Wissensgewinnung


Im ersten Schritt, dem Fokussieren, ist es wichtig ein Verständnis der Anwendung zu bekommen. Darüber hinaus soll das Ziel des KDD aus Sicht der Anwendung definiert und es muss festgelegt werden in welchen Daten das Wissen gesucht werden soll, beziehungsweise wie eine Beschaffung dieser Daten aussehen kann. Der bequemste Weg wäre auf eine bereits vorhandene Datenbank zuzugreifen, um somit einen Teil für die Grundlage des Data Mining zu schaffen. Im KDD Schritt darf auch keinesfalls auf die Frage der „Datenverwaltung“ vergessen werden. In diesem Zusammenhang sind Datenbanksysteme unerlässlich, da diese eine etablierte Funktionalität vorweisen können, welche für alle Phasen des KDD Prozesses gewinnbringend sind.

In der Phase der Vorverarbeitung werden die Daten integriert, vervollständigt und auf ihre Konsistenz geprüft. Der Aufwand der Vorverarbeitung im KDD-Prozess ist, gemessen am gesamten Aufwand, relativ hoch. Hat man jedoch die Möglichkeit auf ein Data Warehouse zurückzugreifen, so reduziert sich der Aufwand um ein Vielfaches.

Im nächsten Prozess-Schritt, dem der Transformation, werden die vorverarbeiteten Daten in eine für das Ziel des KDD geeigneten Repräsentation transformiert. Zwei typische Transformationen sind zum Beispiel die Diskretisierung von Attributen und die Attribut-Selektion. Nicht immer sind alle bekannten Attribute auch tatsächlich von Relevanz für die Data-Mining-Aufgabe, daher ist die Selektion von Attributen in der Praxis unerlässlich.

Unter Data Mining versteht man in diesem Zusammenhang die Anwendung effizienter Algorithmen, welche die in einer Datenbank enthaltenen gültigen Muster finden und erkennen. In diesem Schritt ist eine Identifikation der relevanten Data Mining Aufgabe - siehe 2.3 - vorzunehmen. Nachdem dann ein bestimmtes Muster analysiert und identifiziert werden konnte, kommt es zur Evaluation von Datensätzen um daraus Wissen zu gewinnen.[6]

Data Mining und Knowledge Discovery im realen Leben

[Bearbeiten]

Die Wissensentdeckung in Datenbanken ist heutzutage eines der wertvollsten Mittel zur Generierung von Wissen.


"There is an urgent need for a new generation of computational theories and tools to assist humans in extracting useful information (knowledge) from the rapidly growing volumes of digital data." [Fayyad et al.: From Data Mining to Knowledge Discovery in Databases]


Wissensmanagement ist in der Wirtschaft ein wesentlicher Bestandteil, denn jedes Unternehmen muss erkennen wie man Wissen generiert und es richtig einsetzt. Wissensmanagement stellt einen unverzichtbaren Produktionsfaktor, neben Arbeit und Kapital, dar. Um wettbewerbsfähig zu sein bzw. zu bleiben, braucht ein Unternehmen, welches kundenorientiert agiert, Informationen – zum Beispiel über den Markt allgemein, die Zielgruppe die es erreichen will, die Marktsegmentierung eines bestimmten Landes und vieles mehr. Ohne die Möglichkeit, diese Informationen zu bekommen, wäre ein Unternehmen handlungsunfähig.

Data Mining und KDD sind ein wichtiger Bestandteil im Bereich des Marketing, vor allem, wenn es um Kundenbeobachtung oder im speziellen um die Beobachtung der Kundenbedürfnisse geht. In einem Zeitalter der Internet-Portale und des eCommerce ist Data Mining – als Überbegriff für KDD – speziell im Marketing nicht mehr wegzudenken. Jedes kundenorientierte Unternehmen sammelt heutzutage in großem Umfang Kundendaten, um daraus ein tiefes Verständnis der Interessen und der Verhaltensweisen der Kunden zu gewinnen. Der Nutzen dieser Datensammlung kann jedoch nur dann entstehen, wenn diese mit dem tatsächlichen Kundenverhalten verknüpft werden. Um den größtmöglichen Nutzen aus dieser Ansammlung an Daten zu ziehen, müssen die gewonnen Erkenntnisse aus den gesammelten Informationen in Aktionen, welche genau auf die Bedürfnisse und Handlungen der Kunden zugeschnitten sind, umgewandelt werden.

In diesem Zusammenhang ist ein wirtschaftliches Werk zu erwähnen, welches sich genau mit diesem Thema beschäftigt. Data Unser: Wie Kundendaten die Wirtschaft revolutionieren wurde von Björn Bloching, Lars Luck und Thomas Ramge getextet und ist beim Redline Verlag im Januar 2012 erschienen. Dieses Werk beschäftigt sich mit der Geschichte der Daten, die Unternehmen über ihre Kunden sammeln und wie diese im Anschluss verwertet und genutzt werden. Die drei Autoren gehen davon aus, dass es seit den 1980er Jahren mehrere Datenrevolutionen gegeben hat. Sie beschreiben den Weg von den Tante-Emma-Läden bis hin zum Massenmarketing und großflächigen Handel, über Professionalisierung des Marketings, Online Marketing, Kundenbeziehungsmanagement (CRM) bis zum integrierten datenbasierten Marketing.[7]


“Knowledge management is the strategy and processes to enable the creation and flow of relevant knowledge throughout the business to create organisational, customer and consumer value." [David Smith, Unilever]

Web Mining

[Bearbeiten]

Text: Bettina Suchacek

Definition Web Mining

[Bearbeiten]

Web Mining ist der Einsatz von Data Mining Techniken um Informationen aus Web-Dokumenten und Web-Leistungen aufzufinden und zu gewinnen.[8]

Web Mining soll helfen, Wissen aus den großen Datenmengen die im Internet vorhanden sind herauszufiltern. Dies umfasst den gesamten Prozess von der Sammlung und Ermittlung der Daten angefangen, über die Auswertung und Aufbereitung der Daten bis hin zur Analyse und Anwendung der Ergebnisse. Beim Web Mining werden also die Methoden des Data Mining auf die Anwendungen im Internet übertragen und vor allem die besonderen Techniken und Systeme zum Sammeln der Daten an die Gegebenheiten des Webs angepasst.[9]

Das Internet heutzutage ist ein populäres und interaktives Medium das genutzt wird, um Informationen zu verbreiten. Nutzer und Unternehmen stoßen beim Interagieren mit dem Web auf bestimmte Probleme: die relevante Information die gesucht wird auch zu finden, aus dem verfügbaren Informationen neues Wissen zu erstellen, die Informationen personalisieren und das Lernen über die Konsumenten und individuellen Nutzer, also ihre individuellen Wünsche und Bedürfnisse. Techniken des Web Mining können dazu genutzt werden, die Informationsüberflutung und die damit verbundenen Probleme direkt oder indirekt zu lösen.[10]

Phasen des Web Mining

[Bearbeiten]

Im Web Mining kann ein mehrphasiger Prozess beschrieben werden, der sich an den fünf Phasen des Data Mining orientiert. In der Literatur sind unterschiedlich Vorschläge und Versionen für den Prozess des Web Mining zu finden. Die Abbildung zeigt ein Vorgehensmodell welches sich auf die drei wesentlichen Phasen des Web Mining bezieht. Diese sind die Datengewinnung, die Datenaufbereitung und die Datenanalyse. Die daraus gewonnen Erkenntnisse werden dann in der vierten Phase angewendet.


Die Datengewinnung oder auch Ermittlung von Nutzerdaten ist die Phase des Web Mining die sich am Meisten von der Methode des Data Mining unterscheidet. Durch das neue Medium Internet und durch neue technische Verfahren bestehen mehr Möglichkeiten Kundendaten zu sammeln und es sind Informationen und Daten vorhanden im World Wide Web. Die Datengewinnungsmethoden können aufgrund direkter Verfahren, indirekter Verfahren oder externer sekundärer Verfahren erfolgen.

Bei den direkten Verfahren sollen die Nutzer dazu motiviert werden ihre persönlichen Daten und Präferenzen anzugeben. Dies sind wertvolle Informationsquellen für das Unternehmen der Website, denn wahrheitsgemäße Angaben, Verhaltensweisen, Einstellungen und Präferenzen können dadurch einer Person eindeutig zugeordnet werden. Wichtig ist, dass dabei die Sicherheit der Nutzerdaten gewährleistet wird. Da die Aktivitäten des Nutzers protokolliert werden und häufig auch persönliche Daten involviert sind, sollten dem Kunden im Gegenzug Sonderleistungen oder Goodies geboten werden. Zu den direkten Verfahren zählen z.B. die User ID, Personenbezogene Angaben oder Feedback der Nutzer.

Indirekte Verfahren sammeln Daten von Nutzern ohne dessen Zutun. Sie protokollieren Zugriffe und Surfverhalten eines Benutzers, ohne dass sich dieser mit persönlichen Daten registriert haben muss oder dieser Protokollierung zugestimmt haben muss. Datenschutzrechtlich stoßen indirekte Verfahren häufig auf Ablehnung. Die EU-Richtlinie zum Datenschutz schreibt vor, dass die Bürger die absolute Kontrolle über ihre persönlichen Daten haben. Somit muss ein Unternehmen, welches persönliche Daten einer Person sammeln und nutzen möchte, die entsprechende Erlaubnis der betroffenen Person einholen und zusätzlich noch offenlegen welche Informationen gesammelt werden und wofür diese verwendet werden. Auf jeden Fall gesetzwidrig ist es, die gesammelten Daten ohne Zustimmung des Betroffenen an Dritte weiter zu geben. Informationen dürfen nur gesammelt werden, wenn der Kunde „ohne jeden Zweifel“ seine Einwilligung gegeben hat. Dies bedeutet, dass eine standardmäßige Browsereinstellung z.B. „Cookies akzeptieren“ nicht als Einwilligung ohne jeden Zweifel anzusehen ist. Zu den indirekten Verfahren zählen unter anderem Logfiles.Logfiles sind Dateien, in denen alle Zugriffe auf den Server eines Anbieters protokolliert werden. Mit Hilfe von Logfiles können Clickstreams erstellt werden, welche dann zu Nutzerprofilen zusammengefasst werden können. Beim Packet Sniffing wird die gesamte Kommunikation zwischen Nutzer und Server vom Nutzer unbemerkt mitgelesen und analysiert. Durch Application Server Logging werden alle Aktionen des Nutzers auf einer bestimmten Website protokolliert und zur Ergänzung der Nutzerinformationen verwendet. Häufig werden auch Cookies eingesetzt. Cookies sind Datensätze, die vom Browser auf der Festplatte des Nutzers gespeichert werden und zwar auf Anweisung des besuchten Web-Servers. Diese gespeicherten Informationen werden bei wiederholtem Aufruf der Website durch den Browser mitgeschickt und ermöglichen der Website damit beispielsweise wiederkehrende Nutzer zu identifizieren. Bei der Benutzung einer Session ID wird einem Nutzer eine Nummer zugeordnet anhand derer der Nutzer wiedererkannt werden kann und erlaubt der Website ihre Inhalte für den jeweiligen Nutzer zu personalisieren. Unter Web-Bugs versteht man das Einbinden einer externen Ressource, etwa einer Bilddatei, in ein Dokument oder in eine E-Mail. Wird die Ressource beim Öffnen abgefragt, so kann anhand der Logdateien auf dem Server, der diese Ressource bereitstellt, ermittelt werden, welcher Benutzer zu welchem Zeitpunkt das Dokument oder die E-Mail geöffnet hat. Spyware ist häufig in Gratisprogrammen oder Shareware-Programmen enthalten. Sie wird durch den Benutzer meist unbemerkt mit installiert, protokolliert das Verhalten eines Nutzers und sendet diese Daten dann an einen Drittserver. Ein Nutzer wird somit in seinem Nutzerverhalten ausspioniert. Auf weitere indirekte Verfahren wird hier nicht weiter eingegangen.

Beim externen sekundären Verfahren können Nutzerdaten auch extern dazu gekauft werden. Ein Unternehmen kann sich an einen Sekundärdatenanbieter wenden und hat somit die Möglichkeit des Outsourcing der Phase der Datengewinnung. Zum sekundär Daten Verfahren zählt z.B. der Zukauf von Daten oder die Kooperation oder Fusion mit anderen Unternehmen.


Bei der Phase der Datenaufbereitung geht es darum die ermittelten Nutzerdaten auf ihre Qualität, Vollständigkeit und Konsistenz hin zu überprüfen und die gesammelten Daten zu bearbeiten. Nun sollen die Benutzer identifiziert und die Dauer ihrer Sitzungen ermittelt werden. Gleichzeitig sollen die Kundeninformationen auf ihren Wahrheitsgehalt hin geprüft werden und Informationen transformiert bzw. ergänzt werden. Dies bedeutet, dass z.B. Domain Namen bestimmten IP-Adressen zugeordnet werden. Inhalte werden genau klassifiziert und identifiziert. Die große Menge an Daten wird gefiltert, um irrelevante, redundante, unvollständige und störende Informationen zu eliminieren.


In der Phase der Analyse der Nutzerdaten können unterschiedliche Werkzeuge verwendet werden. Diese reichen von einfachen, zusammenfassenden Reporting- und Visualisierungs-Methoden bis hin zu komplexen Mining-Methoden und Algorithmen. Wenn es sich um die Analyse und Reduktion großer Datenmengen handelt, komplexe Muster aufgedeckt werden sollen und Wissen automatisiert herausgearbeitet werden soll, wie es beim Daten sammeln im World Wide Web oft der Fall ist, werden Methoden und Algorithmen des Data Mining angewandt. Eine Methode des Data Mining ist die Pfadanalyse, bei der die Aufrufreihenfolge der Informationsangebote untersucht wird. Somit können Aussagen über Vorlieben des Nutzers und die Attraktivität des Inhaltes der Website getroffen werden. Eine andere Methode ist die Assoziationsanalyse, hier werden Muster identifiziert in Bezug darauf welche Informationsangebote häufig gemeinsam abgerufen werden. Somit zeigen sich Cross-Selling-Potentiale und neue Vorteile bei der Websitegestaltung. Die Methode der Sequenzanalyse zeigt Zugriffsabfolgen an, auf Grund derer dann zukünftige Zugriffsmuster vorausgesagt werden können. Somit können z.B. Werbebanner optimal eingesetzt werden. Eine bekannte Methode ist auch das Clustering, hierbei werden Nutzer aufgrund ihres Surfverhaltens bestimmte Gruppen eingeteilt. Es gibt noch viele weitere Methoden zur Analyse von Daten, auf diese soll jedoch hier nicht näher eingegangen werden. Ziel ist es dann aufgrund der aufgedeckten Muster Vorhersagen zu treffen und aussagekräftige Nutzerprofile zu erstellen. Diese sollen dann die Grundlage für das individualisierte und personalisierte Marketing eines Unternehmens im Web dienen. Das Unternehmen kann aufgrund dieses neuen Wissens über seine Kunden individuelle Angebote gestalten und Service erstellen. Womit auch die Phase der Anwendung des neu gewonnen Wissens und Muster abgeschlossen wäre.[11]

Arten des Web Mining

[Bearbeiten]

Es werden drei Bereiche des Web Mining unterschieden, abhängig davon, auf welchen Bereich des Webs die Methoden angewandt werden sollen. Diese drei Arten sind das Web-Usage-Mining, das Web-Structure-Mining und das Web-Content- Mining.

Web-Usage-Mining

[Bearbeiten]

Beim Web-Usage-Mining geht es darum, das Verhalten und die Sitzung eines Nutzers zu interpretieren und daraus zu folgern wie angemessen und tauglich die Angebote der Website sind. Hierbei soll Wissen aus den Interaktionen der Benutzer während sie im Web interagieren gewonnen werden. Die dafür relevanten Informationen können durch Log-Dateien, Proxy Server Logs, Nutzerprofile, Registrierungsdaten, Cookies, Mausklicks und vielem mehr beschaffen werden. Durch die Analyse der Nutzungsdaten sollen auch Aussagen bezüglich der Qualität von Angeboten getroffen werden können.[12]

Web-Structure-Mining

[Bearbeiten]

Beim Web-Structure-Mining geht es darum, die Linkstruktur des Webs aufzudecken.[13]Wissen soll hierbei aus der Verweisungsstruktur von Hyperlinks gewonnen werden. Dies kann sich auf die HTML Struktur einzelner Dokumente beziehen, die Struktur von Seiten oder auf die Verlinkungsstruktur des Internets. Hierbei wird ein Modell erstellt. Die Strukturinformationen sollen dazu dienen, die Suchfunktionen im Web zu verbessern.[14]Dieses Modell kann verwendet werden um Websites zu kategorisieren und hilft dem Ranking einer Website. Es ist hilfreich um Informationen bezüglich der Ähnlichkeit und Beziehungen zwischen unterschiedlichen Websites zu generieren. Mit Hilfe von Web-Structure-Mining können inhaltsreiche Webseiten (authorities) und überblicksartige Webseiten (hubs) für ein bestimmtes Thema aufgedeckt werden.[15]

Web-Content-Mining

[Bearbeiten]

Beim Web-Content-Mining sollen nützliche Informationen aus den Inhalten, Daten und Dokumenten einer Website gewonnen werden. Man möchte hierbei zu neuem Wissen gelangen, indem man große Mengen von Inhalten einer Website zusammenfasst. Zum Webinhalt zählen Textdaten, Bilddaten, Audio- und Video- Daten, Metadaten und auch Hyperlinks. Die meisten Dateninhalte im Web sind unstrukturierte Textdaten. Wenn die Techniken des Web Mining nur auf unstrukturierte Textdaten angewendet werden spricht man vom Text Data Mining oder Text Mining. Wenn die Methoden des Web Mining auf multiple Datentypen angewendet werden spricht man von Multimedia Data Mining, welches zum Web-Content-Mining zu zählen ist. Ziel des Web-Content-Mining ist es den Informationsfindungsprozess zu unterstützen und zu verbessern und die auf der Website angeboten Daten zu verbessern und zu gestalten.[16]

Fallbeispiel: Swarovski

[Bearbeiten]

Text: Patricia Zimmermann

Am Beispiel Swarovski zeigen wir nun kurz wie Web Mining in der Praxis aussehen kann bzw. wie dieses von einem Unternehmen effektiv umgesetzt wird. Zu diesem Zweck möchte ich das Unternehmen kurz mit den wichtigsten Eckdaten vorstellen. Swarovski wurde 1895 von Daniel Swarovski im tirolerischen Wattens gegründet, mit dem Zweck Kristalle herzustellen. Dazu erfand der Firmengründer eine Maschine, die es ihm ermöglichte Steine präziser zu bearbeiten als es davor durch mühsame Handarbeit möglich gewesen war. Aufbauend auf dieser Innovation breitete das Unternehmen seine Produktpalette weiter aus, die heute von Kristallsteinen als modische Accessoires, über Glasreflektoren im Straßenverkehr, spezielle Werkzeuge zum Schleifen und Abrichten (TY-ROLIT), bis zu optischen Präzisionsgeräten (bei Ferngläsern im Jagdsport zum Einsatz kommend) reicht.[17] So erreichte die Swarovski Gruppe im Jahr 2011 einen Umsatz von stolzen 2,87 Mrd. Euro und beschäftigte 31 458 Mitarbeiter.[18]

1996 begann Swarovski auch im Internet präsent zu werden und erschuf eine Unternehmenswebsite, die sich auf das Consumer Goods Business (CGB) fokussierte, jedoch noch ausschließlich Informationszwecken diente. Diese Version wurde 2001 durch einen zusätzlichen Web-Shop komplettiert.[19] Damit können Produkte von Swarovski durch das World Wide Web in einem Großteil der europäischen Länder, in den USA, aber auch in Australien, Kanada, China, Japan und Korea online bestellt werden und das Unternehmen erreicht somit einen globalen Kundenkreis.[20]

Allgemeine Unternehmensgeschäftsziele

[Bearbeiten]

Bei Swarovski kümmert sich eine eigenständige E-Business-Abteilung, bestehend aus 15 Mitarbeitern, um den Auftritt im Internet und folglich auch um Web Mining Vorhaben. Diese stehen in engem Kontakt zu der Marketing Abteilung und definieren die folgenden Web Mining Geschäftsziele:

• Charakterisierung der Kunden: in Bezug auf Aspekte wie Alter, Geschlecht, Nationalität, Familienstruktur, Freizeitaktivitäten, Besuchshäufigkeit

• Bedürfnisse der Kunden: es geht um Informationen wie Produkte, für die Interesse besteht, um Wörter nach denen der Kunde sucht bzw. um die Dauer des Website Aufenthaltes

• Angestrebt werden gleichbleibende Besucherzahlen über das Jahr verstreut.

• Ziel ist es die Kunden in den Web Shop zu bewegen.

• Sowohl die Informationswebsite als auch der Webshop sollen sich an den Wünschen des Kunden orientieren.[21]

Speziellere Web Mining Ziele

[Bearbeiten]

Bei Swarovski wird das Web Mining nicht als ein Prozess verstanden, der mit Abschluss der Durchführung zu einem Stillstand kommt. Web Mining und ebenso die Anpassung der Web Mining Ziele, werden eher als Aufgabe verstanden, die ständige Aufmerksamkeit fordert und fortlaufende Beachtung findet.[22] Um die oben aufgeführten grundsätzlicheren Geschäftsziele erreichen zu können, werden speziellere Web Mining Ziele festgelegt. Diese bedienen sich den folgenden Verfahren und beschäftigen sich konkret mit:


Deskriptiven Statistiken: Analyse von Suchbegriffen, Untersuchung von Zusammenhängen zwischen Suchmaschinen und Suchbegriffen, Begutachtung von Bannern, die Kaufwahrscheinlichkeiten erhöhen

Korrelationsanalysen: zwischen verschiedenen Websiteinhalten

Befragungen: beziehen sich auf kritische Anmerkungen und soziodemografische Merkmale der Kunden

Clickanalysen: Analyse des Clickverhaltens der Websitebesucher

Assoziationsanalysen: es stellt sich die Frage ob bestimmte Inhalte üblicherweise mit anderen Inhalten kombiniert abgerufen werden

Entscheidungsbäumen: welche Inhalte erhöhen die Wahrscheinlichkeit des Kaufes, welche nicht?[23]


Um die nötige Grundlage für die oben erwähnten Ziele zu erreichen, bedient sich Swarovski Logfile Daten der Informationswebsite und des Webshops, Informationen, die aus diversen Umfragen stammen, sowie Werte, die auf Kampagnen und Transaktionen gründen.[24] Um weiter die Nutzer der Swarovski Website identifizieren zu können, benutzen die Web Mining Analysten die „Cookie“-Methode. Diese hat sich als relativ verlässlich erwiesen, auch wenn sie Schwachstellen aufweist, die sich auf Website-Besucher beziehen, welche die Cookie Anwendung bewusst nicht erlauben. Diese Nutzer können nicht erfasst werden und die Zahl verringert sich dementsprechend. Auch wenn Cookies diesen Nachteil aufweisen, sind sie dennoch besser als die Messung über IP-Adressen und den User Agent. Dies führt nämlich zu vollkommen überhöhten Besucherzahlen und kommt nur bei den Fällen zur Anwendung, bei denen Cookies deaktiviert wurden.[25] Beim Online Shop wird ein anderer Mechanismus herangezogen: Swarovski nimmt den Weg über die SessionID, die in die URL integriert ist. Im Gegensatz zu den Cookies gibt es bei dieser Methode nicht die Möglichkeit des Nutzers diese Funktion zu deaktivieren. Allerdings bedingen SessionIDs normalerweise, dass das sogenannte Caching verhindert wird. Dies führt dazu, dass die Performance sinkt. Swarovski konnte diesen Nachteil jedoch erfolgreich ausschalten. Im Gegensatz zu der Cookie Option misst die SessionID nicht die Besucher des Online Shops, sondern die Besuche. Eine Identifikation der verschiedenen Nutzer ist somit nicht möglich.[26]

Methoden des Web Mining

[Bearbeiten]

Der größte Teil des Web Minings basiert bei Swarovski auf der Methode der deskriptiven Logfileanalyse. Auf diese wollen wir deshalb nochmal kurz eingehen: Um diese Analyse durchführen zu können, bedient sich Swarovski Webtrends[27]. Webtrends ist ein Unternehmen, das sich auf die Gewinnung von Nutzerdaten im Internet (auch über den Zugang durch Smartphones) spezialisiert hat. Die angebotene Datenaufbereitung liefert einem Unternehmen die optimale Grundlage in Bezug auf Marketingentscheidungen[28]. In Zusammenarbeit mit Webtrends wird ein „Overview-Dashboard“ erstellt, das den Konsens des Nutzerverhaltens wiedergibt. Diese Übersicht zeigt die Zahl der Besucher (wie oben bereits erwähnt, mittels Cookie-Funktion ermittelt), die Zahl der Besuche (basierend auf einer Wartezeit von 30 Minuten, zusätzlich durchschnittlich errechnet pro Tag), die Anzahl der Pageimpressions, die Anzahl der Hits, die Anzahl der Besucher, die während eines festgelegten Zeitabschnitt einmal/mehrmals die Website besucht haben und schlussendlich die Besuchsdauer (im Durchschnitt errechnet). Webtrends ermöglicht es einem Unternehmen wie Swarovski, ein möglichst fundiertes Wissen über das Nutzerverhalten im Internet aufzubauen. Verschiedenste Diagramme, Tabellen und Grafiken werden auf die Bedürfnisse des konkreten Unternehmens abgestimmt und bilden, bei Bedarf, zusätzlich komplexe Zusammenhänge (von angewendeten Browsern über die geografische Nutzerverteilung bis hin zum Check-Out-Prozess) ab[29].

Nutzen des Web Mining

[Bearbeiten]

Text: Bettina Suchacek

Die Individualisierung oder auch Personalisierung von Services und Angeboten im Internet ist ein wichtiger Faktor wenn es um Erfolg und Wettbewerbsvorteil im eCommerce geht. Somit gewinnt das personalisierte Internet–Marketing immer mehr an Bedeutung. Um für den Nutzer personalisierte Dienste auf der Unternehmenswebsite zur Verfügung zu stellen und somit seine individuellen Wünsche und Bedürfnisse zu befriedigen, muss das Unternehmen Informationen und Daten über den Kunden sammeln. Dafür eignet sich das Medium Internet sehr gut.[30]

Drei Aspekte beeinflussen die Brauchbarkeit einer Website für seine Nutzer, in Bezug auf die Service die den Benutzern bereitgestellt werden. Diese sind: die Inhalte auf der Website, das Layout der einzelnen Seiten und die Struktur der gesamten Website. Eine Website die an die Bedürfnisse der Nutzer, in Bezug auf diese drei Aspekte, angepasst ist steigert ihre Zufriedenheit. Am Wichtigsten für einen Nutzer ist, dass die für ihn relevanten Informationen und Service zur Verfügung stehen. Jedoch sind relevante Inhalte und Service für jeden Nutzer unterschiedlich und somit subjektiv. Darum wird die Personalisierung im Internet immer wichtiger. Ein Unternehmen sollte sein Augenmerk auf Customer Relationship Management (CRM) in Bezug auf eBusiness legen. Denn gerade wenn individuell auf Kunden eingegangen und personalisiert wird, können besser neue Kunden gewonnen und bestehende Kunden fester an das Unternehmen gebunden werden. Das Web Mining bietet Methoden um Benutzerdaten zu analysieren, wie beispielsweise Logfiles, damit diese dann ausgewertet werden können und aufgrund dieser Informationen individuellere Websites und Angebote für Kunden gestaltet werden können.[31]

Der Erfolg der Personalisierung im Web hängt davon ab, wie verantwortungsvoll das eBusiness Unternehmen mit der Technologie umgeht. Denn wie die Anbieter von personalisierten Diensten den schmalen Grat zwischen Personalisierung und dem Eingriff in die Persönlichkeitsrechte der Nutzer managen, bestimmt die Zukunft dieses Bereiches. Technologisch bietet sich heute die Chance, dass eine Win-Win Situation für beide Seiten entstehen kann. Denn dass durch die Individualisierung eine höhere Kundenzufriedenheit entsteht ist ein Gewinn für das Unternehmen. Und dass durch die Personalisierung gezielt die Bedürfnisse der Nutzer befriedigt werden und sie dadurch auch eine Zeitersparnis haben ist ein Gewinn für die Kunden.[32]

Grenzen des Web Mining

[Bearbeiten]

Text: Patricia Zimmermann

Auch wenn Unternehmen aus Web Mining Initiativen (wenn richtig angewendet) großen Nutzen ziehen können und ihre Kunden dadurch besser einzuschätzen wissen, sind dieser Methode auch gewisse Grenzen gesetzt. Die fünf wichtigsten Gefahren, die auf jeden Fall von Web Mining Analysten bedacht werden sollten, werde ich folgend kompakt zusammenfassen:

Caching- und Proxy-Server-Mechanismen: Caching und Proxy Server erhöhen zwar die Leistungsfähigkeit, verursachen aber Probleme bei der Logfile-Analyse, da eine abgerufene Seite nicht über den Webserver, sondern über eine Zwischenspeicherung abgefragt wird. Dadurch werden die gewonnenen Ergebnisse verfälscht.[33]

Dynamische und multiple Vergabe von IP-Adressen: bei der Vergabe von IP-Adressen kann es dazu kommen, dass eine IP-Adresse von mehreren Besuchern benutzt wird (z.B. bei großem Internet Service Provider mit eigenem Proxy Server denkbar), oder es kann vorkommen, dass mehrere IP-Adressen von lediglich einem Nutzer vorliegen (durch die dynamische Verteilung der Adressen). Im Zeitalter der Smartphones werden die Grenzen des Web Minings noch mehr sichtbar: mit der Art des Internetzugriffs (über Laptop, Smartphone, Computer bei der Arbeit) variieren ebenso die IP-Adressen. Schließlich ist es auch möglich, dass ein Nutzer mehrere Browser verwendet und dadurch eine Verzerrung stattfindet.[34]

Cookies: können individuell vom Nutzer abgestellt oder sogar gelöscht werden.[35]

Anonymisierungstools: durch spezielle Software wird es dem Internetnutzer möglich gemacht, anonym im Internet zu agieren.[36]

Framebasierte Lösungen: Frames bieten neben dem Vorteil der einfachen und übersichtlichen Navigation auch Pluspunkte in Punkto Ladezeiten und Flexibilität bei der Anpassung der Website. Darüber hinaus verursachen sie aber Probleme bei Bookmarks, bei Suchmaschinen, beim Drucken und bei externen Verlinkungen. Zu hohe Seitenaufrufe und zu kurze Seitennutzungsdauern sind die Folge.[37]

Zukunftsausblick

[Bearbeiten]

Text: Patricia Zimmermann

Bei Twitter gehen 2012 am Tag durchschnittlich 175 Millionen Tweets ein. 2,7 Milliarden Beiträge werden täglich auf Facebook von Mitgliedern gelikt.[38] Dies sind nur zwei Beispiele für die gewaltigen Datenmengen, mit denen Unternehmen in der Zukunft konfrontiert werden. Das Schlüsselwort der Zukunft heißt in diesem Zusammenhang "Big Data" und meint das exponentielle Wachstum, die Verfügbarkeit und die Nutzung von Informationen, die teils strukturiert und teils unstrukturiert auftreten.[39]


“Small data is gone. Data is just going to get bigger and bigger and bigger, and people just have to think differently about how they manage it." [Scott Zucker, Family Dollar][40]


Datenmengen werden zukünftig vom Volumen noch größer ausfallen, sie werden von großer Unterschiedlichkeit geprägt sein und noch schneller produziert werden. Diese Eigenschaften führen folglich zu einer erhöhten Variabilität und zu gesteigerter Komplexität. Die größte Herausforderung, die sich den Unternehmen dabei stellt, ist es die Datenmassen bewältigen zu können und dabei die wichtigen Informationen herauszufiltern. Dazu kann das gesamte Datenvolumen in die Analyse miteinbezogen werden, oder ein Unternehmen konzentriert sich vorab auf eine ausgewählte, relevante Menge.[41]

MGI und das Business Technology Office von Mc Kinsey gehen sogar noch einen Schritt weiter und sehen den richtigen Umgang mit Big Data als Management-Schlüsselkompetenz, die in Zukunft in jedem Führungsbereich vertreten sein soll. Schafft es ein Unternehmen mit der Masse an Daten richtig umzugehen, so ergeben sich für dieses wertvolle Chancen sich im Wettbewerb durchzusetzen und Produktionswachstum, Innovationen und den Konsumentennutzen zu steigern.[42]

Referenzen

[Bearbeiten]
  1. vgl. Helge Petersohn (2005)
  2. vgl. Thomas A. Runkler (2011), S. 1-4
  3. vgl. http://www.tecchannel.de/server/sql/1753407/bi_methoden_teil_2_data_mining_phasen_und_vorgehensschritte/index3.html [Zugriff am 19.05.2013]
  4. vgl. http://www.tecchannel.de/server/sql/1753407/bi_methoden_teil_2_data_mining_phasen_und_vorgehensschritte/index3.html [Zugriff am 19.05.2013]
  5. vgl. Usama M. Fayyad, Gregory Piatetsky-Shapiro, Padhraic Smyth: From Data Mining to Knowledge Discovery in Databases
  6. vgl. Martin Ester (2000), S. 2-4
  7. vgl. Björn Bloching et al. (2012)
  8. vgl. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.21.5720 [Zugriff am 21.05.2013]
  9. vgl. http://ebookbrowse.com/evaluierung-von-internet-verzeichnisdiensten-mit-methoden-des-web-mining-pdf-d408340851 [Zugriff am 21.05.2013]
  10. vgl. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.21.5720 [Zugriff am 21.05.2013]
  11. vgl. Sonja Grabner-Kräuter, Christoph Lessiak (2001) S. 126ff
  12. vgl. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.21.5720 [Zugriff am 21.05.2013]
  13. vgl. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.21.5720 [Zugriff am 21.05.2013]
  14. vgl. http://ebookbrowse.com/evaluierung-von-internet-verzeichnisdiensten-mit-methoden-des-web-mining-pdf-d408340851 [Zugriff am 21.05.2013]
  15. vgl. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.21.5720 [Zugriff am 21.05.2013]
  16. vgl. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.21.5720 [Zugriff am 21.05.2013]
  17. vgl. http://www.brand.swarovski.com/Content.Node/home.de.html#/de/aboutus/ourevolution [Zugriff am 20.05.2013]
  18. vgl. http://www.brand.swarovski.com/Content.Node/home.de.html#/de/aboutus/factsfigures [Zugriff am 20.05.2013]
  19. vgl. Linder Alexander (2005), S.177f
  20. vgl. http://www.swarovski.com/Web_AT/de/online_shop [Zugriff am 19.05.2013]
  21. vgl. Linder Alexander (2005), S.182
  22. vgl. Linder Alexander (2005), S.183
  23. vgl. Linder Alexander (2005), S.184
  24. vgl. Linder Alexander (2005), S.185
  25. vgl. Linder Alexander (2005), S.192
  26. vgl. Linder Alexander (2005), S.194
  27. vgl. Linder Alexander (2005), S.196
  28. vgl. http://webtrends.de/ [Zugriff am 20.05.2013]
  29. vgl. Linder Alexander (2005), S.196f
  30. vgl. Sonja Grabner-Kräuter, Christoph Lessiak (2001) S. 123f
  31. vgl. Maurice D. Mulvenna et al. (2000) S.124
  32. vgl. Maurice D. Mulvenna et al. (2000) S.125
  33. vgl. Linder Alexander (2005), S.77
  34. vgl. Linder Alexander (2005), S.80,81
  35. vgl. Linder Alexander (2005), S.81
  36. vgl. Linder Alexander (2005), S.82,83
  37. vgl. Linder Alexander (2005), S.83f
  38. vgl. http://www.seo-united.de/blog/internet/das-internet-in-zahlen-2.htm [Zugriff am 27.5.2013]
  39. vgl. http://www.sas.com/big-data/ [Zugriff am 22.5.2013]
  40. vgl. http://www.sas.com/big-data/ [Zugriff am 22.5.2013]
  41. vgl. http://www.sas.com/big-data/ [Zugriff am 22.5.2013]
  42. vgl. http://www.mckinsey.com/insights/business_technology/big_data_the_next_frontier_for_innovation [Zugriff am 22.5.2013]

Zitate mit Quellenangabe

[Bearbeiten]

"Knowledge has to be improved, challenged, and increased constantly, or it vanishes." - Peter Drucker Zugriff am 20.05.2013

"There is an urgent need for a new generation of computational theories and tools to assist humans in extracting useful information (knowledge) from the rapidly growing volumes of digital data." - Usama M. Fayyad, Gregory Piatetsky-Shapiro, Padhraic Smyth: From Data Mining to Knowledge Discovery in Databases. S. 38

“Knowledge management is the strategy and processes to enable the creation and flow of relevant knowledge throughout the business to create organisational, customer and consumer value." - David Smith, Unilever Zugriff am 20.05.2013

"Small data is gone. Data is just going to get bigger and bigger and bigger, and people just have to think differently about how they manage it." - Scott Zucker, Family Dollar Zugriff am 28.05.2013

Literaturverzeichnis

[Bearbeiten]

Björn Bloching, Lars Luck, Thomas Ramge (2012): Data Unser: Wie Kundendaten die Wirtschaft verändern, Redline Verlag

Helge Petersohn (2005), Data Mining: Verfahren, Prozesse, Anwendungsarchitektur, Oldenbourg Verlag, München

Martin Ester (2000), Jörg Sander: Knowledge Discovery in Databases. Techniken und Anwendungen, Springer Verlag, Berlin

Thomas A. Runkler (2011), Data Mining: Methoden und Algorithmen intelligenter Datenanalyse (Computational Intelligence), Vieweg+Teubner Verlag, Wiesbaden

Linder Alexander (2005), Web Mining: Die Fallstudie Swarovski, Deutscher Universitätsverlag, Wiesbaden


Artikel:

Usama M. Fayyad, Gregory Piatetsky-Shapiro, Padhraic Smyth (1996): From Data Mining to Knowledge Discovery in Databases. In: AI Magazine. 17, Nr. 3, S. 37–54

Maurice D. Mulvenna, Sarabjot S. Anand and Alex G. Büchner (August 2000): Personalization on the Net using Web Mining. In: Communications of the ACM Vol. 43, No. 8, S. 123-125

Sonja Grabner-Kräuter, Christoph Lessiak (2001): Web-Mining als Ansatzpunkt für personalisiertes Internet-Marketing. In: der markt 40. Jahrgang, Nr. 159, S. 123-141


Internetquellen:

http://www.aaai.org/ojs/index.php/aimagazine/article/view/1230/1131 [Zugriff am 20.05.2013]

http://www.tecchannel.de/server/sql/1753407/bi_methoden_teil_2_data_mining_phasen_und_vorgehensschritte/index3.html [Zugriff am 20.05.2013]

http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.21.5720 [Zugriff am 21.05.2013]

http://ebookbrowse.com/evaluierung-von-internet-verzeichnisdiensten-mit-methoden-des-web-mining-pdf-d408340851 [Zugriff am 21.05.2013]

http://www.brand.swarovski.com/Content.Node/home.de.html#/de/aboutus/ourevolution [Zugriff am 20.05.2013]

http://www.brand.swarovski.com/Content.Node/home.de.html#/de/aboutus/factsfigures [Zugriff am 20.05.2013]

http://www.swarovski.com/Web_AT/de/online_shop [Zugriff am 19.05.2013]

http://www.mckinsey.com/insights/business_technology/big_data_the_next_frontier_for_innovation [Zugriff am 22.05.2013]

http://www.sas.com/big-data/ [Zugriff am 22.05.2013]

http://webtrends.de/ [Zugriff am 20.05.2013]

http://www.seo-united.de/blog/internet/das-internet-in-zahlen-2.htm [Zugriff am 27.05.2013]

http://quotationsbook.com/quote/22135/ [Zugriff am 20.05.2013]

http://dierk-schulze.de/wm/zitate/zitate.htmlhttp:// [Zugriff am 20.05.2013]

http://www.sas.com/big-data/ [Zugriff am 28.05.2013]