Projekt:IT Nomaden/Kausalität

Aus Wikiversity


Dieser Abschnitt befaßt sich mit der Verwendung des Kausalitätsbegriffes innerhalb unseres Begriffsnetzes und unserer Datenmodelle.

Texte[Bearbeiten]

Kausalitätskonzept[Bearbeiten]

In sozialen Systemen richtet sich der Einzelne nach Normen, Institutionen und Interessen. Die Ursachen stecken in der Situationslogik, die einmalig auftreten. Daher kann man nicht einfach mit der mathematischen Wahrscheinlichkeitstheorie in sozialen Systemen arbeiten.

Eine lesenswerte Übersicht zu den auftretenden Paradoxa findet man hier [1]

Eine logische Dikussion von Kausalketten kann man hier [2] nachlesen, die von mehreren kausalen Faktoren gebildet werden. Allerdings tauchen auch hier wieder Schwierigkeiten auf zu unterscheiden, welche Faktoren relevant sind für eine Wirkung. Und was die kleinste Meenge von Ursache-Faktoren ist, um eine Wirkung hervorzubringen, ist ebenfalls nicht erklärt.

Rubin-Modell[Bearbeiten]

Ursacheensemble[Bearbeiten]

Ein Ursacheensemble enthält alle als relevant angenommenden Ursache-Faktoren. Das Ursachesenemble ist eine Fuzzy-Menge oder als Netzwerk organisiert.

Wirkungsensemble[Bearbeiten]

Ein Wirkungsensemble bezeichnet die verschiedenen Richtungen der Auswirkung einer Ursache und ist eine Fuzzy-Menge oder ein Baysches Netzwerk.

Skriptensemble[Bearbeiten]

Ein Skriptensemble bezeichnet die Gesamtheit aller elementaren Skripts an der die Akteure, die Artefakte und Orte teilnehmen als Fuzzy-Menge charakterisiert. Das Skriptensemble bildet den Möglichkeitshintergrunde jedes Ereignisses.

Kausalität als Gedächtnis läßt sich mit Hilfe der Skripte beschreiben, denn ein Ereignis ist kausal im Rahmen der narrativen Notwendigkeiten eines Skriptes. Skripte bilden deswegen das kollektive Gedächtnis. Das Gedächtnis konstruiert aus isolierten Ereignissen in der Raumzeit eine kausale Kette.

Wahrscheinlichkeit, Entropie[Bearbeiten]

In diesem Artikel ist beschrieben wie man die Paradoxa bei der logischen Analyse der Kausalität loswird, wenn man Zeitmetriken einführt. Allerdings bezieht sich das auf binary events sogenannten bents.

Wahrscheinlichkeit[Bearbeiten]

Informationsgehalt[Bearbeiten]

  • Mit steigender Wahrscheinlichkeit für das Auftreten einer Nachricht sinkt deren Informationsgehalt.
  • Da die Wahrscheinlichkeit einen Wertebereich von 0 bis 1 aufweist, ergibt sich immer ein positiver Wert für den Informationsgehalt einer Nachricht.
  • Für Nachrichten mit gegen Null gehender Wahrscheinlichkeit steigt der Informationsgehalt stark an und geht für P(n) -> 0 gegen unendlich.
  • Nachrichten mit geringfügig differierender Wahrscheinlichkeit weisen auch nur einen geringen Unterschied in ihrem Informationsgehalt auf.
  • Bei voneinander unabhängigen Nachrichten addiert sich der Informationsgehalt.
  • Sofern als Logarithmen-Basis die 2 gewählt wird, ergibt sich aus dem Informationsgehalt die günstigste Kodelänge für die Darstellung des Zeichens in Bit.
  • Wenn die Wahrscheinlichkeit für das Auftreten eines Zeichens den Wert 0,5 annimmt, ist der Informationsgehalt gleich 1. Ein idealer Kode würde für dieses Zeichen eine Kodelänge von einem Bit verwenden.

Entropie[Bearbeiten]

Verbundsentropie[Bearbeiten]

Bedingte Entropie[Bearbeiten]

Historische Variablen[Bearbeiten]

Potentielle Variable[Bearbeiten]

Hintergrund Variablen[Bearbeiten]

Verborgene Variablen[Bearbeiten]