Projekt:IT Nomaden/Information

Aus Wikiversity


Measurement the Uncertain[Bearbeiten]

i sind die Zustände des Systems, sind die subjektiven Wahrscheinlichkeiten mit der das Subjekt glaubt in diesem Zustand zu sein. Die Shannon Entropie aus der Informationstheorie ist dann:

ist Null, falls das Individuum mit Sicherheit weiß in dem Zustand i zu sein.

Die Zustände bilden den Möglichkeitsgrund der Wirklichkeit. Das Individuum kennt die Wahrscheinlichkeiten der Zustände i.A. nicht. Es kann aber die Unsicherheit verkleinern, falls es neue Informationen erhält.

Die Zustände bilden ein metaphysisches Weltsystem. Konkurrierende metaphysische sind ein Problem. Durch das Konzept der relativen Entropie handhaben wir dieses Problem. Es seien zwei Wahrscheinlichkeitsverteilungen der zwei metaphysischen Systeme P(x) und Q(x)

Die relative Entropie ist i.A.nicht symmetrisch,

Beide Verteilungen P und Q sind erklärt über denselben Alphabet.

In der Evolutionstheorie erklären wir den Menschen als Subsystem innerhalb der Evolution, also sind auch Informationen ein Produkt der Evolution, das die Fitness des Subjektes verbessert.

Evolutionstheorie beschreibt nichtlineare Prozesse. Trotzdem werden wir hier eine Linearisierung vornehmen.

F ist die Fitneßfunktion. F soll folgende Forderungen erfüllen

  • strebt gegen 0 falls die Fitness der Information gegen Null geht
  • strebt gegen die Shannon Entropie falls die Fitness der Information gegen Unendlich geht
  • negativ falls die Fitneß negativ wird

Diese Definition hat Vorteile, es ist ein objektiver Ausdruck für den Informationswert, keine subjektive Wahrscheinlichkeit.

Die Interaktionen mit der Umwelt sind nicht abhängig von der Verteilung.

Wir können auch negative Fitneß modellieren.

Wir erhalten einen qualitativen Faktor als freien Parameter für die Simulation kognitiver Prozesse.

Damit sollten sich kulturelle Ströme behandeln lassen.

Quelle


Adaption Measurement based on the Information Transfer[Bearbeiten]

Quelle


Subjective Information measure[Bearbeiten]

Harley's Formel[Bearbeiten]

Informationsmege I

Wahrscheinlichkeit p statt N

mit x_i als Events
Y meint die Zufallsvariable aus den Sätzen oder Mitteilungen aus B. Es gibt für jede Miteilung eine Teilmenge mit

Fish covering information formula:

"" oder Fisch wird überdeckt von .