TUTORIAL:
BAYES'SCHE NETZE
PROBABILISTISCHE NETZE
(Bayesian Networks / Probabilistic Networks / Causal Belief Networks)
Interaktive Online-Beispiele III (Max-Propagation)
Hier wird die Max-Propagation anhand verschiedener Propagations-Algorithmen vorgestellt: Das Ergebis einer Max-Propagation sagt einem welche Gesamtzustandskonfiguration aller Knoten die Wahrscheinlichste ist. Dies ist für jeden Knoten der Zustand (bzw. die Zustände), der mit einer (Max-)Wahrscheinlichkeit von 1 angezeigt wird. Ein entscheidendes Merkmal ist dieses: Wählt man als beobachteten Zustand eines Knotens jeweils den Zustand, der der wahrscheinlichsten Gesamtzustandskonfiguration angehört (also der mit Wahrscheinlichkeitswert=1), so ändert sich die wahrscheinlichste Gesamtzustandskonfiguration aller anderen Knoten nicht.

Dies ist die Fortsetzung zu den hier dargestelleten Beispielen (bitte ggf. zunächst dort nachlesen, wie die Netze zu bedienen sind). Die verschiedenen Propagations-Algorithmen wurden hier bereits näher erläutert, so dass die Beschreibungen hier sehr kurz gehalten sind.
Naive Inferenz (Full Joint)
BEISPIEL-NETZ
BEISPIEL-NETZ

Max-Propagation auf einer vollständigen Wahrscheinlichkeitstafel ist denkbar einfach: Normiert wird die Tafel nicht mit der Summe sondern mit dem Maximum aller Werte und wenn man die Werte der einzelnen A-Posteriori-Verteilungen aus dieser gemeinsamen Wahrscheinlichkeitstafel marginalisiert wird ebenfalls jeweils das Maximum der Werte, statt deren Summe verwendet (Marginalisierungsfunktion). Sofern es eine eindeutig wahrscheinlichste Gesamtkonfiguration aller Knotenzustände gibt, wird durch die Normierung genau ein Wert der vollständigen Wahrscheinlichkeitstafel zu 1 "hoch-normiert". Durch die Max-Marginalisierung findet sich dieser Wert dann auch in einer Zelle jeder A-Posteriori-Verteilung der einzelnen Knoten wieder. Statt der Wahrscheinlichkeit der aktuellen Evidenz P(e|M) wird hier, wie auch bei allen folgenden Max-Prop-Verfahren nun die Wahrscheinlichkeit P(C|M) dieser wahrscheinlichsten Gesamtzustandskonfiguration C angegeben. Diese ist natürlich auch ohne Evidenz kleiner als 1 (außer in sehr theoretischen Beispielen).

Junction-Tree (HUGIN)
BEISPIEL-NETZ
JUNCTION-TREE

Auch bei Junction-Trees werden einfach die Normierungs- und die Marginalisierungsfunktion ausgetauscht und jeweils das Maximum statt der Summe gebildet. Zu beachten ist, dass hier auch beim Weiterleiten von Information von einer Clique zur nächsten über einen Separator mit der Max-Funktion statt der Summe marginalisiert wird.

Loopy-Belief-Propagation (Pearl)
BEISPIEL-NETZ
LOOPY-BELIEF-PROPAGATOR

Der Austausch der Normierungs- und Marginalisierungsfunktion (Maximum statt Summe) funktioniert auch für diesen Ansatz, der aber, wie bei der normalen Propagation auch, fehlerbehaftet ist, was bei der Max-Propagation allerdings noch stärker auffällt (wie ich finde).

(Sampling-Algorithmen)

Max-Propagation ist mit Sampling-Algorithmen so nicht ohne Weiteres realisierbar (jedenfalls wüsste ich bislang nicht wie).

Patrick Rammelt, 08/2011