Max-Propagation auf einer vollständigen Wahrscheinlichkeitstafel ist denkbar einfach: Normiert wird die Tafel nicht mit der Summe sondern mit dem Maximum aller Werte und wenn man die Werte der einzelnen A-Posteriori-Verteilungen aus dieser gemeinsamen Wahrscheinlichkeitstafel marginalisiert wird ebenfalls jeweils das Maximum der Werte, statt deren Summe verwendet (Marginalisierungsfunktion). Sofern es eine eindeutig wahrscheinlichste Gesamtkonfiguration aller Knotenzustände gibt, wird durch die Normierung genau ein Wert der vollständigen Wahrscheinlichkeitstafel zu 1 "hoch-normiert". Durch die Max-Marginalisierung findet sich dieser Wert dann auch in einer Zelle jeder A-Posteriori-Verteilung der einzelnen Knoten wieder. Statt der Wahrscheinlichkeit der aktuellen Evidenz P(e|M) wird hier, wie auch bei allen folgenden Max-Prop-Verfahren nun die Wahrscheinlichkeit P(C|M) dieser wahrscheinlichsten Gesamtzustandskonfiguration C angegeben. Diese ist natürlich auch ohne Evidenz kleiner als 1 (außer in sehr theoretischen Beispielen).
Auch bei Junction-Trees werden einfach die Normierungs- und die Marginalisierungsfunktion ausgetauscht und jeweils das Maximum statt der Summe gebildet. Zu beachten ist, dass hier auch beim Weiterleiten von Information von einer Clique zur nächsten über einen Separator mit der Max-Funktion statt der Summe marginalisiert wird.
Der Austausch der Normierungs- und Marginalisierungsfunktion (Maximum statt Summe) funktioniert auch für diesen Ansatz, der aber, wie bei der normalen Propagation auch, fehlerbehaftet ist, was bei der Max-Propagation allerdings noch stärker auffällt (wie ich finde).
Max-Propagation ist mit Sampling-Algorithmen so nicht ohne Weiteres realisierbar (jedenfalls wüsste ich bislang nicht wie).