Schlagwort-Archive: Shannon

Projektentropie

Das Hauptübel in turbulenten Projekten ist die Ungewissheit oder Unsicherheit1. Ein Mass für die Ungewissheit ist die Entropie, wie sie von Claude Shannon schon 1948 definiert wurde2. Er lehnte sich an den Begriff der thermodynamischen Entropie an, wie sie 1859 von Rudolf Clausius eingeführt wurde.
Nehmen wir an, wir hätten in unserem Projekt nur gerade ein Risiko R, das mit der Wahrscheinlichkeit p eintrifft und somit mit der Gegenwahrscheinlichkeit 1-p nicht eintrifft. Dann hat das Projekt die Entropie

H(R)=-p·lb(p)-(1-p)·lb(1-p)

lb bezeichnet den Logarithmus zur Basis 2.

Beispiel 1: Die Wahrscheinlichkeit p, dass das Risiko eintritt, sei 0.25. Das ist p=2-2 , also lb(2-2)=-2
Die Gegenwahrscheinlichkeit 1-p beträgt somit 0.75. Das ist 3·2-2 und lb(3·2-2)=lb(3)-2=1.585-2=-0.415

Die Entropie H(R) dieses Risikos schlägt somit mit -0.25·(-2)-0.75·(-0.415)=0.5+0.31=0.81 zu Buche.

Beispiel 2: Die Wahrscheinlichkeit p, dass das Risiko eintritt, sei 0.5. Das ist p=2-1 , also lb(2-1)=-1.
Die Gegenwahrscheinlichkeit 1-p beträgt somit ebenfalls 0.5. Das ist der Fall grösster Unsicherheit. lb(1-p)  ist also ebenfalls -1.

Die Entropie H(R) eines Risikos, von dem man nicht weiss, ob es eher eintrifft oder eher nicht eintrifft, ist demnach -0.5·(-1)-0.5·(-1)=-1.

Beispiel 3: Die Eintretenswahrscheinlichkeit betrage 0.75, das Risiko tritt also mit ziemlicher Wahrscheinlichkeit ein.
Ich überlasse es dem Leser auszurechnen, dass die Entropie in diesem Falle auch 0.81 beträgt.

Bei maximaler Ungewissheit (Wahrscheinlichkeit 0.5) ist die Entropie ebenfalls maximal (hier: 1)

Entropieverteilung H bei einem einzigen unsicheren Ereignis. Wenn es gleichermassen (un)sicher ist, dass das Ereignis eintritt, wie dass es nicht eintritt, ist die Entropie am grössten, nämlich 1

Interessant ist nun folgende Erkenntnis: Was immer Sie zur Verminderung der Eintretenswahrscheinlichkeit eines Risikos unternehmen, Sie vergrössern damit die Ungewissheit (Entropie) im Projekt!

Wenn wir dem Eintritt eines Risikos die Wahrscheinlichkeit q zuordnen und eine Abwehrstrategie bereit legen, die mit der Wahrscheinlichkeit p greift, dann haben wir folgende vier Möglichkeiten, die eintreten können. Eine davon wird ganz sicher eintreten.

Wahrscheinlichkeit pq: Die Abwehrmassnahme greift mit der Wahrscheinlichkeit p und das Risiko trifft dennoch mit der Wahrscheinlichkeit q ein

Wahrscheinlichkeit p(1-q):  Die Abwehrmassnahme greift mit der Wahrscheinlichkeit p und das Risiko trifft mit der Wahrscheinlichkeit (1-q) nicht ein

Wahrscheinlichkeit (1-p)q: Die Abwehrmassnahme versagt mit der Wahrscheinlichkeit 1-p, während das Risiko mit der Wahrscheinlichkeit q eintritt

Wahrscheinlichkeit (1-p)(1-q):  Die Abwehrmassnahme versagt mit der Wahrscheinlichkeit 1-p, aber das Risiko trifft mit der Wahrscheinlichkeit (1-q) dennoch nicht ein

Die Entropie in einem solchen Projekt wäre dann nach der Formel von Shannon:

H(Risk_und_Abwehr)=-pq·lb(pq)-p(1-q)·lb(p(1-q))-(1-p)q·lb((1-p)q)-(1-p)(1-q)·lb((1-p)(1-q))

H(Risk_und_Abwehr)=-pq·lb(p)-pq·lb(q)-p(1-q)·lb(p)-p(1-q)·lb(1-q)-(1-p)q·lb(1-p)-(1-p)q·lb(q)-(1-p)(1-q)·lb(1-p)-(1-p)(1-q)·lb(1-q)

H(Risk_und_Abwehr)=-p·lb(p)·(q+1-q)-q·lb(q)·(p+1-p)-(1-q)·lb(1-q)·(p+1-p)-(1-p)·lb(1-p)·(q+1-q)

H(Risk_und_Abwehr)=-p·lb(p)-(1-p)·lb(1-p)-q·lb(q)-(1-q)·lb(1-q)=H(Abwehr)+H(Risk)>H(Risk))

Das heisst, wenn Sie eine Masssnahme zur Risikoabwehr vorsehen, dann vergrössern Sie die Ungewissheit im Projekt. Eigentlich logisch, aber wer hat sich das schon mal überlegt? Alle gehen immer davon aus, dass Risikoabwehr von jedem Standpunkt aus gesehen eine positive Sache sei.

1Ebeling W et al. Komplexe Strukturen: Entropie und Information. Teubner Verlag. Stuttgart und Leipzig, 1998
2Havil J. Gamma – Eulers Konstante, Primzahlstrände und die Riemannsche Vermutung. Springer. Berlin, 2006