Schlagwort-Archive: Entropie

Komplexität hat nichts mit Unordnung und Turbulenz zu tun

Vielleicht sollte ich wieder einmal darauf hinweisen, dass Komplexität eine eher willkommene Sache ist, und dass das, was uns in Projekten und Management zu schaffen macht, sich meistens nicht um Komplexität handelt. Was uns jeweils Kopfzerbrechen bereitet sind

  • unterschiedliche Interessen und Auffassungen der Stakeholders
  • Turbulenzen im Ablauf
  • mehrdeutige und widersprüchliche Informationen
  • Unordnungen und Verwicklungen von Ereignissen oder Dingen

In solchen Momenten möchten wir am liebsten aus der Haut fahren und beklagen uns über die Komplexität der Situation oder des Projekts. Die vier Punkte haben aber weniger mit Komplexität zu tun, als vielmehr mit etwas, das man gemeinhin als Entropie bezeichnet. Sie entsteht als Begleiterscheinung beim Aufbau von Komplexität1.

Komplex sind z.B. unser Gehirn und unser Bewusstsein. Niemand würde die Komplexität von Gehirn und Bewusstsein beklagen. Zum Glück sind diese beiden Objekte komplex. In der Komplexität liegt stets eine hohe (aber oft nicht sehr stabile) Ordnung. In diesem Sinne ist es die vornehmste Aufgabe eines Projekts, die Welt ein wenig komplexer und geordneter zu machen. Komplexität hat daher nichts mit Unordnung und Turbulenz zu tun.

Niemals wollen wir Komplexität reduzieren! Was wir reduzieren wollen, sind Turbulenz, Widerspruch und Unordnung. Wenn wir Komplexität aufbauen (z.B. bei der Einführung eines neuen Geschäftsprozesses), müssen wir dem System Unordnung entziehen, die uns dann prompt verunsichert. Es ist ein gutes Zeichen, wenn wir in einem Projekt Unordnung und Turbulenz erfahren. Das beweisst, dass wir auf dem richtigen Weg sind.

1P. Addor. Projektdynamik – Komplexität im Alltag. Liebig Verlag; Frauenfeld 2010

Projektentropie

Das Hauptübel in turbulenten Projekten ist die Ungewissheit oder Unsicherheit1. Ein Mass für die Ungewissheit ist die Entropie, wie sie von Claude Shannon schon 1948 definiert wurde2. Er lehnte sich an den Begriff der thermodynamischen Entropie an, wie sie 1859 von Rudolf Clausius eingeführt wurde.
Nehmen wir an, wir hätten in unserem Projekt nur gerade ein Risiko R, das mit der Wahrscheinlichkeit p eintrifft und somit mit der Gegenwahrscheinlichkeit 1-p nicht eintrifft. Dann hat das Projekt die Entropie

H(R)=-p·lb(p)-(1-p)·lb(1-p)

lb bezeichnet den Logarithmus zur Basis 2.

Beispiel 1: Die Wahrscheinlichkeit p, dass das Risiko eintritt, sei 0.25. Das ist p=2-2 , also lb(2-2)=-2
Die Gegenwahrscheinlichkeit 1-p beträgt somit 0.75. Das ist 3·2-2 und lb(3·2-2)=lb(3)-2=1.585-2=-0.415

Die Entropie H(R) dieses Risikos schlägt somit mit -0.25·(-2)-0.75·(-0.415)=0.5+0.31=0.81 zu Buche.

Beispiel 2: Die Wahrscheinlichkeit p, dass das Risiko eintritt, sei 0.5. Das ist p=2-1 , also lb(2-1)=-1.
Die Gegenwahrscheinlichkeit 1-p beträgt somit ebenfalls 0.5. Das ist der Fall grösster Unsicherheit. lb(1-p)  ist also ebenfalls -1.

Die Entropie H(R) eines Risikos, von dem man nicht weiss, ob es eher eintrifft oder eher nicht eintrifft, ist demnach -0.5·(-1)-0.5·(-1)=-1.

Beispiel 3: Die Eintretenswahrscheinlichkeit betrage 0.75, das Risiko tritt also mit ziemlicher Wahrscheinlichkeit ein.
Ich überlasse es dem Leser auszurechnen, dass die Entropie in diesem Falle auch 0.81 beträgt.

Bei maximaler Ungewissheit (Wahrscheinlichkeit 0.5) ist die Entropie ebenfalls maximal (hier: 1)

Entropieverteilung H bei einem einzigen unsicheren Ereignis. Wenn es gleichermassen (un)sicher ist, dass das Ereignis eintritt, wie dass es nicht eintritt, ist die Entropie am grössten, nämlich 1

Interessant ist nun folgende Erkenntnis: Was immer Sie zur Verminderung der Eintretenswahrscheinlichkeit eines Risikos unternehmen, Sie vergrössern damit die Ungewissheit (Entropie) im Projekt!

Wenn wir dem Eintritt eines Risikos die Wahrscheinlichkeit q zuordnen und eine Abwehrstrategie bereit legen, die mit der Wahrscheinlichkeit p greift, dann haben wir folgende vier Möglichkeiten, die eintreten können. Eine davon wird ganz sicher eintreten.

Wahrscheinlichkeit pq: Die Abwehrmassnahme greift mit der Wahrscheinlichkeit p und das Risiko trifft dennoch mit der Wahrscheinlichkeit q ein

Wahrscheinlichkeit p(1-q):  Die Abwehrmassnahme greift mit der Wahrscheinlichkeit p und das Risiko trifft mit der Wahrscheinlichkeit (1-q) nicht ein

Wahrscheinlichkeit (1-p)q: Die Abwehrmassnahme versagt mit der Wahrscheinlichkeit 1-p, während das Risiko mit der Wahrscheinlichkeit q eintritt

Wahrscheinlichkeit (1-p)(1-q):  Die Abwehrmassnahme versagt mit der Wahrscheinlichkeit 1-p, aber das Risiko trifft mit der Wahrscheinlichkeit (1-q) dennoch nicht ein

Die Entropie in einem solchen Projekt wäre dann nach der Formel von Shannon:

H(Risk_und_Abwehr)=-pq·lb(pq)-p(1-q)·lb(p(1-q))-(1-p)q·lb((1-p)q)-(1-p)(1-q)·lb((1-p)(1-q))

H(Risk_und_Abwehr)=-pq·lb(p)-pq·lb(q)-p(1-q)·lb(p)-p(1-q)·lb(1-q)-(1-p)q·lb(1-p)-(1-p)q·lb(q)-(1-p)(1-q)·lb(1-p)-(1-p)(1-q)·lb(1-q)

H(Risk_und_Abwehr)=-p·lb(p)·(q+1-q)-q·lb(q)·(p+1-p)-(1-q)·lb(1-q)·(p+1-p)-(1-p)·lb(1-p)·(q+1-q)

H(Risk_und_Abwehr)=-p·lb(p)-(1-p)·lb(1-p)-q·lb(q)-(1-q)·lb(1-q)=H(Abwehr)+H(Risk)>H(Risk))

Das heisst, wenn Sie eine Masssnahme zur Risikoabwehr vorsehen, dann vergrössern Sie die Ungewissheit im Projekt. Eigentlich logisch, aber wer hat sich das schon mal überlegt? Alle gehen immer davon aus, dass Risikoabwehr von jedem Standpunkt aus gesehen eine positive Sache sei.

1Ebeling W et al. Komplexe Strukturen: Entropie und Information. Teubner Verlag. Stuttgart und Leipzig, 1998
2Havil J. Gamma – Eulers Konstante, Primzahlstrände und die Riemannsche Vermutung. Springer. Berlin, 2006

Lesssons Learned und Tagebücher gegen Schwarze Schwäne

Letzte Woche habe ich ein Seminar zum Thema „Systemisches Projektmanagement“ erteilt. Das ist auch der Grund, weshalb dieser Blog (oder heisst’s das Blog?) eine relativ grosse Lücke erfahren hat. Das bedeutet aber nicht, dass keine Beiträge mehr folgen. Ich habe gerade heute mit meinen Studenten im Fach Mathematik festgestellt, dass auch die Primzahlen ausdünnen, je grösser sie werden und dennoch gibt es keine letzte, also grösste Primzahl. Genau so wenig wird dieses Blog versiegen…. (oder heisst’s der Blog?).
Im Seminar habe ich auch über Learning Stories doziert. Da ich das etwas impovisierte, habe ich keine Unterlagen. Das möchte ich hier nachholen.
Schwierige Projektsituationen zeichnen sich durch hohe Entropieproduktion aus. Die meisten Leute nennen das „Komplexität“. Aber Komplexität ist nicht durch Unsicherheit und Instabilität charakterisiert. Alle sind sich einig, dass das Gehirn wohl das komplexeste System auf der Erde ist. Trotzdem ist das Gehirn relativ stabil und durch grosse Strukturiertheit gekenntzeichnet. Was wir in chaotischen Projektsituationen erleben, ist nicht Komplexität, sondern etwas ganz anderes. Etwas, das auf dem Weg zur Komplexität auftritt. Man nennt es Entropieproduktion. Laufend tauchen Hiobsbotschaften auf. Kleinigkeiten und Details haben grösste Auswirkungen. Es spielt eine Rolle, ob Sie als Projektleiter präzis richtig oder annährend richtig reagieren, wenn man diese Unterscheidung überhaupt machen kann; letzteres kann zur Eskalation führen. Und dann machen Sie sich ein Gewissen, tagelang, wochenlang. Hätte ich doch nur eine Sekunde früher…. oder nicht mit dem rechten Auge gezwinkert, etc. Es ist, wie nach einem Autounfall. Er wäre vermeidbar gewesen, wenn Sie auch nur drei Minuten früher aufgestanden wären. Sie leiden unter jedem Ihrer „Fehler“. In der Therapie lässt man Patienten täglich 15 Minuten lang ihre Geschichten erzählen. Wenn Sie in schwieriger Umgebung arbeiten, wo der Zufall eine grosse Rolle spielt, dann werden Sie ständig das Gefühl haben, sich für Ihre früheren Entscheidungen rechtfertigen zu müssen. Ein Tagebuch zu führen ist das Mindeste, was Sie unter diesen Umständen tun können1. Ein Tagebuch hat nicht nur einen mindernden Einfluss gegenüber Burnout-Effekten, sondern hilft auch bei Lessons Learned Workshops, sich nicht nur an die Ereignisse der letzten Wochen zu erinnern. Lessons Learned Workshops sollen das Projektgeschehen aufarbeiten. Lassen Sie alle Projektmitarbeiter die Ereignisse und den Ablauf aus ihren unterschiedlichen Perspektiven schildern, sowohl das Gute als auch das weniger Gute. Jeder sieht und interpretiert die Wirklichkeit ein wenig anders. Und was für den einen die hinreichende Ursache eines Unglücks, ist für den anderen bloss eine Notwendigkeit, die für sich genommen noch nicht zur Katastrophe hätte führen müssen. Lässt sich denn unter diesen Voraussetzungen überhaupt aus Fehlern lernen. Es gibt Leute, die bezweifeln das. Rückschaufehler führen zu einer übersteigerten Kontrollillusion. Vielleicht war es gar nicht so, wie Sie es wahrgenommen haben. Das Gehirn speichert Erinnerungen wie ein Palimpsest. Jedes Mal, wenn Sie eine Erinnerung abrufen, wird sie neu geschrieben, aber zusammen mit Interpretationen und Verzerrungen. Kausale Ketten werden z.B. umgedreht. Plötzlich geschah A in Ihrer Erinnerung nicht mehr wegen B, sondern B ereignete sich erst, nachdem A schon geschehen war. Wozu also Lessons Learned? Sie könnten uns helfen, unsere Verhaltensmuster zu verstehen. Sie könnten uns auch helfen, Komplexität und Entropieproduktion zu verstehen.
Protokollieren Sie die Geschichten Ihrer Projektmitarbeiter. Interessant sind vor allem die Geschichten ein und derselben Situation. Sammeln Sie solche Episoden. Bringen Sie Muster mit der Unternehmenskultur oder Persönlichkeitsstruktur in Zusammenhang. Verarbeiten Sie die prägnantesten Episoden in Metaphern, Gleichnissen oder gar Fabeln. Auf diese Weise abstrahieren Sie die Ereignisse von den Personen und Organisationen und bringen sie in eine merk-würdige Form. Mit der Zeit werden im Unetrnehmen geflügelte Worte und Geschichten die Runde machen und Wissen konservieren. Das ist Wissensmanagement. Wenn die Geschichten Emotionen wecken, bleiben sie besser im Gedächtnis haften; besser als Präsentationen nüchterner Fakten.

1Nassim Nicholas Taleb. Der schwarze Schwan. Die Macht höchst unwahrscheinlicher Ereignisse. S. 100. Carl Hanser Verlag, München 2008.

Ammenmärchen

Komplexität kann und soll man weder reduzieren, noch in die Umwelt auslagern, wie ich auch schon gehört habe. Das Gerede von der Reduktion der Komplexität ist ein Ammenmärchen. Komplexität haben wir als hochstehende raum-zeitliche Informationsstrukturen kennen gelernt, die unter vielen „Fluktuations- und Instabilitätsschmerzen“ geboren wurden und unter ständiger Aufbietung von Ressourcen genährt werden. Wer nun diese Strukturen „reduzieren“ will, ist in höchstem Masse destruktiv. Unsere ganze Welt – die Sterne, die Pflanzen, die Tiere, unser Gehirn – das sind alles hochkomplexe Strukturen. Will eine Unternehmung bestehen, muss sie einen immer höheren Komplexitätslevel erreichen. Alle organisatorischen Institutionen einer Unternehmung, die der Wettbewerbsfähigkeit dienen wie z.B. IT-Integration, Qualitätsmanagement, Supply Chains, etc., sind komplexe Strukturen. Wie kann man nur auf die Idee kommen, diese reduzieren zu wollen? Der Titel eines Buches lautet „Management von Komplexität – Ein integrierter, systemtheoretischer Ansatz zur Komplexitätsreduktion“. Das Buch habe ich zwar gekauft, weil so viele Widersprüche in einem einzigen Titel natürlich neugierig machen. Darüber hinaus ist es nur peinlich. Für mich ist die Komplexität die Seele eines lebenden Systems. Wenn jemand von Komplexitätsreduktion spricht, zucke ich buchstäblich zusammen, weil es mir weh tut.

Und wie steht es mit dem Auslagern von Komplexität? Was kann damit gemeint sein? Warum soll ich meine nützlichen Strukturen „auslagern“? Ich glaube, wer so spricht, der schlägt den Sack, wenn er eigentlich den Esel meint. Nicht die Komplexität soll ausgelagert werden, sondern etwas, das sich Entropie nennt. Das ist eine sehr unanschauliche Grösse, die Chaos und Unordnung misst. Sie ist in den fluktuativen und instabilen Phasen, also gerade während Projekten, am grössten. Systeme, die sich verändern, erzeugen Entropie. Können sie diese in die Umgebung exportieren, dann gelingt es ihnen, einen höheren Komplexitätsgrad zu erreichen. Wir können daraus eine Voraussetzung für Systeme ableiten, die wettbewerbsfähige Strukturen bilden können: sie müssen offen sein, um negative Entropie aus der Umgebung aufnehmen und Entropie an die Umgebung abgeben zu können. Unternehmen, die nicht offen sind – die z.B. ihre Produkte nach proprietären, geheim gehaltenen Standards designed haben und wenig kompatibel mit der Industrienorm sind – haben wenig Überlebenschancen. Wie sieht der Entropieexport in der Praxis aus? Wie wir gesehen haben, werden komplexe Systeme ständig von Energie-, Material- und/oder Informationsfluss durchströmt. Diese Flüsse erzeugen Drücke und Kräfte, die die Systemteile veranlassen, sich zu ordnen. Eine globale Ordnung nannten wir Mode, welche wiederum die Systemteile versklavt („Eschers Hände“). Damit die Mode aufrecht erhalten bleibt, muss das System laufend Energie, Material und Informationen dissipieren, also verarbeiten und von hochwertig zu niederwertig umwandeln1. Aus höherwertiger Energie wird Wärme, aus teurem Material wird Abfall und aus erstmaliger Information wird bestätigte Information. Wir erinnern uns an das Beispiel „Stadt“ eines komplexen Systems. Täglich werden z.B. hunderttausende von Kilowatt elektrischen Stroms in die Stadt herein gepumpt und verlassen sie als Wärme wieder, die in den Himmel hinauf steigt. Täglich kommen hunderte von Tonnen Nahrung herein und verlassen die Stadt in verdautem Zustand wieder. Täglich konsumieren hunderttausende von Leuten in Zeitungen und Fernseher News, die morgen schon wieder veraltet sind. Wenn sie morgen jemandem etwas erzählen, das heute passiert ist, wird er sofort die Aufmerksamkeit abziehen und gähnend bemerken, dass er das schon wisse. Das ist Entropieexport in praxi. Je fluktuativer und chaotischer das System während der instabilen Phase ist, desto mehr Entropie wird erzeugt und desto wertvoller kann die entstehende Struktur dann vielleicht sein. „Wertvoll“ ist hier so gemeint, dass die entstehende Struktur das Ziel der Veränderung trifft. Jantsch schreibt: Für den schöpferischen Aufbau einer neuen Struktur werden keine Kosten gescheut…Nur ein auf Sicherheit ausgehendes etabliertes System muss haushalten2.
Wenn Sie die Unbestimmtheit meinen, die es (während eines Projekts) zu reduzieren gilt, dann kann das insofern geschehen, als dass Sie dafür sorgen, dass immer sehr viel neue Information ankommt. Wir hatten das bereits im Beitrag Investieren Sie in Expertenwissen gesehen. Neues Wissen muss von Anfang an im Überfluss vorhanden sein.
Ein anderes oft gehörtes Ammenmärchen im Zusammenhang mit Komplexität ist die Behauptung, Gleichgewicht sei etwas an sich gutes, und es sei zu vermeiden, dass Systeme aus dem Gleichgewicht geraten. Das Gegenteil ist wahr. Gleichgewicht bedeutet Stillstand und Tod. Da geht nichts mehr. Nur was im Ungleichgewicht ist, kann sich verändern, kann sich verbessern und kann wachsen. Nur das Ungleichgewicht liefert die Spannung, die es braucht, um etwas in Gang zu setzen und zu halten. Denken Sie an eine Uhrfeder. Sobald diese im Gleichgewicht ist, steht die Uhr still. Die relative Stabilität zwischen den instabilen Phasen ist nicht zu verwechseln mit Gleichgewicht. Ein gesunder menschlicher Körper ist überhaupt nicht im Gleichgewicht, obwohl er relativ stabil ist. Ein gesundes Biotop ist ebenfalls weit weg vom Gleichgewicht. Nur so kann das Wasser sauber bleiben. Wenn es „kippt“, sagen die Leute, dass es aus dem Gleichgewicht geraten sei. In Tat und Wahrheit bewegt es sich dann zum Gleichgewicht hin. In Phasen relativer Stabilität ist ein System in einer Art dynamischen Gleichgewichts. Stellen Sie sich vor, auf einer Tennisanlage wären auf beiden Seiten 1000 Bälle am Boden und die beiden Spieler werfen ständig Bälle auf die andere Seite. Wenn beide gleich schnell werfen, dann befindet sich das System in einem dynamischen Gleichgewicht. Mal hat’s auf der einen Seite 1005 Bälle, mal 993, mal 1007, mal 998, etc. Möglicherweise meint man das dynamische Gleichgewicht, das eigentlich gar keines ist, wenn man von „Gleichgewicht“ spricht.

1Die hier dargestellten Zusammenhänge der Entwicklung von komplexen Systemen können Sie in einschlägiger Literatur zum Thema nachlesen, z.B. bei
Hermann Haken. Synergetik. Springer Verlag, 1982
Hermann Haken. Erfolgsgeheimnisse der Natur. Deutsche Verlags-Anstalt, 1981
Eine etwas neuere und ausgezeichnete Darstellung findet sich in
Christian Lapp. Darwinistische Evolutionstheorie und Theorie der Selbstorganisation von Materie: Widersprüchliche Zugänge zum Naturverständnis? Diplomarbeit an der Karl-Franzens Universität. Graz 2001

2Erich Jantsch. Die Selbstorganisation des Universums. Vom Urknall zum menschlichen Geist. dtv. München 1982