Projekte sind soziotechnische Systeme und erfordern Rationalität

Das diesjährige PMCamp Berlin, das vom 10. bis am 12. September stattfindet, steht unter dem Thema „Komplexität“. Für mich ist Komplexität eine Voraussetzung eines Systems, damit es seine Funktion erfüllen kann. So benötigt ein Projektsystem eine gewisse Komplexität, um das Projektziel zu erreichen. Würde man die Komplexität des Projekts reduzieren, könnte es das Ziel nicht mehr erreichen.

Aspekte soziotechnischer Systeme

Turbulent kann ein Projekt sein, weil seine Gegebenheiten ständig ändern (Dynamik) oder weil es sich anders entwickelt, als wir erwartet haben (Ungewissheit). Menschen, die in solchen Systemen entscheiden müssen, neigen dabei zu folgendem Verhalten:

  • Denken in linearen Ursache-Wirkungsketten
  • Nichtbeachtung von verzögertem Feedback
  • Hypothesenbildung aufgrund vermeintlicher Korrelation
  • Fehleinschätzung exponentieller Entwicklungen und von Wahrscheinlichkeiten

Ursache-Wirkungsketten

Passiert etwas Unvorhergesehenes, fragen wir sofort, wie das passieren konnte. Wir wollen die Ursache wissen, in der Meinung, man müsse bloss diese Ursache entfernen, damit die ungewünschte Wirkung nicht wieder auftritt. Das ist eine irrige Vorstellung. Bekannt ist das Ehepaar von Paul Watzlawick: Er geht ins Wirtshaus, weil er vor seiner nörgelnden Frau flüchtet, während sie ihm Vorwürfe macht, weil er ständig im Wirtshaus ist.

Den linearen Ursache-Wirkungsketten stehen die System-Archetypen gegenüber, die viele Projektsituationen als Ursache-Wirkungszyklen modellieren.

Verzögerter Feedback

Fast jede Handlung bewirkt nicht nur, was sie beabsichtigt, sondern hat darüber hinaus (unbeabsichtigte) Neben- und Fernwirkungen. Speziell Projekte werden oft von Entscheidungen eingeholt, die eigentlich schon lange erledigt waren.

Haben Sie gewusst, dass es verzögerter Feedback erster, zweiter und höherer Ordnung gibt? Kennen Sie den Unterschied? Sollten Sie, wenn Sie durch turbulente Projekte navigieren wollen.

Nichtlineare Entwicklungen und Wahrscheinlichkeiten

Hier sehen Sie eine Grafik der Weltbevölkerung zwischen 1000 v. Chr. und 1800 n. Chr., ohne Angabe der Grössenordnung.  So etwas kommt in Projekten oft vor, z.B. im Zusammenhang mit der Anzahl Change Requests oder Test Failures. Setzen Sie die Kurve bis ins Jahr 2000 fort! Die meisten Personen bleiben mit ihren Schätzungen bis zum Faktor 3 hinter dem tatsächlichen Betrag zurück.

Weltbevoelkerung_blind

David Kahneman hat verschiedentlich darauf hingewiesen, wie schlecht wir im Einschätzen von Wahrscheinlichkeiten abschneiden. Welches Spiel würden Sie lieber spielen, wenn Sie es wiederholt spielen könnten?

Sie erhalten acht Franken mit einer Wahrscheinlichkeit von 1/3

Sie erhalten drei Franken mit einer Wahrscheinlichkeit von 5/6

Die meisten Versuchspersonen entscheiden sich für das zweite Spiel, weil es anscheinend einen sichereren Gewinn verspricht. Aber im ersten Spiel haben Sie auf die Dauer mehr gewonnen.

Vermeintliche Korrelation

Nehmen wir an, in einem Projekt verhalten sich zwei Grössen auffällig ähnlich, z.B. so:

korrelation_blind

Der Korrelationskoeffizient beträgt 0.9926. Wir neigen in diesem Fall schnell dazu zu vermuten, dass die beiden Grössen etwas miteinander zu tun haben. Diese Hypothese über das Funktionieren des Projekts dient uns dann als Grundlage für unsere Entscheidungen.

Das obige Beispiel stammt aus dem neuen Buch „Spurious Correlations“ von Tyler Vigen. Die beiden Kurven geben übrigens die Entwicklung der pro Kopf Konsumation von Margarine einerseits und der Scheidungsrate im amerikanischen Maine andererseits zwischen 2002 und 2009 wieder.

Wir neigen in der Tat dazu, Zusammenhänge zu vermuten, wo gar keine sind.

Systemische Darstellungsmittel müssen nicht zwingend „komplex“ sein

Beschränkungen menschlicher Kognition manifestieren sich gerade bei ganzheitlichen Wahrnehmungsautomatismen. In komplexen Projektsystemen ist jedoch genügend Zeit, darüber bewusst zu reflektieren. Dabei kann die Ganzheitlichkeit auf der Strecke bleiben. Rationale Reflektion findet in geeigneten Modellen statt und bedarf systemischer Darstellungsmittel, um den Zusammenhang zur Ganzheitlichkeit nicht zu verlieren. Erkenntnisse aus dem Reflektionsprozess müssen nachträglich durch Achtsamkeitsübungen wieder in die Gesamtsicht eingepflegt werden.

In „Projektdynamik – Modelle für komplexe Umgebungen“ stelle ich die geeignetsten Darstellungsmittel vor. Das Buch kann frei heruntergeladen werden.

Auf Seiten 184ff erkläre ich den Umgang mit der Zeit und was es mit verzögertem Feedback auf sich hat. Ab Seite 202 folgt ein Tutorial zu nichtlinearen Entwicklungen und Wahrscheinlichkeiten. Auf den Seiten 219 bis 234 führe ich in die Verwendung von Causal Loop und Stock-and-Flow-Diagrams ein. Und auf Seiten 235ff zeige ich die kognitive Kraft von Modellen.

Der Verstand kann Defekte der unbewussten Kognition ausgleichen

In „Gestaltungsansätze für Soziotechnische Systeme“ (2005) stellen die Autoren eine Methodenhierarchie auf. Die mathematischen Ansätze des Operations Research werden auf „naturwissenschaftliches Denken“ reduziert, das soziotechnische Systeme nicht voll erfassen könne. Auch mit der nächst höheren Stufe, der Systemanalyse, sei

die Analyse komplexer Systeme … nur begrenzt möglich

Die Autoren schreiben:

Zur effizienten Bewältigung der Analyse und Gestaltung von soziotechnischen Systemen sind darüber hinaus Methoden und Werkzeuge erforderlich

und stellen dann Systeme, wie ERP, Datenmanagementsysteme, Managementinformationssysteme, Systeme des Wissensmanagement, Workflowsysteme, etc. vor, ohne sich Rechenschaft abzugeben, dass diese Systeme gerade auf den eingangs erwähnten Konzepten des Operations Research basieren.

Gewiss, der Artikel ist zehnjährig. Er drückt aber eine Haltung aus, die leider nach wie vor dominiert: da zum Verständnis quantitativer Methoden beträchtliche Denkleistungen erforderlich sind, werden sie als zweitrangig und ungenügend abgetan. Damit hat man eine Entschuldigung, sich nicht damit befassen zu müssen und weiterhin rein intuitiv vorgehen zu können. Aber damit kommt man in komplexen soziotechnischen Systemen nicht weit.

Was ist der Unterschied zwischen Algorithmen und Orakeln?

Insbesondere die Digitalisierung hat die Komplexität unserer Welt anschwellen lassen und sie hilft uns auch, mit ihr umzugehen. Ich habe hier schon oft digitale Tools vorgestellt, allen voran System Dynamics Tools, die wir aktiv einsetzen, wie eine Denkkrücke. Um bei der Metapher aus dem physiologisch-medizinischen Gebiet zu bleiben, gibt es aber auch Herzschrittmacher, die uns automatisch und ohne unsere aktive Beteiligung zu Diensten sind. Ich denke an sogenannte Algorithmen.

Algorithmen sind Tausende von Jahre alt

Algorithmen haben in komplexen Umgebungen die Aufgabe, grosse Datenmengen zu sammeln und auszuwerten. Am besten, sie veranlassen dann gleich die notwendigen Handlungen, ohne zuerst „den Benutzer“ zu konsultieren, denn der wäre schnell überfordert, wie die Flugzeugkollision von 2002 in Überlingen gezeigt hat. Die Automatik hätte richtig reagiert, doch Menschen haben sie übersteuert, was zur Katastrophe führte.

EuklidEigentlich sind Algorithmen so etwas wie Rezepte: Nimm von dem so viel und von dem so viel, mache das und das damit und am Ende kommt ein wunderbares Essen heraus. Ein Algorithmus liefert ein eindeutiges Resultat nach endlicher Zeit, die hoffentlich kurz ist, aber auch Äonen umfassen kann. Bekannt ist der Euklidische Algorithmus, der aus zwei gegebenen Zahlen ihren grössten gemeinsamen Teiler errechnet. Es ist der älteste nicht-triviale Algorithmus.

Algorithmen geben nach endlicher Zeit ein eindeutiges Resultat

Ein anderer bekannter Algorithmus ist der von Djikstra (sprich: „Daikstra“). Er gibt in einem Netzwerk den kürzesten Weg zwischen zwei Punkten an. Sicher spielt er in GPS-Anwendungen eine Rolle, doch geht er natürlich davon aus, dass die Distanzen zwischen den Punkten sich nicht dauernd verändern. Zwar ist die Distanz zwischen Berlin und Zürich in der Tat über viele Jahrtausende konstant, was genügen würde, um mit Djikstra die kürzeste Strassenverbindung zwischen den beiden Städten zu errechnen. Aber eigentlich interessiert uns ja eher die schnellste Verbindung. Das wäre kein Problem, wenn wir die Abstände zwischen den Strassenecken statt in Km in Fahrminuten angeben. Diese „Abstände“ sind nun aber hochgradig dynamisch. Die wichtigste Einflussgrösse ist wohl das Verkehrsaufkommen. Um das zu messen, braucht es viele Sensoren, vielleicht in Form von Kameras, was aber sofort die Datenschützer auf den Plan ruft.

Dijkstra_jpgDas Programm könnte auch das individuelle Fahrverhalten des Benutzers statistisch auswerten, was die Genauigkeit der Fahrzeitzuordnung erhöht. Nun wird zunächst ein Algorithmus benötigt, der aus der enormen Datenmenge, die aus Verkehrsdatenauswertung und Fahrverhalten zusammen gekommen ist, die wahrscheinlichen Fahrzeiten errechnet. Erst danach kann Djikstra angewendet werden.

Unscharfe Resultate

Doch das Ergebnis beruht auf statistischen Daten und ist somit nicht mehr scharf. Zudem kann sich die Situation bereits wieder verändert haben, wenn der Benutzer endlich auf das Display schaut.

EM_Clustering_of_Old_Faithful_dataEin weiterer wohlbekannter Algorithmus ist der, der Ihnen die Spam-Mails direkt in den Spam-Ordner verschieben soll. Auch dieser Algorithmus ist selbstlernend. Jedes Mal, wenn Sie ein Mail als „Spam“ deklarieren, trägt der Algorithmus die darin vorkommenden Stichwörter in eine Liste ein. Kommt ein neues Mail, vergleicht der Algorithmus sein Inhalt mit der gespeicherten Liste und errechnet eine Punktzahl. Ist sie hoch genug, wird das Mail gleich in den Spamordner verschoben.

Der Algorithmus basiert auf der Methode der Bayes’schen Netze, die stochastisch sind, d.h. auf Wahrscheinlichkeiten aufbauen. Stochastische Algorithmen können nur noch Vorschläge machen. Hängen Menschenleben davon ab, sind sie wohl nur bedingt geeignet, um ohne menschliche Intervention zu agieren.

Geheime Rezepturen

tf-idfJede Person kann sich Algorithmen ausdenken. Im betrieblichen Umfeld sind „Abläufe“ so etwas, wie Algorithmen. Aber einige Algorithmen sind ein wenig aus den Fingern gesogen und nicht so ohne weiteres brauchbar.

Ein solcher Algorithmus ist der TF-IDF Algorithmus. Er wird z.B. von Google verwendet, um Suchergebnisse zu präsentieren. Wenn wir nach einem Begriff suchen, erhalten wir normalerweise eine Liste mit mehreren Tausend Einträgen, von denen wir aber meist bloss die ersten paar ansehen. Daher sollten die relevanten Dokumente zuoberst stehen. Dazu wird ein Wörterbuch {b_1, b_2, ..., b_M} mit einer Anzahl M von Begriffen definiert. Jedem Dokument wird dann ein M-dimensionaler Vektor zugeordnet, der an der i-ten Stelle eine 1 hat, wenn das Wort b_i im Dokument vorkommt und eine 0, wenn das Wort nicht vorkommt. Um die Nützlichkeit des Vektors zu erhöhen, steht anstelle einer 1 ein Gewicht, das angibt, wie wichtig das Wort im Dokument ist.

Es stellt sich nun die Frage, welche Begriffe b_1, b_2, ..., b_M im Wörterbuch vertreten sein sollen. Je grösser M, desto rechenintensiver wird die Sache. Umgekehrt wird das Resultat bei einem kleinen M unbrauchbar. Es ist Google Geheimnis, welche Schlüsselwörter sie ihrem Wörterbuch einverleiben.  Aber gewiss hat ein solcher Algorithmus diese Bezeichnung nicht mehr verdient. Er ist mehr ein Orakel, denn ein Algorithmus.

Orakel und Horoskope

Ganz auf der Seite der Orakel sind Versuche, mit haarsträubenden Rechenvorschriften Persönlichkeitsprofile von Benutzern erstellen zu wollen. Sie können unter do not track: Ich like, also bin ich an einem solchen Versuch teilnehmen. Keine Angst, es ist bloss eine Demo für die Konsumenten der Videoserie „Do not track“. Die Ergebnisse werden nicht weiter verwendet. Z.B. steht da:

Als nächstes werden die Daten, die Sie auf Facebook gespeichert haben, mit Hilfe eines Algorithmus analysiert und auf diese Weise Ihre Charaktereigenschaften ausgewertet. Psychologen gehen davon aus, dass sich der Charakter eines jeden Menschen gemäß dem Fünf-Faktoren-Modell (den sog. Big Five) auf den Skalen Extraversion, Offenheit für Erfahrungen, Gewissenhaftigkeit, Verträglichkeit und Neurotizismus einordnen lässt. Wenn eine Person einen hohen Wert in der Kategorie Extraversion hat, ist sie beispielsweise meist sehr gesellig, freundlich und aktiv. Menschen, die einen hohen Wert in der Kategorie Gewissenhaftigkeit haben, sind in der Regel gut organisiert, vernünftig und strebsam.

Entsprechend fällt denn auch das Resultat aus: hanebüchen! Eine Rechnung, die Menschen in fünf Schubladen einordnet und diese erst noch von unbegründeten Behauptungen, wie z.B. „gewissenhafte Menschen sind strebsam“ ausgeht, kann nun wirklich nicht mehr sein, als ein Orakel oder gar ein Horoskop.

In der fünften Episode der sehr gut gemachten, aber düsteren Videoserie, geht es um „Big Data: Die Welt der Algorithmen“. Obwohl hier nicht mehr von Algorithmen die Rede sein kann, wird gefragt

Was ist, wenn die Algorithmen sich irren und Menschen aufgrund von Algorithmen-Resultaten diskriminiert werden?

Das ist in der Tat ein Risiko, zuweilen sogar ein existentielles (z.B. wenn der Algorithmus die Medikamenten-Dosierung von Patienten errechnet und bei „armen“ Patienten spart; natürlich gibt es das nicht, aber es ist denkbar) . Wie wir gesehen haben, sind es nicht die (mathematischen) Algorithmen, die im Allgemeinen bekannt und transparent sind(1). Es sind die zugrunde liegenden Glaubenssätze, Geschichten und Spinnereien von paar bedauernswerten Individuen, die keine andere Werte kennen, als „Geld machen“. Und dann gibt es noch solche, die zu wissen glauben, was Richtig und Gut ist und es allen anderen aufoktroyieren wollen. Wir können aber ihretwegen nicht auf Algorithmen verzichten (auf Orakel schon!), denn zu gross ist die Komplexität geworden, die wir ohne Algorithmen nicht mehr alleine bewältigen könnten.

————————————————————-

Alle Bilder aus Wikipedia

(1) Jeder Benutzer kann verstehen, was die Algorithmen machen, wenn er sich nur ein wenig mit Mathematik auseinandersetzen würde. Wer einen mathematischen Sachverhalt verstehen will, muss bei seinen Denkanstrengungen jedoch konsequent sein. In allen anderen Wissenschaften können interpretative Ergebnisse erzielt werden. Eine mathematische Reise kann nicht in der Hälfte abgebrochen und durch eigene Interpretationen ergänzt werden. Das schreckt viele ab, sich die herumliegenden Algorithmen anzusehen. Lieber wettern sie schon mal auf Vorrat dagegen

Menschen verhalten sich wie spezifische Mustererkenner

Beim Mittagessen erklärte ich, was man in Operations Research unter einem „Transportproblem“ versteht. Die Zuhörer wunderten sich ein wenig über die Fragestellung und fanden sie „zu theoretisch“. Damit haben sie selbst eine grundlegende Frage aufgeworfen, die mich auch immer wieder umtreibt: Inwieweit soll man eine praktische Aufgabe analytisch oder doch bloss intuitiv angehen?

Die Art der Präsentation einer Aufgabe

Zunächst nehme ich einmal an, dass meine Zuhörer nicht „theoretisch“, sondern eher „analytisch“ meinten. Es gibt ja nichts Praktischeres als eine gute Theorie. Wie sonst will man wissen, was in der Praxis zu tun ist. Die Theorie oder zumindest das Modell gibt uns quasi das Rezept zum Handeln.

Hingegen verstehe ich, wenn meine Zuhörer meinten, man könnte doch so ein Transport auch einfach intuitiv abfertigen. Einer sagte: „Ich lade den LKW einfach bis er voll ist“.  Nun ja, vielleicht hätte ich ihm doch eine Transporttabelle aufzeichnen sollen. Wer nicht in der Logistik tätig ist, kann sich vielleicht zu wenig vorstellen, welche Optimierungsnotwendigkeiten sich dort stellen.

Drei Verhaltensebenen

Muss ich im Alltag eine praktische Aufgabe lösen, dann versuche ich es leider zunächst auch rein intuitiv. Nachdenken im Sinne von analytischem Durchdringen ist aufwändig und energieintensiv. Daher greift man in den meisten Fällen auf regelbasiertes Wissen und Handeln zurück. James Reason hat ein dreischichtiges Verhaltensmodell vorgestellt (1).

reasonDie unterste „fähigkeitsbasierte Ebene“ enthält quasi die Automatismen der Routine.

Auf der „regelbasierten Ebene“ sucht man vertraute Muster und wendet gespeicherte Regeln an. Das ist die Ebene der Experten und des intuitiven Managements.

Erst auf der obersten „wissensbasierten Ebene“ werden abstrakte Beziehungen zwischen Struktur und Funktion analysiert, diagnostiziert und optimiert.

Ein Handlungsplan ist eine Theorie von der Welt

Jeder Mensch geht eine Aufgabe zuerst rein intuitiv auf der regelbasierten Ebene an. Die Entscheidung, ob die Aufgabe nun gelöst sei, findet zunächst auf der Basis dürftiger Daten statt, denn Langzeitauswirkungen liegen noch keine vor. So werden z.B. internationale Konflikte gelöst, einheitliche Währungsräume geschaffen oder komplizierte Handelsabkommen konstruiert. Manifestieren sich später Instabilitäten und Probleme, wird wider besseren Wissens an der ursprünglichen Lösung festgehalten. So sind wir halt!

Wer bei der Frage, ob das ursprüngliche Problem gelöst sei, bewusste Zweifel hat, dem werden sie schnell wieder ausgetrieben, denn in der regelbasierten Ebene gibt es „mächtige kognitive … Kräfte, die sich zusammentun, um den Problemlöser glauben zu machen, der solle unangemessene oder unvollständige Lösungen an dieser Stelle als zufriedenstellend akzeptieren“, schreibt Reason.

Intuitiven Lösungen komplexer Probleme misstrauen

Eine interessante Erfahrung habe ich mit meinen Studierenden gemacht. Frage ich „out of the blue“, wie teuer das Flaschenglas sei, wenn die Flasche Wein Fr. 10.50 koste und der Wein 10 Franken teurer sei, als das Glas, dann antworten die meisten Leute intuitiv und falsch. Taucht die Frage aber in einem Aufgabensatz über Gleichungen auf, dann stellen die Studierenden wie selbstverständlich die Gleichung auf, lösen sie und gelangen zum richtigen Resultat.

Wir sind einfach (noch) nicht bereit, die Merkmale unserer immer komplexer werdenden Aufgabenstellungen im Rahmen eines integrierten mentalen Modells zu interpretieren. Ich selbst ertappe mich immer wieder, dass ich eine Aufgabe „praktisch“ angegangen bin, obwohl ich das theoretische Rüstzeug gehabt hätte, sie auch auf wissensbasierter Ebene zu lösen. Wie nur kann ich mein Gehirn dazu bringen, intuitiven Lösungsansätzen zu misstrauen?

(1) Reason, James. Menschliches Versagen – Psychologische Rsiskofaktoren und moderne Technologien. Spektrum Akademischer Verlag. Heidelberg 1994. S.93ff.