Schlagwort-Archive: Fehler

Fehler machen – gewusst wie!

borgertDieser Beitrag ist etwas ganz Besonderes. Es ist nämlich ein Gastbeitrag von niemand geringerem als Stephanie Borgert, die bekannte Erfolgsautorin mehrere Bestseller zum Themenkreis „Komplexität“.  Ihr neustes Buch „Die Irrtümer der Komplexität“ habe ich hier rezensiert.

komplexitaetIm folgenden Artikel sinniert Stephanie Borgert über neuguineanische Schweine in den Gärten der Nachbarn und was das mit dem Anspruch zu tun hat, dass alles fehlerfrei und definitiv sein muss.

Vielen Dank, Stephanie!


Das „Agieren in nicht vorhersagbaren Kontexten“ ist die Herausforderung für Manager. Täglich erscheinen Artikel mit den Schlagwörtern „experimentieren“, „Fehlermachen“, „scheitern“ und sie proklamieren deren Bedeutung. So weit, so gut. In einem komplexen Umfeld treffen Manager Entscheidungen auf der Basis von Experimentieren (Ausprobieren) und Muster erkennen. Dabei werden Fehler (also nicht erwünschte Ergebnisse) entstehen und das führt möglicherweise zum Scheitern.

Wird das Thema aufgegriffen, werden meistens Beispiele von Insolvenzen, „totalem“ Scheitern und einem dramatischen Untergang bemüht. Das ist zwar anschaulich und eindrücklich, aber auch irreführend. Denn meistens bewegen wir uns als Individuen genauso wie jede Organisation auf der vielfältigen Achse zwischen „makellos erfolgreich“ und „total in die Hose gegangen“. Gleichzeitig gehen die Artikel nie in die Tiefe. Da es konzeptionell große Unterschiede im Fehlermachen beziehungsweise -vermeiden gibt, ist das aber dringend notwendig.

Fail-safe oder Safe-fail

Ganz offensichtlich ist es von Vorteil, wenn in einem Kernkraftwerk durch mehrere Stromkreise sichergestellt ist, dass bei einem Stromausfall die Energieversorgung weiter gewährleistet ist. Umfangreiche technische Konstrukte arbeiten berechtigterweise mit diesem Fail-safe-Prinzip, bei dem Redundanzen auf der Basis errechneter Wahrscheinlichkeiten geschaffen werden. Leider wird dieses Prinzip oft eins zu eins auf Organisationen übertragen. Egal ob Produktionsprozess oder Projektmanagement, die Systeme werden robust, narren- und ausfallsicher aufgesetzt. Mit dem Ziel, der (möglichst) vollständigen Fehlervermeidung wird alles Erdenkliche unternommen, um deren Wahrscheinlichkeit zu reduzieren. Das führt zu dem Ergebnis, dass die Menschen sich so verhalten, als läge die Wahrscheinlichkeit bei null Prozent. Welch ein Denkfehler in komplexen Kontexten!

failsafeDadurch beschränkt sich auch das Experimentieren auf die Trial-and-Error-Methode. Bei einem neuen Produkt heißt das beispielsweise, es wird erst gelauncht, wenn es fertig ist und alle sicher sind, dass es erfolgreich sein wird. Diese Sicherheit ist aber ein Irrglaube, denn eine Garantie gibt es am Markt nie. Bleibt der Erfolg aus, wird das nächste Produkt platziert. Eins nach dem anderen, Trial-and-Error eben. Der Preis für diese Art des Managements ist hoch, die Währung Flexibilität, Schnelligkeit und Anpassungsfähigkeit.

Von Gärten und Schweinen

Ein alternativer Ansatz zur Schadensvermeidung ist die Schadensbegrenzung. Das Safe-fail-Prinzip unterstellt, dass Fehler passieren und nicht zu vermeiden sind. Experimentieren heißt in dem Fall, tatsächlich Fehler zu machen und zu scheitern. Ohne das lassen sich die Grenzen des Machbaren nicht ausloten. Systemisch bedeutet, „an Grenzen zu stoßen“, das System zu regulieren. Der kanadische Ökologe Buzz Holling erläuterte das Prinzip an dem Ritual einer Bevölkerungsgruppe Neuguineas: Die Menschen dort bauen einen Großteil ihrer Nahrung selbst an und zwar in ihren eigenen Gärten. Schweinefleisch ist dort ebenfalls ein wichtiges Lebensmittel, wird jedoch nur zu einem bestimmten zeremoniellen Anlass gegessen. Diese Zeremonie findet immer statt, wenn die „Betriebstemperatur“ hoch ist und Konflikte aufkeimen. Dann werden die Schweine verzehrt und die Götter um Versöhnung gebeten. Der wesentliche Grund für die Konflikte ist die hohe Schweinepopulation. Sie beginnen die Gärten zu verwüsten und das provoziert Streit unter den Nachbarn. Nach der Zeremonie ist der Streit ausgeräumt. Dabei dient das Ritual weniger dazu, die Schweinepopulation zu kontrollieren, sondern die Bevölkerung vor unkontrollierter Instabilität durch Konflikte zu bewahren.

schweinWäre das Zusammenleben dieser Menschengruppe in Neuguinea durch Prozesse, Verfahren und Richtlinien aus unseren Organisationen geregelt, so wäre sicher zuerst die Anzahl an Schweinen pro Familie definiert und festgelegt. Die Schweinepopulation könnte also insgesamt einen gewissen Schwellwert nicht überschreiten. Wenn gleichzeitig durch den Bau von Zäunen und der Regel die Einhaltung von „Schweine dürfen keine fremden Gärten betreten“ der Bewegungsradius geklärt ist, kann nichts mehr schiefgehen. Zur Feier der entstandenen Schadensvermeidung gäbe es halbjährlich eventuell eine Zeremonie, auch wenn dafür gar kein Anlass mehr existiert. Es wäre der übliche Versuch, ein komplexes System zu steuern und Fehler zu vermeiden.

Der kontrollierte Ausfall

In Neuguinea hat die Gruppe dagegen eine Methode gefunden, kontrollierte Ausfälle zu generieren. Die anschwellenden Konflikte unter den Nachbarn sind das sichere Signal, dass das System eine Korrektur benötigt. Die Zeremonie dient genau dieser Korrektur. Das System ist also nicht überreguliert (wie die meisten Organisationen), sondern selbstorganisiert. Einige, wenige Restriktionen regeln „wie diese Bevölkerungsgruppe tickt“. Die Menschen dort lassen also das System bis an seine Grenzen laufen, Fehler entstehen. Die sind der Anlass für eine Korrektur, finales Scheitern wird so verhindert. Die Flexibilität der Gesellschaft bleibt erhalten.

Was bedeutet das nun für Organisationen? Für die Antwort möchte ich ein Beispiel vorstellen, denn ein generelles Rezept existiert nicht. Komplexität ist immer Kontext, aber es existieren einige Inspirationen, von denen sich lernen lässt.

googleGoogle ist hier, wie so oft, eines der guten Beispiele. Als ein Meister der Safe-fail-Experimente bringt das Unternehmen laufend zahllose Produkte und Dienstleistungen auf den Markt. Angefangen von Dodgeball über Jaiku, Wave, Google Catalogs oder Mashup Editor. Die meisten dieser und vieler anderer Produkte sind unbekannt. Sie sind fehlgeschlagene Experimente. Es ist eine wesentliche Eigenschaft von Google, dass es die Fähigkeit zum Fehlermachen und aus ihnen zu lernen besitzt. Projekte werden beendet, sobald sie als Misserfolg bewertet werden. Scheitern ist ein wichtiger Teil des Erfolgskonzeptes. Fehler machen – gewusst wie:

  • Probiere viele Dinge aus.
  • Gehe davon aus, dass einige fehlschlagen.
  • Begrenze die Kosten des möglichen Fehlschlages.
  • Gestehe Fehler und ein Scheitern frühzeitig ein.

Hinter diesen vier Punkten steckt mehr als „sich einfach mal ein Experiment ausdenken“. Es geht um Haltungen und Sichtweisen im Management einer Organisation. Für das Meistern von Komplexität ist der „richtige“ Umgang mit Experimenten, Fehlern und Scheitern essentiell.

Doppelter Fehler durch Kompexitätsreduktion

Der Arbeitspsychologe James Reason ist ein Experte für „Menschliche Fehler“(1). Ein häufiger Fehler, der durch Unaufmerksamkeit passiert, ist die Wahrnehmungsverwirrung.

Mentale Modelle als Wahrnehmung

Kognitive Theorien beginnen mit den Sinnesreizen, die den Input für das sensorische Gedächtnis darstellen. Dort findet zuhanden des Arbeitsgedächtnisses eine Aufbereitung statt, die u.a. aus

  • Merkmalanalyse
  • Erkennen der Reizelemente
  • Mustererkennung
  • Benennung

besteht. Wenig bekannt sind die Funktionen, die aus den erkannten Mustern und Reizelementen ein Mentales Modell zuordnen.

Hier bezeichnet der Begriff „Mentales Modell“ etwas sehr primitives. Psychologen benutzen Begriffe, wie „Analoge und Propositionale Repräsentationen“, „Semantische Netze“, „Schemata“ oder „Scripts“, wobei ausgerechnet der Begriff des „Modells“ unter einigen Autoren verpönt zu sein scheint(2). Ich glaube, all diese Begriffe sind jeweils nur Teilaspekte von dem, was wir den realen Objekten wirklich zuordnen.

Wenn ich ein neues Gebäude betrete, so scheinen mir einige Ecken sehr lauschig, in einigen Räumen fühle ich mich geborgen oder wohl, in anderen nicht, gewisse Durchgänge erinnern mich an solche im Kindergartenhaus, in dem ich im Alter von 5 Jahren bewegte. Gegenüber des Eingangs steht eine Säule, die bedrohlich oder gutmütig zu sein scheint, wie ein Raumwächter, der mich auffordert einzutreten oder zu fragen, was ich wolle. Das Gebäude und die Räume haben für mich eine lebendige Ganzheit, die gleichzeitig episodische, deklarative, prozedurale sowie visuelle, auditive oder haptische Aspekte umfasst und ein Teil meines Lebens ausmacht. Ich verinnerliche das Gebäude in einem Mentalen Modell.

Modelle dienen nicht der Komplexitätsreduktion

Wenn ich eine Treppe hinunter steige, dann muss ich sie in meiner Wahrnehmung modellieren, um z.B. zu wissen, wann ich alle Stufen genommen habe. Nehme ich eine Stufe nicht wahr, stolpere ich und falle hin.

Damit stelle ich mir vor, dass unsere Wahrnehmung über Mentale Modelle funktioniert. Der Begriff „Mentales Modell“ repräsentiert also nicht nur Wissensstrukturen, sondern bezeichnet die Wahrnehmung schlechthin. Wir können die Welt ausschliesslich über Modelle wahrnehmen. Modelle sind nicht gute Hilfsmittel, um die Realität zu beschreiben, sie sind die einzige Möglichkeit, um Realität wahrzunehmen. Insbesondere dienen Modelle nicht der Komplexitätsreduktion, wie oft behauptet wird. Wenn uns etwas komplex erscheint, dann ist schon das Modell komplex, das wir von der realen Sache machen. Mentale Modelle machen wir uns auch von einfachen und alltäglichen Dingen, ja von allem, was wir wahrnehmen. Das Modell, also die Wahrnehmung, ist eine Funktion unserer Persönlichkeit und individuellen Geschichte.

Das Modell wird durch ein Schema ergänzt

Wo findet die Konstruktion des Modells statt? Das sensorische Gedächtnis ist zu kurzfristig, als dass es Zeit hätte, Modelle zu bauen. Die Ressourcen des Arbeitsgedächtnisses sind zu kostbar, als dass wir sie mit Modellbau beschäftigen oder gar belästigen möchten. Im Langzeitgedächtnis müssen die Modelle aber bereits bestehen, denn das Langzeitgedächtnis übernimmt aufgrund des Modells die Steuerung automatisierter Handlungen.

Betrachten wir nochmals das Hinuntersteigen einer Treppe. Das wird durch das Langzeitgedächtnis weitgehend automatisch abgewickelt. Durch wiederholtes Einüben entsteht ein Schema einer Treppe:

alternierende saliente und konkave Kanten, Stufen zwischen 25 und 35 cm breit, Stufenhöhe gleichmässig zwischen 15 und 20 cm, letzte Stufe kann davon etwas abweichen

Weicht eine Treppe von diesem Schema ab, können bereits Bewegungsfehler passieren, auch wenn wir noch so genau hinsehen. Das Auge macht mithilfe des sensorischen Teils des Langzeitgedächtnisses und des Arbeitsgedächtnisses ein Modell der spezifiischen Treppe. Der prozedurale Teil des Langzeitgedächtnisses produziert daraus Handlungsanweisungen an Beine und Füsse. Ein paar flüchtige Blicke auf die aktuelle Treppe genügen, um sicher ihr Ende zu erreichen, denn das Schema einer Treppe haben wir ja bereits in der Kindheit abgespeichert. Wir brauchen eigentlich nur noch zu wissen, wann die aktuelle Treppe zu Ende ist.

Modell

Sobald wir also vor einer Treppe stehen, muss das prozedurale Gedächtnis sofort mit der Wahrnehmung, also dem Modell dieser Treppe versorgt werden. Wo entsteht es?

Enthält das Modell Fehler, indem wir z.B. die unterste Stufe nicht wahrnehmen, so fallen wir mit unter Umständen schwerwiegenden Konsequenzen hin. Fehler in der Modellbildung können ebenso schwerwiegend sein, wie Fehler in der Ausführung.

Das Modell kann falsch sein

In der Fehlertaxonomie von James Reason(3) kommt der Patzer „Wahrnehmungsverwirrung“ als einer von acht Patzern und Schnitzern vor. Er schreibt:

Die Merkmale dieser recht häufigen Fehler legen nahe, dass sie deshalb auftreten, weil die Schemata beim Erkennen eines Objekts etwas als Übereinstimmung mit dem eigentlichen Objekt akzeptieren, was nur so ähnlich aussieht, sich am entsprechenden Ort befindet oder ähnlich funktioniert. Diese Patzer können auftreten, weil es – in einer stark routinisierten Handlungskette – unnötig ist, dasselbe Mass an Aufmerksamkeit für den Prozess des Wahrnehmungsabgleichs aufzuwenden. Bei oft wiederholten Aufgaben ist es wahrscheinlich, dass die Erkennungsschemata, genauso wie die Handlungsschemata, so weit automatisiert werden, dass sie auch grobe und nicht nur präzise Annäherungen an den erwarteten Reizinput zulassen. Diese Absenkung der Akzeptanz steht in Einklang mit der ´kognitiven Ökonomie´ und der damit einhergehenden Entlastung der Aufmerksamkeitskapazität

Reason geht von einem Wahrnehmungsabgleich mit dem gespeicherten Schema aus, während ich ein durch das Schema ergänzte Modell der Wahrnehmung annehme, das mit der aktuell durchgeführten Handlungskette abgeglichen wird. Bei Reason liegt der Fehler im Prozess des Wahrnehmungsabgleichs, der während der Laufzeit der Handlung durchgeführt wird. Für mich liegt der Fehler jedoch darin, dass dem prozeduralen Gedächtnis von Vornherein ein falsches Modell vorliegt und während der Laufzeit der Handlung nicht angepasst werden kann.

Wahrnehmungsverwirrung in komplexen Situationen, wenn das Schema falsch ist

Ich zweifle, ob genügend Ressourcen zur Verfügung stehen, um laufend den Wahrnehmungsabgleich zu erledigen, den Reason fordert. Wenn wir Treppen steigen, die nicht auf das übliche Treppenschema passen, z.B. Treppen mit überbreiten Stufen, dann haben wir nämlich sogar dann Mühe, wenn wir unsere Aufmerksamkeit ganz bewusst auf die Wahrnehmung dieser unorthodoxen Treppe legen.

Von alltäglichen Dingen, wie Gegenständen, Einrichtungen oder Prozessen, haben wir Schematas gespeichert. Die Wahrnehmung eines solchen Dings resultiert in einer mentalen Repräsentation oder Modell, das durch das entsprechende Schema ergänzt wird. Weicht die Repräsentation oder das Modell zu stark vom Schema ab, wird versucht, das Modell an das Schema anzupassen, was zu einer Wahrnehmungsverwirrung und damit zu Fehlern führt.

Speziell in komplexen Umgebungen kann dies fatal sein. Wir haben ohnehin nur wenige Schematas von komplexen Dingen gespeichert, weil früher die Welt grundsätzlich weniger komplex war und wir daher keine Möglichkeit hatten, Schemata von komplexen Dingen zu generieren. Daher kommt es bei der Beschäftigung mit komplexen Dingen vermehrt zu Fehlern, da die rudimentäre Wahrnehmung nicht durch „gute“ Schemata ergänzt werden kann. Wie beim Begehen unorthodoxer Treppen erzeugt das Fehlen guter Schematas Unsicherheit, wie es für komplexe Situationen typisch ist. Der Wunsch, Komplexität zu reduzieren, bedeutet dann, ein unpassendes Schema zu verwenden, um das Modell überhaupt an etwas anpassen zu können. Dieses Vorgehen birgt dann gleich zwei Fallen: Sowohl das Schema ist falsch als auch die Wahrnehmung wird verzerrt. Komplexitätsreduktion führt daher zwangsläufig zu häufigeren Fehler!

Eine Lösung bei fehlendem Schema ist, das Modell zu verbessern. Das heisst, grössere Aufmerksamkeit und laufender Wahrnehmungsabgleich, wie es Reason fordert. Dazu wird das Arbeitsgedächtnis und das bewusste Denken gefordert, was viel Energie und Zeit benötigt.

 

(1) Wikipedia „Menschlicher Fehler“

(2) Z. B. schreibt Michael Trimmel von der Universiät Wien:.Mentale Modelle sind zwar anschaulich aber nicht unbedingt nützlich. Der Nutzwert von Modellen in der Psychologie ist umstritten. http://homepage.univie.ac.at/michael.trimmel/kogpsych_ws2001-2002/kohot.pdf

(3) Reason, J. Human Error, Cambridge University Press 1990. Seite 72: Perceptual confusions

Wie ändert man Weltanschauungen?

Kürzlich kam die Frage auf, ob Konzentration auf Fehler überhaupt sinnvoll sei. Schliesslich funktionieren keine Handlungsanweisungen der Art „Tu das nicht!“. Wenn es um Handlungsanweisungen geht, dann ist das richtig.

Unser Gehirn lernt durch Fehler

Dennoch lernt unser Gehirn durch Fehler. Wenn eine Handlung zu einem erwünschten Resultat führt und kein Fehler entsteht, dann wissen wir nicht, ob die Handlung tatsächlich Ursache des erwünschten Resultats war oder ob das Resultat rein zufällig zustande kam. Nur wenn das erwünschte Resultat trotz unserer Handlung nicht zustande kam, können wir daraus schliessen, dass an unseren Vorstellungen und inneren Bildern etwas nicht stimmt. Wer innere Bilder und mentale Modelle verändern will, muss also nach unerwarteten Wahrnehmungs- und Entscheidungsfehlern suchen. Nicht, um zu sagen: „Tu das beim nächsten Mal nicht wieder“, sondern um die mentalen Modelle anzupassen.

Kommen die Früchte aus der Futterröhre, weil der Affe am Seil zieht? Solange er keinen Fehler in seinem Modell entdeckt, wird er immer wieder am Seil ziehen, wenn er Futter will

 

Chris Frith schreibt in seinem Buch Wie unser Gehirn die Welt erschafft1:

Mein Gehirn entdeckt die Aussenwelt, indem es Modelle dieser Welt entwickelt…Was ich wahrnehme, sind nicht die …Reize, die von der Aussenwelt.. [ein]treffen. Ich nehme etwas viel Reichhaltigeres wahr – ein Bild, das diese kruden Signale mit einer Fülle vergangener Erfahrungen kombiniert. Meine Wahrnehmung ist eine Vorhersage dessen, was in der Aussenwelt sein sollte. Und diese Voraussage wird ständig durch Handeln getestet.

Modellbasiertes vs. modellfreies Lernen

Bei einem Misserfolg gibt es eine Fehlermeldung, und das Gehirn kann das Modell anpassen. Neurowissenschaftler um Jan Gläscher vom Universitätsklinikum Hamburg-Eppendorf haben in der diesjährigen  Frühjahresausgabe der Zeitschrift Neuron berichtet, dass neben diesem modellbasierten Lernen auch modellfreies Lernen Anwendung findet, nämlich durch Versuch und Irrtum2. Dabei werden blind Entscheidungen gefällt, die in der Vergangenheit oft Vorteile brachten. Dörner nannte das in Anlehnung an James Reason Frequency Gambling3. Klar, dass Innovation und Kreativität dem Frequency Gambler Fremdworte sind. Diese einfachere Entscheidungsfindung kommt denn auch eher bei einfacheren Alltagshandlungen zur Anwendung, die allerdings in der Mehrzahl sind. Bei den selteneren, nicht automatisch ablaufenden Alltagshandlungen, wie Planen und Problemlösen, mobilisiert der Mensch sein modellbasiertes System, das dem Gehirn aber eine größere Verarbeitungsleistung abfordert.

Pikanterweise werden also positive Erfahrungen bei Versuch und Irrtum angewendet, während in komplexen Situationen eher auf Modellfehler fokussiert wird.

1Chris Frith: Wie unser Gehirn die Welt erschafft. Spektrum akademischer Verlag. Heidelberg 2010, S. 175

2Jan Gläscher et al.: States versus Rewards: Dissociable Neural Prediction Error Signals Underlying Model-Based and Model-Free Reinforcement Learning; Neuron, 2010, 66(4) pp. 585 – 595

3Dörner, D. Die Logik des Misslingens – Strategisches Denken in komplexen Situationen. rororo Taschenbücher, Rowohlt. Reinbek b. Hamburg, 2003, S.240

Sind Sie gläubig oder lieben Sie Wahrscheinlichkeiten?

Kierkegaard ist gewiss nicht mein Lieblingsphilosoph, aber das folgende Zitat aus seinen Philosophischen Schriften hat mich im Zusammenhang mit Projektmanagement sehr bewegt. Möglicherweise wäre Kierkegaard über den Kontext, in dem er hier zitiert wird, nicht sonderlich begeistert, hat er doch jede Art spekulativen Denkens als Anmassung abgelehnt.

Daher ist die Wahrscheinlichkeit dem Glaubenden so wenig lieb, dass er sie mehr als alles fürchtet, weil er wohl weiss: sie bedeutet, dass er den Glauben zu verlieren beginnt. Dieser hat nämlich zwei Aufgaben: achtzugeben und in jedem Augenblick die Unwahrscheinlichkeit, das Paradox zu entdecken, um es dann mit der Leidenschaft der Innerlichkeit festzuhalten

Mit Wahrscheinlichkeiten jongliert jeder Projektmanager, wenn er Risiken abschätzen muss. Er ist denn obigem Zitat gemäss nicht ein Glaubender, er glaubt zumindest nicht an einen absoluten Projekterfolg. Das ist mir soweit sympathisch, denn dann unterliegt er weniger dem „Confirmation Bias“, dem Hang zu übermässigem Vertrauen in die Korrektheit des eigenen Wissens. Nassim Taleb spricht in diesem Zusammenhang auch von „epistemischer Arroganz“1.

Der Glaube habe zwei Aufgaben: achtzugeben und wenn er etwas Unwahrscheinliches entdeckt hat, dieses festzhalten. Achtsamkeit ist in der Tat ein wesentliches Element eines jeden seriösen Managements. Achtsamkeit im Sinne Karl Weicks heisst, die Aufmerksamkeit auf das Unerwartete zu fokussieren2. Die Unwahrscheinlichkeit, von der Kierkegaart spricht, ist in der Tat das Unerwartete. Wer achtsam ist, bleibt sich der grossen Bedeutung schwacher Signale bewusst, schreibt Weick. High Reliability Organizations (HRO) entwicklen geradezu eine Leidenschaft für Fehler, die zu unwahrscheinlichen, dafür aber katastrophalen Ereignissen führen können. HRO halten mit „der Leidenschaft der Innerlichkeit“ Beinaheunfälle fest, analysieren sie, verändern ihre Abläufe und erreichen so, dass sie nicht nochmals auftauchen, denn beim zweiten Mal könnten sie sich zu vollen Katastrophen – oder gemäss Taleb, zu schwarzen Schwänen –  entwickeln. HRO benehmen sich also wie Glaubende, die achtgeben und das Unwahrscheinliche suchen.

Wir sollten Projekte und andere Managementsysteme immer wie HRO führen, indem wir die ausgeprägte Fähigkeit entwicklen, schwache Signale wahrzunehmen und Fehler zu entdecken, ehe sie zu einer Krise eskalieren können. Für die meisten ist diese Empfehlung wahrscheinlich zu wenig handfest, weil sie eine Aufforderung zur Persönlichkeitsveränderung bedeutet. Sie enthält keine unmittelbare Handlungsanweisung in der Form: „Tue dies und das und alle Deine Probleme verschwinden mit einem Schlag“. Und wer mag sich denn schon gerne verändern?
1N. N. Taleb. Der Schwarze Schwan –  Die Macht höchst unwahrscheinlicher Ereignisse. Carl Hanser Verlag. München 2008
2Karl E. Weick, Kathleen M. Sutcliffe. Das Unerwartete manage – wie Unternehmen aus Extremsituationen lernen. Klett-Cotta. Stuttgart 2003

Wo kann in Projekten und Unternehmen etwas schief gehen?

Ich weiss schon, es mag seltsam klingen, wenn ich sage, dass wir für das Projektmanagement Skills und Regeln/Tools haben, nur das Wissen noch fehle. Dabei ist doch das PMBOK des PMI in neun Wissensgebiete aufgeteilt. Bitte lassen Sie mich ganz kurz ein wenig ausholen.

Etwa Mitte der 1960er Jahre rückte die Aufmerksamkeit ins Rampenlicht der Psychologie. In den 70er Jahren wurden diese ersten Ergebnisse mit verschiedenen Theorien angereichert, so der Ressourcentheorie, die die Aufmerksamkeit als ein einziges Reservoir an Informationsverarbeitungsressourcen betrachtet oder die Mehrkanalprozessoren-Theorie, die annimmt, dass jede komplexe Aufgabe von einer Reihe unabhängiger Prozessoren bearbeitet wird. 1972 stellten Newell&Simon den General Problem Solver vor, eine Theorie, die wesentlich zum Verständnis der Art und Weise menschlichen Problemlösens beitrug. Dann kamen Konzepte wie das Arbeitsgedächtnis oder Skripts hinzu, die anfangs der 80er Jahren zu brauchbaren Aufmerksamkeits-Handlungs-Theorien führten. 1982 stellte Rasmussen ein Modell der kognitiven Kontrollmechanismen vor, das auf drei Ebenen beruht: Skill- oder fähigkeitsbasierte Ebene, regelbasierte Ebene und wissensbasierte Ebene1. Rasmussens Modell war deutlich von Newells und Simons General Problem Solver beeinflusst und zielte auf Fehler, die während Notfällen in riskanten Industrie- und Prozessanlagen begangen werden. 1986 erhielt Rasmussens Modell in Tschernobly tragische Bestätigung. 1990 stellte James Reason im Buch Human Error, aus dem übrigens der obige Abriss der geschichtlichen Zusammenhänge stammt, sein Generic Error Modelling System vor1. Der Name des „Systems“ ist ziemlich ungeschickt gewählt. Eigentlich ist es gar kein Fehlermodellierungssystem, sondern eine geraffte Darstellung von Rasmussens Modell menschlichen Verhaltens.

Sie können das Bild vergrössern, indem Sie es anklicken. Ich schlage vor, das Modell auch im Projektmanagement anzuwenden. Auf der untersten, fähigkeitsbasierten Ebene laufen die Tätigkeiten fast automatisch ab. Möglichst viel wird durch das Langzeitgedächtnis gesteuert, das schnell, energieeffizient und ohne Inanspruchnahme des Bewusstseins arbeitet. Dafür enthält das Langzeitgedächtnis einige archetypische Beurteilungs- und Handlungsmuster, die in einer komplexen Welt vielleicht nicht mehr immer opportun sind. Normalerweise sollte während den fähigkeitsbasierten Handlungen von Zeit zu Zeit ein Aufmerksamkeitscheck durchgeführt werden. Auch das ist einprogrammiert und läuft automatisch ab, kann aber mal versagen. Passiert etwas aussergewöhnliches, schaltet das Gehirn auf die regelbasierte Ebene und grabscht in möglicherweise vorhanden Regeln und Vorschriften, die in ähnlichen Fällen wie dem vorliegenden, das Problem erfahrungsgemäss schon mal gelöst haben. Erst wenn auch das nichts hilft, muss der Problemlöser wohl oder übel im obersten Stock seines Gehirns die Lösung suchen. Die oberste, wissensbasierte Ebene ist etwas wackelig: langsam, teuer, weil sehr energieintensiv und selten gebraucht, also muss mit Stillstandsschäden gerechnet werden. Es ist unser Grosshirn, das Organ, das den Mensch von allen anderen Säugetieren unterscheidet. Ich will damit nicht in den Zynismus Russells einstimmen, der einmal sagte: „Manche Menschen würden lieber sterben, als denken und sie tun’s dann auch“. Dass wir die wissensbasierte Ebene so selten benutzen war ein überlebensnotwendiger Schutzmechanismus, den wir von der Natur mitbekommen haben. Heute stört er leider ziemlich massiv. Die regelbasierte Ebene findet immer etwas, und wenn’s eine falsche Regel ist. Dann gibt es mächtige kognitive und affektive Kräfte, die sich zusammentun, um den Problemlöser glauben zu machen, er solle unangemessene oder unvollständige Lösungen an dieser Stelle als zufriedenstellend akzeptieren3. W. B. Rouse formuliert das so: Menschen, wenn sie die Wahl haben, verhalten sich bevorzugt wie kontextspezifische Mustererkenner, statt dass sie versuchen hochzurechnen oder zu optimieren4. Das heisst, dass Menschen die Probleme lieber auf der regelbasierten Ebene lösen als in die wissensbasierte Ebenen hinauf zu gehen.

Ich denke, dass das Modell auch für Projekt- und andere Manager brauchbar ist. Wir beobachten doch Tag für Tag, dass wir viele Arbeiten völlig routinemässig durchführen und auch durchführen können. Wenn etwas unsere Aufmerksamkeit in Anspruch nimmt, dann reagieren wir mit Regeln und nach Vorschriften, die wir aus Erfahrung kennen. Zum wirklichen Denken – zum Kopfzerbrechen, wie man sagt – haben wir wenig Zeit. Das meinte ich, als ich schrieb, dass wir für das Projektmanagement Skills und Regeln haben, aber zu wenig Wissen. Wir haben zu wenig Wissen, das wir durch Nachdenken selber generiert und nicht aus einem PMBOK entnommen haben.

1J. Rasmussen. Human errors: A taxonomy for describing human malfunction in industrial installation. Journal of Occupational Accidents, 1982, 4, 311-335
2James Reason. Human Error. Cambridge University Press, 1990
3James Reason. Menschliches Versagen – Psychologische Risikofaktoren und moderne Technologien. S. 97. Spektrum Akademischer Verlag. Hedielberg 1994
4W. B. Rouse. Models of human problem solving: detection, diagnosis and compensation for system failures. Vorabdruck für Proceedings of IFAC Conference on Analysis, Design and Evaluation of Man-Machine Systems. Baden-Baden 1981.

Haben Sie sich auch schon mal überschätzt?

Heute morgen hat mir meine Partnerin gesagt, dass ich bei einem Unterfangen oder Projekt oft nur Hindernisse sähe und ein Misepeter sei, was eigentlich erstaunlich ist, denn Frauen bewerten im Allgemeinen hypothesenkonträre Informationen höher und können besser mit der entsprechenden Unsicherheit umgehen als Männer1. Beim Lunch machte mich dann ein Freund darauf aufmerksam, dass die Leute meist gar nicht wissen wollen, was in einem Projekt alles schief gehen könnte. Das hat mit dem sogenannten Overconfidence Bias zu tun, dem Hang zu übermässigem Vertrauen. Forscher haben herausgefunden, dass man beim Planen zu sehr auf die Korrektheit des eigenen Wissens vertraut2. Man glaubt, der geplanten oder eingeschlagenen Weg werde erfolgreich sein und schenkt widersprüchlichen Anzeichen einfach keine Bedeutung. Und mit steigendem Komplexitätsgrad der zu lösenden Aufgabe steigt das Ausmass an Selbstüberschätzung3. Was glauben Sie, welche der beiden pakistanischen Städte hat mehr Einwohner, Islamabad oder Hyderabad? Wenn Sie sich für eine Antwort entschieden haben, schätzen Sie bitte, wie sicher Sie sind, die richtige Antwort gegeben zu haben. Was immer Sie für eine Wahrscheinlichkeit schätzen, richtig gelegen zu haben: vermutlich ist sie zu hoch, unabhängig davon, ob Ihre Antwort richtig war oder nicht. Islamabad hat 900’000, Hyderabad 1,17 Mio Einwohner. Den Hang zu übermässigem Vertrauen in ihre Diagnosen und Schätzungen finden Sie nicht nur bei Projekt- und anderen Managern, sondern auch bei Ärzten, Anwälten, Piloten, Bankern, etc.

Dazu kommt, dass ein Plan Ordnung mit sich bringt, wodurch er der Zerstreuung von Besorgnis dient. Wer will sich denn unnötig Sorgen machen? Zwar kostet eine solche Bewertungsverzerrung viel Geld und auch schon mal Menschenleben, aber andererseits würde man ja das Gesicht verlieren. Ein Manager, der sich Sorgen macht oder der Mitarbeiter beschäftigt, die sich überlegen, was für Fehler passieren könnten, ist ein schlechter Manager, meint man. Aber sogenannte High Reliability Organisations, also Unternehmen, die ein Hochrisikogeschäft fahren, konzentrieren sich zumindest seit Tschernobyl immer mehr auf das Unerwartete und sind sehr sensibel für mögliche Fehler4. Ich glaube, dass es heute angesichts der hohen Komplexität nicht mehr reicht, ein Unternehmen oder Projekt einfach nach Best Practices zu führen. Es gehört mehr dazu. Warum die Leute vor diesem Mehr Angst haben, ist mir schleierhaft. Es ist nämlich weder schmerzhaft noch sonst unangenehm.

Wenn man sich zu Beginn eines Projekts ehrlich überlegt, was alles schief gehen könnte, schärft dies die Achtsamkeit. In Entscheidungssituationen können wir bewusst Gründe suchen, die gegen die Hypothese sprechen. Dann stossen wir plötzlich auf Informationen, die der ersten Annahme widersprechen und unter den Tisch gewischt wurden. Das bewahrt uns vielleicht vor voreiligen und törichten Entscheiden, die uns hätten das Gesicht kosten können. Am Schluss eines Projekts machen wir eine wirklich seriöse Lessons-Learned-Sitzung, indem wir fragen, wie das Projekt gelaufen wäre, wenn das und das (nicht) eingetreten wäre und wir (nicht) so und so reagiert hätten.

Gegenüber der totalen Projektlaufzeit nimmt all das nicht viel Zeit in Anspruch und vermittelt uns das gute Gefühl der Achtsamkeit. Das hat nichts mit der Kontrollillusion zu tun, der sich vor allem Planer nach dem Prinzip „Planen statt Handeln“ gerne hingeben.

1Janne Chung, Gary S. Monroe. Gender Differences in Information Processing: An Empirical Test of the Hypothesis-Confirming Strategy in an Audit Context. Accounting and Finance 1998, 256-279.
2Koriat, A., Lichtenstein, S., & Fischhoff, B. Reasons for confidence. Journal of Experimental Psychology. Human Learning and Memory, 1980, 6, 107-118
3Hanno Beck. Die Logik des Irrtums – Wie uns das Gehirn täglich ein Schnippchen schlägt. Verlag Neue Zürcher Zeitung, Zürich 2008
4Karl E. Weick, Kathleen M. Sutcliffe. Das Unerwartete manage – wie Unternehmen aus Extremsituationen lernen. Klett-Cotta. Stuttgart 2003

Was für ein Aufmerksamkeitstyp sind Sie?

Gestern erhielt ich ein Mail mit folgendem Rätsel:

There is a very, very tall coconut tree and there are 4 animlas, a LionLion, a ChimpanzeeMonkey, a GiraffeGiraffe, and a SquirrelSquirrel, who pass by. They decide to compete to seewho is the fastest to get a banana off the tree. Who do you guess will win? Your answer will reflect your personality. So think carefully…Try and answer within 30 seconds.

Got your answer? Now scroll down to see the analysis.

If your answer is:
Lion = you’re dull.
Chimpanzee = you’re a moron.
Giraffe = you’re a complete idiot.
Squirrel = you’re just hopelessly stupid.
A COCONUT TREE DOESN’T HAVE BANANAS. Obviously you’re stressed and overworked. You should take some time off and relax! Try again next year.

Interessant sind die Fälle, in denen die Versuchspersonen die Voraussetzung “Kokosnussbaum” und das Ziel “Banane pflücken” nicht verknüpfen, sondern sich tatsächlich an die Lösung der Aufgabe machen. Ich glaube nicht, dass diese Personen überarbeitet und gestresst sind. Sie denken einfach anders.
Zunächst fällt auf, dass die Begriffe Coconut und Banana so weit wie möglich auseinander liegen. Dazwischen befindet sich diese komische Aufzählung verdoppelter Tiernamen. Wer sich dadurch ablenken lässt, hat schon verloren. Es handelt sich hier eindeutig um einen Aufmerksamkeitsfehler, den James Reason1 Schnitzer (engl. Lapse) nennt.

Das heisst aber nicht, dass es sich um eine Aufmerksamkeitsschwäche handelt. Im Gegenteil könnte es sein, dass die Versuchsperson sehr zielgerichtet auf die Aufgabe los steuert. Sie programmiert ihre Aufmerksamkeit auf die Erkennung der eigentlichen Aufgabe, scant dann den Text ziemlich automatisiert durch und lässt sich „wecken“, sobald die Aufgabenstellung erreicht ist. Der Begriff coconut tree interessiert die Versuchsperson nicht im Geringsten, weil sie zuerst wissen möchte, worum es eigentlich geht. Ein anonymer Autor schreibt in einem Aufsatz über „Aufmerksamkeit“2: Nur die Inhalte, die von einem Individuum mit Aufmerksamkeit besetzt werden, rücken ins Bewusstsein. Das nennt der Autor selektive Aufmerksamkeit. Er erklärt, dass Aufmerksamkeit ein kompetitives System ist, eine Vielfalt von Programmen, die miteinander im Wettbewerb stehen. Das eine Programm will die Aufmerksamkeit vielleicht auf Begriffe wie Coconut oder Banana legen, das andere auf die auffälligen Tiernamen und das dritte auf die effektive Zielsetzung.

Bei dem einen Typ von Versuchspersonen gewinnt das erste Programm, bei einem anderen Typ das letzte. Versuchspersonen vom ersten Typ sind eher integrative Menschen, die alles aufsammeln, was wichtig sein könnte, während diejenigen vom zweiten Typ schnurstracks auf das Ziel los jagen ohne rechts und links zu schauen. Vielleicht sind die ersteren auch die geselligeren und stellen im Gespräch zuerst den Rapport zum Gegenüber her, während die anderen sofort zum Thema kommen. Aber das sind natürlich nur Spekulationen.

Auf alle Fälle können Projektmanager viel aus der Art und Weise lernen, wie sie an die Aufgabe heran gehen. Steuern sie sofort auf das Projektziel los oder „hören“ sie zuerst in die Kundenanforderungen hinein auf die Gefahr hin, das Ziel aus den Augen zu verlieren? Vertiefen sie sich in Spezifikationsdetails (doppelte Tiernamen) und laufen dadurch die Gefahr, den Blick auf das Wesentlichen zu trüben oder gewichten sie alles gleichermassen, können dafür aber nur schwer die Ziele priorisieren?

1 James Reason. Human Error. Cambridge University Press 1990
2 http://paedpsych.jku.at/cicero/GEDAECHTNISGEHIRN/Aufmerksamkeit.pdf