Unter diesem Titel hat der deutsche Philosoph Hans Jonas 1979 sein Hauptwerk veröffentlicht. Es sollte eine Ethik für die technologische Zivilisation sein.
Die Komplexität der Welt nimmt zu, weil immer mehr Systeme miteinander verbunden sind und voneinander abhängen. Ein Fehler in einem System kann einen Schneeball auslösen, wie beispielsweise in Fukushima. Das Unerwartete tritt zwar zunächst in technischen Systemen auf, da diese aber die Gesellschaft bedienen, greift es auch auf soziale Gruppen über.
Ist übermässiges Vertrauen noch zu verantworten?
Ohne auf Jonas‘ Werk einzugehen, möchte ich eine Passage herauspflücken, die mir in unserem Zusammenhang hilfreich erscheint. Jonas sagt, dass man sich im Handeln eher nach dem „worst case“ anstatt nach dem „best case“ richten sollte, um der Versuchung der Abwiegelung zu entgehen.
Leider ist auch nach Tschernobyl, 9/11, Deepwater Horizon und Fukushima die „We can“-Haltung beliebt und verbreitet. Übermässiges Vertrauen zeichnet soweit jede Projektplanung aus. Je komplexer unsere Welt aber ist, desto sensibler reagiert sie auf unsere Unterlassungen und desto mehr Verantwortung muss der Einzelne übernehmen, wie ich das in meinem letzten Blogpost gefordert habe[1]. Ich kann aber meine Veranwtortung nur übernehmen, wenn alle anderen sie auch übernehmen. Geht das Projekt schief, fühle ich mich als Projektmanager nicht in der Verantwortung, wenn die anderen Stakeholders am Projekt ihre Verantwortung nicht wahrgenommen haben.
Ein Beispiel für die Verantwortung, die ich meine, liegt bei Absolventen einer Weiterbildung. Üblicherweise gehen sie zu vorgegebenen Zeiten in ein Schulzimmer und erwarten, dass ihnen dort ein Dozent etwas erklärt. Das schreiben sie dann auf und nehmen sich vor, es vor der Prüfung auswendig zu lernen. Einen Tag nach der Prüfung haben sie das Wissen wieder vergessen. Hauptsache ist jedoch, dass das Diplom bleibt.
In letzter Zeit macht ein Konzept von sich reden, das sich „Inverted Classroom“ nennt. Dabei sollten sich die Studierenden das Wissen selber aneignen. In der Klasse wird es dann nur angewendet, um zu testen, ob es überall verstanden ist. Ich habe einige Versuche unternommen, Inverted Classroom durchzuführen. Die Erfahrung hat gezeigt, dass sich die Studierenden nicht in der Verantwortung sehen, sich den Stoff selbstständig anzueignen. Wozu bezahlen sie denn Schulgeld?
Zur Übernahme der Verantwortung in unserer hochkomplexen Welt gehört für mich auch die Präsenz in den digitalen Medien. Es genügt nicht, sich ab und zu mit einem neuen Berufskollegen oder Kunden in XING zu verlinken, ohne dort auch in Gruppen und Foren aktiv zu sein. Der ständige Dialog mit Personen, die sich ebenfalls in komplexen Situationen befinden, z.B. via Twitter, gehört ebenso zur individuellen Verantwortung.
Die Ursachen des Unerwarteten kann selbstverschuldet sein
In Projekten gibt es neben den üblichen Risiken, die man kennt und sich auf ihr Eintreffen rüstet, das Unvorhersehbare. Es gibt dafür keine Beispiele, denn sobald ich ein Beispiel nenne, ist es nicht mehr unvorhersehbar. Edward Yourdon hat in seinem Buch „Himmelfahrtskommando“[2] versucht, Beispiele von Unvorhergesehenem in Projekten zu geben:
Ihre zwei besten Programmierer sind gerade in Ihr Büro marschiert, um Sie darüber zu informieren, dass sie a) heiraten werden, b) den Zeugen Jehovas beitreten und c) heute ihr letzter Tag in ihrem alten Job ist
Jetzt, wo er das gesagt hat, wäre es für Sie nicht mehr unerwartet, wenn es in Ihrem Projekt tatsächlich eintreffen würde. Sie können sich jetzt Gedanken machen, wie Sie reagieren würden, wenn Ihr Projekt tatsächlich plötzlich Ressourcen abgeben müsste.
In der Tat kann man versuchen, die Ursachen des Unerwarteten zu unterteilen in gänzlich extrinsische (der buchstäbliche „Blitz aus heiterem Himmel“) und teilweise selbstverschuldete. War z.B. Fukushima unerwartet? Das Seebeben und der darauffolgende Tsunami waren in der Tat völlig unvorhergesehen und hatten extrinsische Ursachen. Dass hingegen die Sicherheitssysteme der direkt am Ufer erbauten Atomanlagen dabei in Mitleidenschaft gezogen wurden, war durchaus selbstverschuldet. Die Betreiber machten sich offenbar zu wenig Gedanken, was an diesem Standort alles passieren konnte. Das war unverantwortlich.
Wir entscheiden (in Projekten) meistens aufgrund pragmatischer und kostenspezifischer Leitlinien und ohne weitergehende Folgeabschätzungen. In einem Projekt musste ich für einen Telefonprovider auf ein neues Voice Messaging System migrieren. Das Produkt war eben erst entwickelt worden. Die Entwicklungsabteilung, die sich weit weg vom Kunden im Ausland befand, übernahm die de facto Projektleitung, während ich bloss de jure Projektleiter und kommerzieller Partner des Kunden war. Trotz meines Protestes verkaufte der Accountmanager das System, weil er das Geschäft machen wollte.
Für mehr Handlungsfolgeabschätzungen in Projekten
Es zeigte sich jedoch, dass das System in der speziellen Kundenumgebung nicht funktionierte und der Kunde verlangte Schadenersatz vom Lieferanten, den ich vertrat. Die Entwicklungsabteilung behauptete, dass wir den Kunden nicht im Griff gehabt hätten und weigerte sich, zu zahlen. So kam es zu einem unnötigen Streit, in dessen Verlauf in der lokalen Organisation Köpfe rollten. Der unverantwortliche „We can“-Optimismus wider besseren Wissens, das Aus-dem-Wind-Schlagen jeglicher Warnungen und die Gier nach dem Geschäft haben das Unerwartete verursacht.
Wie kann man aber mittel- und langfristige Konsequenzen von Entscheidungen und Handlungen vorhersagen? Es ist klar, dass es keine Möglichkeit gibt, in die Zukunft zu sehen. Pfadabhängigkeiten engen aber mögliche Entwicklungen schon mal ein, so dass nicht einfach „alles“ passieren kann. Vergleiche mit ähnlich gelagerten Projekten können wertvolle Hinweise geben, auch wenn jedes Projekt einzigartig ist. Im Übrigen gibt es mittlerweile mächtige Entscheidungsunterstützungswerkzeuge, die helfen, mögliche Entwicklungsszenarien aufzuzeigen. Ein Beispiel sind Peter Senges systemische Archetypen. Systemisches Denken ist eine Hauptkompetenz einer verantwortungsvollen Gesellschaft in einer hochkomplexen Welt[3].
Wer nun sagt, dass Unerwartetes nicht simuliert werden könne, hat zwar recht, macht sich aber mitverantwortlich für Katastrophen, die vielleicht durch weitergehende Analysen hätten verhindert werden können.
[1]Addor, P. Muss Führung Überzeugungsarbeit leisten? Dieser Blog, 2014
[2]Yourdon, Edward. Himmelfahrtskommando. Aussichtslose IT-Projekte überleben. Verlag Moderne Industrie. 2004
[3]Senge, Peter. Die fünfte Disziplin. Kunst und Praxis der Lernenden Organisation. Klett-Cotta Verlag. 2008 und
Senge, Peter et al. Das Fieldbook zur Fünften Disziplin. Klett-Cotta Verlag. 2008


Schreibe einen Kommentar