Dieser Beitrag ist etwas ganz Besonderes. Es ist nämlich ein Gastbeitrag von niemand geringerem als Stephanie Borgert, die bekannte Erfolgsautorin mehrere Bestseller zum Themenkreis „Komplexität“. Ihr neustes Buch „Die Irrtümer der Komplexität“ habe ich hier rezensiert.
Im folgenden Artikel sinniert Stephanie Borgert über neuguineanische Schweine in den Gärten der Nachbarn und was das mit dem Anspruch zu tun hat, dass alles fehlerfrei und definitiv sein muss.
Vielen Dank, Stephanie!
Das „Agieren in nicht vorhersagbaren Kontexten“ ist die Herausforderung für Manager. Täglich erscheinen Artikel mit den Schlagwörtern „experimentieren“, „Fehlermachen“, „scheitern“ und sie proklamieren deren Bedeutung. So weit, so gut. In einem komplexen Umfeld treffen Manager Entscheidungen auf der Basis von Experimentieren (Ausprobieren) und Muster erkennen. Dabei werden Fehler (also nicht erwünschte Ergebnisse) entstehen und das führt möglicherweise zum Scheitern.
Wird das Thema aufgegriffen, werden meistens Beispiele von Insolvenzen, „totalem“ Scheitern und einem dramatischen Untergang bemüht. Das ist zwar anschaulich und eindrücklich, aber auch irreführend. Denn meistens bewegen wir uns als Individuen genauso wie jede Organisation auf der vielfältigen Achse zwischen „makellos erfolgreich“ und „total in die Hose gegangen“. Gleichzeitig gehen die Artikel nie in die Tiefe. Da es konzeptionell große Unterschiede im Fehlermachen beziehungsweise -vermeiden gibt, ist das aber dringend notwendig.
Fail-safe oder Safe-fail
Ganz offensichtlich ist es von Vorteil, wenn in einem Kernkraftwerk durch mehrere Stromkreise sichergestellt ist, dass bei einem Stromausfall die Energieversorgung weiter gewährleistet ist. Umfangreiche technische Konstrukte arbeiten berechtigterweise mit diesem Fail-safe-Prinzip, bei dem Redundanzen auf der Basis errechneter Wahrscheinlichkeiten geschaffen werden. Leider wird dieses Prinzip oft eins zu eins auf Organisationen übertragen. Egal ob Produktionsprozess oder Projektmanagement, die Systeme werden robust, narren- und ausfallsicher aufgesetzt. Mit dem Ziel, der (möglichst) vollständigen Fehlervermeidung wird alles Erdenkliche unternommen, um deren Wahrscheinlichkeit zu reduzieren. Das führt zu dem Ergebnis, dass die Menschen sich so verhalten, als läge die Wahrscheinlichkeit bei null Prozent. Welch ein Denkfehler in komplexen Kontexten!
Dadurch beschränkt sich auch das Experimentieren auf die Trial-and-Error-Methode. Bei einem neuen Produkt heißt das beispielsweise, es wird erst gelauncht, wenn es fertig ist und alle sicher sind, dass es erfolgreich sein wird. Diese Sicherheit ist aber ein Irrglaube, denn eine Garantie gibt es am Markt nie. Bleibt der Erfolg aus, wird das nächste Produkt platziert. Eins nach dem anderen, Trial-and-Error eben. Der Preis für diese Art des Managements ist hoch, die Währung Flexibilität, Schnelligkeit und Anpassungsfähigkeit.
Von Gärten und Schweinen
Ein alternativer Ansatz zur Schadensvermeidung ist die Schadensbegrenzung. Das Safe-fail-Prinzip unterstellt, dass Fehler passieren und nicht zu vermeiden sind. Experimentieren heißt in dem Fall, tatsächlich Fehler zu machen und zu scheitern. Ohne das lassen sich die Grenzen des Machbaren nicht ausloten. Systemisch bedeutet, „an Grenzen zu stoßen“, das System zu regulieren. Der kanadische Ökologe Buzz Holling erläuterte das Prinzip an dem Ritual einer Bevölkerungsgruppe Neuguineas: Die Menschen dort bauen einen Großteil ihrer Nahrung selbst an und zwar in ihren eigenen Gärten. Schweinefleisch ist dort ebenfalls ein wichtiges Lebensmittel, wird jedoch nur zu einem bestimmten zeremoniellen Anlass gegessen. Diese Zeremonie findet immer statt, wenn die „Betriebstemperatur“ hoch ist und Konflikte aufkeimen. Dann werden die Schweine verzehrt und die Götter um Versöhnung gebeten. Der wesentliche Grund für die Konflikte ist die hohe Schweinepopulation. Sie beginnen die Gärten zu verwüsten und das provoziert Streit unter den Nachbarn. Nach der Zeremonie ist der Streit ausgeräumt. Dabei dient das Ritual weniger dazu, die Schweinepopulation zu kontrollieren, sondern die Bevölkerung vor unkontrollierter Instabilität durch Konflikte zu bewahren.
Wäre das Zusammenleben dieser Menschengruppe in Neuguinea durch Prozesse, Verfahren und Richtlinien aus unseren Organisationen geregelt, so wäre sicher zuerst die Anzahl an Schweinen pro Familie definiert und festgelegt. Die Schweinepopulation könnte also insgesamt einen gewissen Schwellwert nicht überschreiten. Wenn gleichzeitig durch den Bau von Zäunen und der Regel die Einhaltung von „Schweine dürfen keine fremden Gärten betreten“ der Bewegungsradius geklärt ist, kann nichts mehr schiefgehen. Zur Feier der entstandenen Schadensvermeidung gäbe es halbjährlich eventuell eine Zeremonie, auch wenn dafür gar kein Anlass mehr existiert. Es wäre der übliche Versuch, ein komplexes System zu steuern und Fehler zu vermeiden.
Der kontrollierte Ausfall
In Neuguinea hat die Gruppe dagegen eine Methode gefunden, kontrollierte Ausfälle zu generieren. Die anschwellenden Konflikte unter den Nachbarn sind das sichere Signal, dass das System eine Korrektur benötigt. Die Zeremonie dient genau dieser Korrektur. Das System ist also nicht überreguliert (wie die meisten Organisationen), sondern selbstorganisiert. Einige, wenige Restriktionen regeln „wie diese Bevölkerungsgruppe tickt“. Die Menschen dort lassen also das System bis an seine Grenzen laufen, Fehler entstehen. Die sind der Anlass für eine Korrektur, finales Scheitern wird so verhindert. Die Flexibilität der Gesellschaft bleibt erhalten.
Was bedeutet das nun für Organisationen? Für die Antwort möchte ich ein Beispiel vorstellen, denn ein generelles Rezept existiert nicht. Komplexität ist immer Kontext, aber es existieren einige Inspirationen, von denen sich lernen lässt.
Google ist hier, wie so oft, eines der guten Beispiele. Als ein Meister der Safe-fail-Experimente bringt das Unternehmen laufend zahllose Produkte und Dienstleistungen auf den Markt. Angefangen von Dodgeball über Jaiku, Wave, Google Catalogs oder Mashup Editor. Die meisten dieser und vieler anderer Produkte sind unbekannt. Sie sind fehlgeschlagene Experimente. Es ist eine wesentliche Eigenschaft von Google, dass es die Fähigkeit zum Fehlermachen und aus ihnen zu lernen besitzt. Projekte werden beendet, sobald sie als Misserfolg bewertet werden. Scheitern ist ein wichtiger Teil des Erfolgskonzeptes. Fehler machen – gewusst wie:
- Probiere viele Dinge aus.
- Gehe davon aus, dass einige fehlschlagen.
- Begrenze die Kosten des möglichen Fehlschlages.
- Gestehe Fehler und ein Scheitern frühzeitig ein.
Hinter diesen vier Punkten steckt mehr als „sich einfach mal ein Experiment ausdenken“. Es geht um Haltungen und Sichtweisen im Management einer Organisation. Für das Meistern von Komplexität ist der „richtige“ Umgang mit Experimenten, Fehlern und Scheitern essentiell.
Besten Dank Stephanie, besten Dank Peter!
Im Artikel wird ein wichtiger Aspekt im Umgang mit Komplexität behandelt und ist sicherlich ein wesentlicher Erfolgsfaktor für innovative Unternehmen. Wie beschrieben klingen die vier Erfolgsrezepte fast schon banal – aber deren Berücksichtigung im Alltag wird immer schwieriger – das jedenfalls ist meine Erfahrungen aus dem Beratungsalltag!
Gerade die sich stark entwickelnden IT-Systeme (inkl. Support mittels Google) verändern die Wahrnehmung der Führungskräfte nachhaltig. Big Data verführt zu der Annahme, dass die Zukunft noch besser definiert werden kann. Die Forderung nach „Evidenz-basierte Entscheiden“ wächst, ja wird immer mehr gefordert!
Die Ironie liegt darin, dass wir diese neuen Möglichkeiten nicht systemisch, sondern technokratisch nutzen: Extrapolationen, Statistik, Korrelationen, etc. – alles Kennzahlen, welche die Vergangenheit beschreiben und keinen Beitrag zur Zukunftsfähigkeit liefern.
Systemisch würde andererseits bedeuten, dass über selbst-reflexive Mustererkennung z.B. Fehler zu Lernprozessen führen, oder ein Verständnis für notwendige Strukturveränderungen aufbaut (Change), Investitionen in systemische Selbstverstärkungen erkennen lässt (Erfolgsdynamik), etc. Damit würde der Prozess „safe-fail“ aufgewertet und nicht einfach in ein „etwas Neues auszuprobieren“ münden.
Der Beitrag zum Prinzip „safe-fail“ thematisiert die „Fragilität“ in unseren Systemen. So lange es gut geht, sind wir fasziniert! Sobald etwas nicht funktioniert, suchen wir nach den Schuldigen, einer weiteren „fragilen Strategie“.
Antifragile Systeme – d.h. zukunftsfähige Systeme – benötigen diese „safe-fail“ Kultur. Diese sollte aber auch mit einer „Systemischen Selbstreflexion“ gekoppelt werden, damit die Fehler nicht zu Symptombekämpfungen verkommen.
Damit plädiere ich für eine „smart-safe-fail“ Strategie – womit die Antifragilität in Unternehmen erhöht werden kann.