Der bekannte US-Trader und Analyst Perry Kaufman hat mir das Buch empfohlen. Die Erstauflage erschien im Jahr 1989. Seitdem ist es zu einem Standardwerk des Querdenkens geworden. Der Autor, Dietrich Dörner, war Professor für Psychologie mit den Forschungsschwerpunkten kognitive Psychologie, Denken und Handlungstheorie.
“Komplexität erzeugt Unsicherheit. Unsicherheit erzeugt Angst. Vor dieser Angst wollen wir uns schützen. Darum blendet unser Gehirn all das Komplizierte, Undurchschaubare, Unberechenbare aus. Übrig bleibt ein Ausschnitt – das, was wir schon kennen. Weil dieser Ausschnitt aber mit dem Ganzen, das wir nicht sehen wollen, verknüpft ist, unterlaufen uns viele Fehler – der Misserfolg wird logisch programmiert.” (Buchkommentar Rheinischer Merkur) [1]
Also, fangen wir an und reden nicht länger um den heißen Brei. Kapitel 1 (Einleitung) lass ich außen vor.
Kapitel 2: Einige Beispiele (S. 22-57)
Im Buch werden immer wieder Planspiele vorgestellt, in denen Versuchspersonen Entscheidungen in komplexen Situationen treffen mussten (was oft wenig erfolgreich ausfiel). Kapitel 2 beginnt mit einigen Beispielen wie einer Simulation, in der es um die Verbesserung der Lebenssituation in einem kleinen, autarken, afrikanischen Dorf geht.
Viele Teilnehmer entschieden sich anfangs für eine bestimmte Strategie und behielten diese bei. Gute Ergebnisse erzielten dagegen eher diejenigen, die mehr Aspekte des Systems berücksichtigten und mehr Warum-Fragen stellten. Denn so fanden sie die richtigen Bereiche des Systems, in denen sich die wichtigen Probleme wirklich lösen ließen – und auf die es sich zu konzentrieren galt. Dabei hing es nicht vom IQ der Teilnehmer ab, ob sie zu den guten oder schlechten Teilnehmern zählten.
Schlechte Ergebnisse erzielten diejenige Teilnehmer, die ihre Anfangshypothese als Realität ansahen. Sie stellten mehr gibt-es-Fragen und sprangen oft von einem Thema zum nächsten. Die Unfähigkeit, mit Problemen fertig zu werden, führte oft auch zum Delegieren und Verlagern, um Verantwortung für die Konsequenzen loszuwerden (zu Unrecht!).
Kapitel 2 beinhaltet auch eine Fallstudie zum Tschernobyl-Unglück. Das Buch zeigt, dass dieses zu 100% auf psychologische Faktoren zurückzuführen war. Eine Gruppe von Experten machte eine Reihe von Fehlern (wahrscheinlich gerade deswegen, weil sie Experten waren). Einige Dinge aus dieser Fallstudie, die zur Katastrophe beigetragen haben, sollten uns zu denken geben:
● Werden Sicherheitsvorschriften überschritten, ohne dass es Konsequenzen gibt, so erhöht dies die Tendenz, die Überschreitungen auch beim nächsten Mal durchzuführen (man bekommt das Gefühl, alles im Griff zu haben – wie im Trading, wenn man ohne Stopps handelt)
● Neben den Hauptwirkungen werden Neben- und Fernwirkungen unterschätzt oder gar nicht erst beachtet
● Regulierung des aktuellen Zustands statt des Prozesses
● Zeitdruck führt zur Überdosierung von Maßnahmen
● Unterschätzen exponentieller Abläufe (es sei denn, man bekommt ständig Rückmeldungen zur Entwicklung)
Kapitel 3: Die Anforderungen (S. 58-73)
Komplexe Systeme können eine Eigendynamik entwickeln, die schwer einzuschätzen ist. Dies resultiert aus oft sehr vielen einzelnen Merkmalen, die vernetzt, intransparent und dynamisch sind. Je stärker die gegenseitigen Abhängigkeiten, desto komplexer das System. Dazu kommt, dass viele Merkmale dem Entscheider nicht oder nicht unmittelbar zugänglich sind und es nur eine begrenzte Zeit zur Informationssammlung gibt (gute Parallele zum Trading).
Hohe Komplexität ist oft auch ein Problem für Politiker. Sie macht es viel schwieriger, als es von außen den Anschein hat, objektiv das Richtige zu tun. Dies wird in der Öffentlichkeit regelmäßig unterschätzt, wenn an Stammtischen behauptet wird, “das könnten wir alles viel besser, wenn man uns nur ließe”.
Welche Lösungen existieren nun, um komplexe Systeme fassbar zu machen?
● Superzeichen: Diese vereinen viele Merkmale zu einem Gesamtbild oder Gesamtmerkmal, so wie unser Gehirn die Details zu Augen, Nase und Mund zu einem Gesicht aggregiert, das es erkennen und zuordnen kann. Eine gute Parallele im Trading sind Kursmuster, die mehrere Einzelmerkmale vereinen.
● Ungefährlösungen. Es ist wichtig, die Entwicklungstendenzen des Systems zu erfassen – diese sind oft wichtiger als der Status Quo. Auch das kennen wir von Trends an der Börse. Auch dort sind Ungefährlösungen das Mittel der Wahl (und nicht etwa Perfektionismus). Im Ergebnis sollte das Handeln in festen Prozessen oder Ritualen erfolgen, da so nicht in jeder Situation neu überlegt werden muss, was zu tun ist.
● Realitätsmodell: Aus dem vorhandenen Strukturwissen darüber, wie die Variablen des Systems zusammenhängen, lässt sich ein Modell erstellen. Dieses kann explizit (abfragbar) oder implizit (intuitiv) sein. Intuition findet sich häufig bei Fachleuten mit großem Erfahrungsschatz.
Kapitel 4: Der Umgang mit Zielen (S. 74-106)
Ziele lassen sich positiv oder negativ formulieren. Ein positives Ziel ist es, wenn du etwas Bestimmtes erreichen willst. Ein negatives Ziel ist dagegen ein Vermeidungsziel – du willst also, dass etwas nicht der Fall ist, aber legst dadurch nicht fest, was du erreichen willst. Meist ist es besser, ein negatives Ziel in ein positives umzuformulieren und es spezifisch zu machen.
Außerdem gibt es implizite Ziele. Diese strebt man an, ohne es zu wissen. Ein Beispiel ist das Ziel Gesundheit, wenn man gesund ist.
Um Ziele zu erreichen, müssen meist erst Probleme gelöst werden. Häufig lässt sich im täglichen Leben beobachten, dass sich Menschen um Probleme kümmern, die sie aktuell haben – und nicht um welche, die (noch) nicht da sind.
Klingt auf den ersten Blick logisch. Aber dadurch werden oft Fernwirkungen nicht bedacht. So kann aus der Lösung für Problem A das Problem B entstehen. Ein Beispiel sind Kopfschmerztabletten, die du auch dann nimmst, wenn als Nebenwirkung Bauchschmerzen angekündigt werden.
Diese Strategie nennt sich Reparaturverhalten bzw. Durchwursteln. Es wird häufig bei großen Missständen angewandt, also bei Problemen, die laut genug schreien. Oft ist dabei die Analyse des Systems mangelhaft: Es kann sein, dass man die falschen Probleme löst (die, die man lösen kann, und nicht die, die man lösen soll), da man die Wechselwirkungen nicht kennt (und nicht weiß, dass man sie nicht kennt!).
Versteckte, sich langsam entwickelnde Probleme bleiben so unerkannt. Denn dafür gibt es zunächst nur schwache Indizien, die im Eifer des Gefechts nicht auffallen. Insgesamt ist das Reparaturverhalten aber oft besser als gar nichts tun und die Situation sich selbst zu überlassen.
Dadurch, dass die Variablen eines Systems vernetzt sind, sind auch die Ziele vernetzt. So können Zielkonflikte entstehen, die das Erreichen mehrerer Ziele unmöglich machen. Ein Beispiel sind Freiheit und Gleichheit – es ist zumindest sehr schwer, diese beiden Ziele miteinander zu vereinbaren.
Um Komplexität zu verstehen, müssen wir das System in Teile zerlegen und die Zentralprobleme finden. Dies sind Dinge, die viele andere Komponenten im System beeinflussen und ohne die andere Ziele ohnehin nicht erreichbar sind. Zudem müssen die Ziele anhand der Kriterien Wichtigkeit und Dringlichkeit eingeordnet werden.
Oft wird in komplexen Situationen vergessen festzulegen, welche aktuellen Merkmale bei der Lösung beibehalten werden sollten. Denn selten ist alles schlecht, was momentan gegeben ist. Ein weiterer Vorteil: Durch Herausarbeiten der Dinge, die erhalten bleiben sollen, werden sonst unbemerkte implizite Probleme explizit und man versteht das System noch besser.
Beim Entwickeln von Lösungen favorisieren wir häufig Probleme mit mittlerer Schwierigkeit. Diese sind spannend und interessant und erzeugen im Erfolgsfall ein Flow-Erlebnis. Ist der Erfolg dagegen zu gewiss, dann macht es von Vornherein keinen Spaß und frustriert den Entscheider. Ist der Erfolg zu sicher, ist die Herausforderung nicht gegeben.
Manche Menschen neigen bei Misserfolgen dazu, Verschwörungstheorien zu entwickeln: “Alles ist extra so gemacht, dass ich es nicht schaffen kann.” Auch das ist ein Phänomen, das oft beim Trading entsteht, wenn gerade nichts funktioniert. Es ist eine menschliche, emotionale Reaktion. Denn es ist schwer, sich einzugestehen, dass man selbst verantwortlich ist und direkt oder indirekt die negativen Folgen erzeugt hat. Und das, obwohl man doch “gute Absichten” hatte.
Kapitel 5: Information und Modelle (S. 107-155)
Das Kapitel beginnt mit einem schönen Beispiel: Was tun, wenn der Gartenteich stinkt?
Variante A: Fische raus, Wasser raus, Boden ausheben, neuer Kies und Bodengrund, Pflanzen rein, Wasser rein, Fische rein.
Variante B: Installieren einer kleinen Pumpe für die permanente Umwälzung des Wassers.
Das Beispiel zeigt, dass es in komplexen Systemen oft Rückkopplungseffekte gibt. Grundsätzlich existieren davon 2 verschiedene Arten:
● Positive, sich gegenseitig verstärkende Rückkopplungen. Diese sind oft gefährlich für die Systemstabilität.
● Negative, abpuffernde Rückkopplungen. Diese haben die Tendenz, einen bestimmten Zustand aufrecht zu erhalten.
Negative Rückkopplungen wirken als Puffer im System. In der Natur gibt es diese Puffer zum Beispiel in der Räuber-Beute-Beziehung. Oder bei einem Brunnen, wo entnommenes Wasser schnell wieder nachläuft.
Doch obwohl es anfangs so scheint, ist der Puffer nicht unerschöpflich. Wird der Brunnen exzessiv beansprucht und liegt einmal trocken, dann ist das System zusammengebrochen.
Um dem vorzubeugen, müssen die kritischen Variablen des Systems berücksichtigt werden. Das sind jene, die mit vielen anderen Variablen in Wechselwirkung stehen. Beeinflusst man sie, beeinflusst man den Zustand des gesamten Systems.
Anders dagegen Indikatorvariablen. Diese hängen von vielen anderen Variablen im System ab, beeinflussen es aber selbst nur in geringem Maße. Sie sind daher gut geeignet, um den Zustand des Systems zu messen.
Wie kann man nun die Struktur eines Systems erkennen? Die gängigste Variante ist einfach das Beobachten, wie sich die Werte der Variablen im Zeitablauf verändern. An der Börse kennen wir das von Kurscharts. Selbst dann, wenn man vollständige Kenntnis über die Zusammenhänge in einem System hat, braucht man Daten über dessen aktuellen Zustand, um Prognosen treffen und die Wirkung von Eingriffen abschätzen zu können.
Ein guter Weg, um komplexe Systeme einfach zu beschreiben, sind reduktive Hypothesen. Diese vermeiden komplizierte Betrachtungen und versuchen, die Welt in einem Guss zu erklären. Ein Beispiel ist das Ziel, eine hohe Zufriedenheit der Bevölkerung zu erreichen. Solche Beschreibungen sind stabil und leicht zu vermitteln.
Was aber, wenn Maßnahmen nicht wie geplant funktionieren? Dann können bei den Verantwortlichen zwei Arten von Fluchtverhalten auftreten:
● Horizontalflucht: Man zieht sich in einen gut bekannten Teil des Handlungsfelds zurück und bearbeitet dort ein kleines, überschaubares Problem.
● Vertikalflucht: Man beschäftigt sich nicht mehr mit der widerspenstigen Realität, sondern mit einem genügsamem Abbild in der eigenen Vorstellung.
Das Kapitel schließt mit einer alten Weisheit: “Je mehr man weiß, desto mehr weiß man auch, was man nicht weiß.” Die Klugen trauen sich nie. Ein bisschen Dummheit ist bei den Personen, die schwierige Entscheidungen zu treffen haben, daher durchaus funktional.
Kapitel 6: Zeitabläufe (S. 156-234)
Grundsätzlich gibt es 3 Arten der Prognose:
● Momentanextrapolation: Der augenblickliche Trend wird mehr oder weniger linear fortgeschrieben. Das vermeidet die Gefahr, den aktuellen Umständen eine zu hohe Bedeutung beizumessen. Ein Nachteil ist, dass Richtungs- und Geschwindigkeitsänderungen nicht antizipiert werden.
● Zentralidee: Hier wird eine reduktive Hypothese formuliert. Diese ist als zentraler Faktor bestimmend für den Rest der Entscheidungen, die sich darauf beziehen.
● Strukturextrapolation: Wir nehmen bekannte Muster und verändern sie in Richtung möglicher künftiger Zustände und Formen.
Die Strukturextrapolation ist oft schwierig. Denn wir können uns die Zukunft nicht vorstellen, wenn dazwischen Strukturbrüche liegen.
Beispiele:
● Die ersten Autos waren Pferdewagen ohne Pferde
● Jules Vernes’ Reise zum Mond begann mit einem Kanonenschuss
● Aliens in Filmen sehen Menschen “zufällig” immer recht ähnlich
Doch es gibt einen alternativen Ansatz. Hier werden bestimmte Bedingungen formuliert, und es wird dann überlegt, wie die Realität aussehen könnte, die diesen Anforderungen gerecht wird.
Ein weiteres Problem bei Prognosen ist, dass Wachstumsprozesse oft unterschätzt werden. Auch von Experten. Der ADAC schätzte im Jahr 1979 den künftigen Pkw-Bestand in Deutschland für das Jahr 2000, aber der genannte Wert wurde schon vier Jahre später, 1983, überschritten.
Häufige Ursache solcher Fehlprognosen: Man hat subjektiv das Gefühl, der Trend könne nicht mehr so weitergehen, was dann entsprechend eine Rolle bei Auswahl des objektiven Modells spielt. Auch dieses Phänomen sehen wir an der Börse immer wieder (“es kann nicht weiter steigen/fallen”).
Ein weiteres Merkmal von komplexen Systemen sind Totzeiten. Diese entstehen dadurch, dass die Informationsübertragung und -verarbeitung Zeit beansprucht und so für Schwingungen im System sorgt. Eine Lösung ist es, statt Einzelwerten eher Mittelwerte als grobe Niveaus zu betrachten. So wie Gleitende Durchschnitte im Trading.
Treten in komplexen Systemen Katastrophen auf, dann scheinbar plötzlich und ohne Vorwarnung. Aber meist belasteten im Hintergrund laufende Entwicklungen das System schon lange zuvor. So baute sich immer mehr Druck auf, bis irgendwann die stabilisierenden Puffer wegbrechen und System kollabiert.
Ein Beispiel ist das Räuber-Beute-Experiment im Buch. Dabei sollte nicht nur der aktuelle Zustand von Räuber und Beute betrachtet werden. Vor allem die Ablaufcharakteristika sind entscheidend: Wachstum bzw. Verfall der Populationen und Beschleunigung bzw. Abbremsung der Entwicklung.
Wichtig ist die Erkenntnis, dass erfolgreiche Versuchspersonen aus ihren Fehlern lernten und ihr Verhalten änderten. Zudem sollte man sich Notizen zu früheren Entwicklungen machen, um nicht nur dem Augenblick ausgeliefert zu sein – erneut eine hervorragende Parallele zum Trading.
Kapitel 7: Planen (S. 235-275)
Beim Planen gibt es 2 Varianten: Vorwärtsplanen und Rückwärtsplanen. Am besten ist es, beide Varianten zu kombinieren. Um rückwärts planen zu können, ist aber zunächst ein ganz klares Ziel notwendig.
Ein Instrument zum Planen ist es, den Suchraum einzuengen und zu erweitern, um die Möglichkeiten auszuloten. Um den Suchraum einzuengen, kannst du:
● nur Dinge betrachten, die einen Fortschritt Richtung Ziel bringen
● Zwischenziele festlegen, die Situationen schaffen, von denen aus du effizient mit vielen Optionen weiterhandeln kannst
● Maßnahmen auf Basis vergangener Erfolge ausarbeiten
Um den Suchraum zu erweitern, kannst du:
● mit Versuch und Irrtum arbeiten, um herauszufinden, was funktioniert und was nicht
● gemeinsame Merkmale erfolgloser Lösungen finden, die es künftig zu vermeiden gilt
● Analogien erarbeiten, um eine bessere Vorstellung des Systems zu bekommen
Wichtig ist beim Planen, die Situation vorurteilsfrei zu betrachten und den richtigen Auflösungsgrad zu wählen. Zuviel Planung kann nämlich, ebenso wie zu viele Informationen, die Unsicherheit erhöhen statt verringern. Letztlich wird es immer eine Rest-Unsicherheit geben, die sich nicht vermeiden lässt. Also rechne immer mit den Unerwarteten und lasse entsprechend Spielraum, um später nachsteuern zu können. Erneut eine tolle Parallele zum Trading!
Statt einer zu detaillierten Planung sind daher meist Patentrezepte die bessere Wahl. Und nach der Planung kommt das, was meist schwieriger ist: die tatsächliche Durchführung. Hier kann ein Vermeidungsdruck entstehen, mit der Umsetzung zu beginnen – einfach aus Angst, dass sich die Planungsmängel nun offen zeigen könnten. Das kann dazu führen, dass man handlungsunfähig wird. Wieder ein Phänomen, das wir aus dem Trading kennen.
Es ist also zunächst notwendig, die Dinge möglichst einfach zu sehen. Sonst traut man sich vieles gar nicht erst. Aber wenn man sich traut, schafft man es vielleicht auch. Statt ständig über jede Kleinigkeit nachzudenken, sollten Automatismen und Routinen entwickelt werden, die bei der Umsetzung helfen.
Vorsicht ist, wie beim Tschernobyl-Beispiel, aber auch dann geboten, wenn man große Erfahrung hat. Denn Erfahrung kann auch dumm machen, wenn man die Dinge unter- oder überschätzt und glaubt, stets alles im Griff zu haben. Das kann zum Beispiel dann passieren, wenn sich ungeeignete Maßnahmen eine Zeit lang bewähren und so deren Wirksamkeit überschätzt wird.
Entwickeln sich die Maßnahmen nicht erfolgreich, kann eine Kompetenzillusion entstehen (zusätzlich zu den in Kapitel 5 beschriebenen Flucht-Effekten). Hier nimmt der Verantwortliche die Folgen der eigenen Handlungen aus Selbstschutz nicht mehr zur Kenntnis. Ganz ähnlich wie an der Börse bei einem Verlust-Trade, den man sich am liebsten gar nicht mehr anschaut.
In den Experimenten im Buch was dieser Effekt oft zu beobachten. Vor allem Entscheidungen mit negativen Folgen wurden langfristig immer seltener überprüft, um die eigene Kompetenz zu erhalten. Zum Teil wurden sogar moralische Standards weniger beachtet (“der Zweck heiligt die Mittel”, Zynismus). Oder der Versuch einer Rechtfertigung: “Normalerweise hat Maßnahme A den Effekt B, nur gerade in diesem Fall nicht.”
Zudem kann der Effekt des Fremdattributierens auftreten: “Ich habe das Beste gewollt, aber die Umstände haben verhindert, das das eintrat.”
Oder Ziele werden invertiert: So argumentierte eine Versuchsperson in einem Experiment tatsächlich, dass eine in der Simulation aufgetretene Hungersnot letztlich gut für die Bevölkerungsstruktur sei.
Kapitel 8: Die Gruppe (S. 276-292)
Besonders in Notzeiten spielt das Gefühl, einer Gruppe anzugehören, eine große Rolle. Aber das führt oft zu Problemen:
● Zwischenzeitliche kurze Erholungen bestärken die Gruppe, dass man auf dem richtigen Weg ist. Dadurch werden notwendige Anpassungen noch länger verschoben.
● In Gruppen gibt es feste Normen und Werte, was zu Inflexibilität führen kann (Gruppendenken). Oft wäre eine breitere Basis an Meinungen und Einschätzungen viel wertvoller.
● Wenn es einen klaren Gruppenführer gibt, kann es sein, dass intelligente Teammitglieder benachteiligt werden. Das ist der Fall, wenn durch deren Argumente die Position des Gruppenführes infrage gestellt wird. Dieser tendiert dazu, seinen Prinzipien treu zu bleiben, um seine Position zu bewahren, auch wenn es auf einer falschen Entscheidung basiert. In diesem Fall werden Mitläufer besser gestellt, da sie nicht kritisieren – aber sie tragen nichts zur Verbesserung der Situation bei.
Kapitel 9: Was tun? (S. 293-328)
Im letzten Kapitel geht es um Ursachen unserer Probleme in komplexen Situationen und um Lösungen. Ein erster Ansatz sind Vorstellungsbilder: Diese sind viel informationsreicher als Gedanken in sprachlicher Form. Bilder erleichtern uns den plastischen Umgang mit Problemen. Andererseits können sie aber zu starrem Denken führen, da man sie schwer wieder los wird.
Das Scheitern entsteht in Wirklichkeit durch die Summe vieler kleiner Fehler. Oft wissen wir über unsere Fehler sogar Bescheid, können sie aber trotzdem nicht vermeiden. Das führt dazu, dass mit guten Absichten nicht selten etwas Schlechtes erzielt wird.
Ursachen für unsere Probleme beim Denken in komplexen Situationen:
● Wir denken Schritt für Schritt und können nur wenige Informationen verarbeiten
● Unser Denken weicht mitunter vom eigentlichen Ziel ab, um unser Gefühl der Kompetenz zu bewahren
● Wir haben eine geringe Zukunftskapazität, vor allem wenn Strukturbrüche auftreten
● Oft fixieren wir unsere Aufmerksamkeit auf aktuelle Probleme und vernachlässigen Fernwirkungen
● Manche von uns wissen, wie etwas geht, können es aber nicht umsetzen
● Gute Absichten sind nicht unbedingt die optimale Voraussetzung für gute Problemlösungen
Was also tun in komplexen Situationen?
● gesunden Menschenverstand situationsbezogen anwenden
● in Zeitabläufen denken und Abhängigkeiten im System berücksichtigen
● Simulationen nutzen, um effektiv zu lernen
In den Experimenten im Buch zeigte sich vor allem eines: Diejenigen, die während der Simulationen flexibel waren, aus ihren Fehlern lernten und ihre Strategien anpassten, waren am Ende die Erfolgreichen. Ein Vorteil sind zudem Erfahrungen aus möglichst vielen verschiedenen Situationen.
Wer dagegen stur am einmal gefassten Plan festhielt (oder gar keinen Plan hatte), sorgte für ein Desaster.
—
Quellen:
[1] Dörner, D. (2003), Die Logik des Misslingens. Strategisches Denken in komplexen Situationen, 12. Auflage, Rowohlt Taschenbuch Verlag.