Aus Fehlern lernen? !

Science is the belief in the ignorance of experts. Richard Feynman

Wer sich bemüht, Fehler zu vermeiden, lernt nichts.

Besonders dann nicht, wenn sie oder er rückwärtsgewandt rudert und behauptet, nach vorne zukunftsgewandt gäbe es keine Probleme. Weil (mit Blick auf die Vergangenheit) keine gesehen werden können.

Ruderer könnten manchmal auch innezuhalten und nach vorne zu schauen und dort im Nebel mögliche Hindernisse erahnen. Oder sie könnten, vorsichtig Kurskorrekturen ausprobieren. Die entstehenden Abweichungen vom gewünschten Ergebnis blieben dann relativ  klein.

Allerdings verlangsamte sich dann der Prozess (des Ruderns), und statt einer geraden Linie zum Ziel, ergäben sich vielleicht Kurven und Umwege. Sich so (prozessorientiert) zu verhalten führt nur selten zu schnellen Resultaten. Und daher erscheint daher zielorientiert und zeitoptimierten Menschen viel zu mühsam.

Und deshalb geht es manchmal schief

Wie beim Untergang der „Titanic“ im Jahr 1912, als etwa 1.500 Passagiere umkamen. Daraus lernte man. Und baute ein neues Schiff: die „Eastland“. Sie wurde mit allem ausgestattet, was für einen Notfall auf hoher See gebraucht wurde: u.a. auch viele Rettungsboote. Bedacht wurde leider nicht, dass sich dadurch der Schwerpunkt des Schiffes nach oben verlagerte.

So kippte die „Eastland“ 1915, gut vertäut, im Hafen von Chicago um, und riss fast 900 Menschen in den Tod.

Warum wurde die Eastland vergessen?

Vielleicht, weil die  Erinnerung an ihren unspektakulären Abgang unangenehmer ist, als die schicksalhaft erscheinende Titanic-Katastrophe. Das Eastland-Beispiel verunsichert, weil es eine typische „Verschlimmbesserung“ zeigt: Eine technische Problemlösung, die einen alten Fehler „sicher“ ausmerzen sollte, und dadurch ein neues Problem schuf, an das bisher niemand dachte.

„Es gibt immer noch eine weitere Wanze.  There is always one more bug“. Bloch

Irren ist menschlich

Im Prinzip sind Fehler unvermeidbar. Sie sollten deshalb „Lerner “ heißen. Und zumindest bewirken, dass das, was bereits einmal schiefgegangen ist, sich nicht ein zweites Mal ereignet.

Dazu müssen Fehler wahrgenommen und akzeptiert werden. Um sie dann ehrlich, offen und transparent zu untersuchen. Werden sie dagegen vertuscht oder schöngeredet, bleibt der Lerneffekt aus.

armbruch
Unfälle bei Vater und Sohn im Abstand von sechs Monaten mit der gleichen Buslinie. Wurde daraus gelernt? Und in Schulung und Wartung investiert? (Bild: Jäger, Tansania 1983)

Die Schweizer-Käse-Theorie des Systemversagens

Manchmal geschenen die gleichen Fehler auch dann erneut, wenn sie durch eine ganz neue Sicherung verhindert  werden sollten. Zum Beispiel bei einer Bluttransfusion. Denn alle bisher erdachten und hintereinandergeschalteten Sicherheitsvorkehrungen gleichen Scheiben Schweizer-Käse, die zwar das Meiste abwehren, aber an mindestens einer (bisher ungeahnten Stelle) löcherig sind. Das ist in der Regel nicht schlimm, weil ein weiteres Durchdringen nach einer ersten Sicherheitskontrolle in der Regel durch die nächste „Käse“-Scheibe aufgehalten wird (Reason 2004, Peltomaa 2012).

Sind aber die „Schweizer-Käse-Scheiben“ so verschoben, dass ihre Löcher in einer Linie hintereinander liegen, kann ein Risiko ungehindert durch alle Sicherheitshindernisse durchtreten.

Das geschieht nur selten. Aber dann erweisen sich Katastrophen, die sich trotz aller Vorkehrungen ereignen, als besonders bösartig.

Tschernobyl
Sicherheitsingenieur 8/2012

Fehler geschehen (trotz Vorkehrungen)

Es reicht also nicht „den gleichen Fehler nicht noch einmal begehen zu wollen“ und sich an Standardanweisungen zu klammern, die ihre Weisheiten aus der Vergangenheit ableiten. Stattdessen müssen Risiken, Unsicherheiten, Unwägbarkeiten und unberechenbare Dynamiken ernstgenommen werden, um mit ganz neuen Gegebenheiten kreativ umgehen können. Das erfordert typisch menschliche Kompetenzen, die durch Erfahrungslernen trainiert werden. Während Anweisungen, Regeln, Abläufe viel effizienter von Algorithmen abgespult werden.

Erfahrung entsteht erst nach dem Ereignis, wofür man sie gebraucht hätte.

Wir lernen, indem wir die Abweichungen zwischen einen gewünschte Ergebnis und der erreichten Realität beobachten. Das gelingt gut, wenn wir etwas vorsichtig ausprobieren. Denn dann bleiben die unvermeidbaren Fehler relativ klein.

In der Luftfahrtindustrie hat man daraus gelernt und geht sehr offen mit Fehlern um. Zum Beispiel mit den Erfahrungen des Absturzes des Air France Fluges 440 im Jahr 2009. Damit sich diese (von menschlichem Verhalten beeinflusste) Katastrophe nicht erneut ereignen kann, werden Piloten jetzt werden geschult, auch dann besonnen zu handeln, wenn ihre Messinstrumente und Computer Unsinn anzeigen. Wie sonst (ohne die Analyse dieser Crash-Katastrophe) hätten sie das lernen sollen?

Piloten trainieren die Fähigkeit zu offener, klarer, Hierarchie-freier Kommunikation. Besonders in Notsituationen. In vielen medizinischen Institutionen wäre ein solcher „Mut zu Offenheit“ sehr befremdlich. (Schmidt-Sausen 2018)

Aber gerade Gesundheitspersonal müsste

  • die „… Wahrnehmung für Situationen schärfen, in denen es zu Fehlern kommen kann, … und diese regelmäßig trainieren.“ (Reason 2004)
  • eine Kultur des urteils-freien Annehmens und Akzeptierens von Konflikten, Schuld und Fehlbarkeit der Medizin entwickeln. (Schrøder 2017)

Mehr

Weitere Artikel

Literatur

Handlungsempfehlungen zu Fehlermanagement in der Medizin

Autor: Helmut Jäger