Themenwelt 05
Was schiefgeht,
bevor es schiefgeht.
Die meisten Vorfälle kündigen sich an. Sie werden nur nicht als solche erkannt.
Hier wird sichtbar, warum Fehler und Risiken selten plötzlich entstehen — und wie Führung, Kommunikationskultur und Ablaufklarheit über Verlässlichkeit und Qualität in Organisationen entscheiden.
Was Menschen in komplexen Systemen stärkt oder schwächt — und warum Fehler Systemsignale sind, keine persönlichen Versagen.
→ Zum Abschnitt12 menschliche Einflussfaktoren, die fast alle Unfälle und Qualitätsprobleme mitverursachen.
→ Zum AbschnittWie bestimmte Organisationen unter extremem Druck kaum Fehler machen — und was andere davon lernen können.
→ Zum AbschnittWenn kleine Regelabweichungen zur Norm werden — bis der große Fehler passiert. Das Challenger-Prinzip.
→ Zum AbschnittDie vier Quellen operativer Risiken, die kein Strategiepapier nennt, aber jedes Unternehmen betreffen.
→ Zum AbschnittUrsachen, kritisches Ereignis, Folgen in einem Bild. Prävention und Schadensbegrenzung klar unterscheiden.
→ Zum AbschnittVor dem Start vorstellen, dass das Projekt gescheitert ist. Die stärkste Methode gegen Optimism Bias.
→ Zum AbschnittKein Fehler hat nur eine Ursache. Schutzschichten, Lücken — und warum Tiefe Perfektion schlägt.
→ Zum AbschnittWahrnehmen, verstehen, vorhersagen: Warum Krisen selten ein Datenproblem sind — sondern ein Deutungsproblem.
→ Zum AbschnittWie Hierarchie kritische Informationen blockiert — und wie Kommunikationsstruktur das strukturell verhindert.
→ Zum AbschnittModell 01
Human Factors
Menschen sind nicht das Problem — sie sind die Lösung. Wenn ihre Umgebung stimmt. Human Factors fragt, was Systeme brauchen, damit menschliche Stärken wirken und Fehler seltener werden.
Das SHELL-Modell (Hawkins, 1984)
L — Liveware
Der Mensch im Mittelpunkt
S
Software
Prozesse, Regeln, Checklisten, Kultur
H
Hardware
Werkzeuge, Maschinen, Interface
E
Environment
Physische & soziale Arbeitsumgebung
L
Liveware
Andere Menschen: Team, Führung, Kollegen
Fehler entstehen an den Schnittstellen — nicht im Menschen allein
Was ist das?
Human Factors ist die Wissenschaft vom Zusammenspiel von Mensch, Technik und Organisation. Sie untersucht, wie Systeme gestaltet sein müssen, damit Menschen darin sicher, effektiv und zufrieden arbeiten können. Der Begriff stammt ursprünglich aus Luftfahrt und Militär — heute ist Human Factors eine eigenständige Disziplin, die Ergonomie, Kognitionspsychologie, Organisationssoziologie und Sicherheitswissenschaft verbindet. Kernannahme: Menschen sind keine Fehlerquellen. Sie sind Ressourcen — wenn ihre Umgebung das ermöglicht.
Warum ist das relevant?
James Reason schätzt, dass 70–80 % aller sicherheitsrelevanten Ereignisse auf menschliche Faktoren zurückzuführen sind — aber nicht auf menschliches Versagen im Sinne von Unaufmerksamkeit oder Fahrlässigkeit, sondern auf systemische Bedingungen, die Fehler begünstigen. Human Factors zeigt: Wer in ein fehleranfälliges System gesetzt wird, macht fehleranfällige Dinge. Statt Schuldige zu suchen, fragt die Disziplin: Welche Bedingungen haben diesen Fehler ermöglicht? Diese Frage verändert alles — wie Fehler bewertet werden, wie Systeme gestaltet werden und wie Verantwortung verstanden wird.
Woran erkennt man das?
Organisationen, die Human Factors ernst nehmen, unterscheiden sich spürbar im Umgang mit Fehlern und Beinahe-Ereignissen:
- Nach Fehlern wird gefragt: 'Was hat das möglich gemacht?' — nicht: 'Wer hat das verbockt?'
- Beinahe-Ereignisse werden gemeldet und ausgewertet — nicht verschwiegen.
- Schnittstellen zwischen Menschen und Systemen werden bewusst gestaltet.
- Kommunikationsstandards (z. B. Briefings, Read-Backs) sind Teil des Arbeitsalltags.
- Erschöpfung, Druck und Ablenkung werden als Sicherheitsrisiko behandelt — nicht als Privatsache.
Was bedeutet das für Organisationen?
Human Factors ist kein Luxus für Hochrisikobranche. Kommunikationsfehler, Übergabefehler, Erschöpfung, Stress, unklare Rollen — all das sind Human-Factors-Themen, die in jeder Organisation täglich auftreten. Die Werkzeuge der Luftfahrt sind auf Krankenhäuser, Industrie und Dienstleistung übertragbar. Organisationen, die Human Factors als Führungsthema verstehen, senken nicht nur Fehlerraten — sie stärken Vertrauen, psychologische Sicherheit und Lernfähigkeit.
Was kann man damit tun?
Human Factors als Denk- und Handlungsrahmen in der Organisation verankern:
- Fehlerkultur auf systembezogene Fragen ausrichten: weg von Schuld, hin zu Bedingungen.
- Near Miss Reporting einführen: Beinahe-Ereignisse sind Lernchancen, keine Peinlichkeiten.
- SHELL-Analyse nutzen: Bei Fehlern alle vier Schnittstellen (S, H, E, L) systematisch prüfen.
- Führungskräfte für Human Factors sensibilisieren: Erschöpfung und Druck sind Führungsthemen.
- Kommunikationsstandards trainieren: Briefings, Handoffs, Closed-Loop-Kommunikation.
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –Human Factors auf Ergonomie reduzieren — und die kulturellen, sozialen und kommunikativen Dimensionen vergessen
- –Nach Fehlern trotzdem Schuldige suchen, obwohl man das SHELL-Modell kennt
- –Training einmalig durchführen und glauben, die Kultur sei damit verändert
Woran erkenne ich Fortschritt?
- +Die erste Frage nach einem Fehler lautet: 'Was hat das möglich gemacht?' — nicht: 'Wer war das?'
- +Beinahe-Ereignisse werden gemeldet, dokumentiert und im Team besprochen
- +Führungskräfte benennen eigene Erschöpfung und Druckzustände offen
- +Kommunikationsstandards (Briefings, Read-Backs) sind im Arbeitsalltag sichtbar
Buzzword-Check
- ≠ 'Menschliches Versagen': Ein systemischer Begriff, der Verantwortung weg vom System und hin zur Person verschiebt — und die eigentliche Ursache verdeckt
- ≠ 'Fehlerkultur': Oft nur ein Etikett. Echte Fehlerkultur zeigt sich daran, ob Fehlermeldungen ohne Konsequenzen möglich sind
- ≠ 'Der Mensch als Risikofaktor': Menschen sind Ressourcen — nicht Fehlerquellen. Wer sie als Risiko behandelt, gestaltet schlechtere Systeme
Einsatzmöglichkeiten
- Fehleranalyse: SHELL-Modell bei Fehlern oder Beinahe-Ereignissen systematisch anwenden — alle vier Schnittstellen prüfen
- Führungskräfteentwicklung: Human-Factors-Grundlagen als Pflichtmodul in Führungstrainings integrieren
- Onboarding: Neue Mitarbeitende für systemische Fehlerentstehung sensibilisieren — von Anfang an
- Teamretrospektiven: Regelmäßige Frage: 'Welche Bedingungen haben uns zuletzt fehleranfälliger gemacht?'
Modell 02
Dirty Dozen
Zwölf menschliche Faktoren, die besonders häufig zu Fehlern führen. Kein Mensch ist dagegen immun — aber alle können lernen, sie zu erkennen.
Die 12 Faktoren (Gordon Dupont, Transport Canada 1993)
Mangelndes Wissen
Fehlende oder veraltete Kenntnisse über Systeme und Verfahren.
Ablenkung
Unterbrechungen, die Gedankenketten zerreißen und Fokus kosten.
Mangelnde Teamarbeit
Fehlende Abstimmung, unklare Rollen, kein gemeinsames Lagebild.
Druck
Zeit-, Kosten- oder sozialer Druck führt zu voreiligen Entscheidungen.
Erschöpfung
Physische und mentale Ermüdung reduzieren Urteilsvermögen massiv.
Mangelnde Kommunikation
Unvollständige oder missverständliche Informationsweitergabe.
Gefälligkeit (Complacency)
Selbstzufriedenheit durch Routine: 'Das ging immer gut.'
Fehlendes Situationsbewusstsein
Fehlende Wahrnehmung des aktuellen Zustands und möglicher Risiken.
Ressourcenmangel
Fehlende Werkzeuge, Personal, Zeit oder Informationen für die Aufgabe.
Stress
Anhaltende Belastung erzeugt Tunnelblick und verengt das Denken.
Mangelnde Durchsetzung
Bedenken werden nicht geäußert — aus Hierarchieangst oder sozialem Druck.
Normenverstoß
Bewusstes oder unbewusstes Abweichen von Regeln, weil 'nie etwas passiert ist'.
Was ist das?
Gordon Dupont entwickelte das Dirty-Dozen-Modell 1993 für Transport Canada als Trainingswerkzeug für die Luftfahrtinstandhaltung. Er identifizierte zwölf menschliche Faktoren, die besonders häufig zu Fehlern beitragen. Der Begriff "Dirty Dozen" wurde bewusst provokativ gewählt, um Aufmerksamkeit zu erzeugen. Die zwölf Faktoren sind keine Schwächen von Individuen — sie sind universelle menschliche Eigenschaften, die unter bestimmten Bedingungen Fehler produzieren. Jede und jeder ist betroffen, unabhängig von Erfahrung und Kompetenz.
Warum ist das relevant?
Das Modell hat sich weit über die Luftfahrt hinaus verbreitet — in Medizin, Industrie, Feuerwehr und Organisationsentwicklung. Seine Stärke liegt in der Konkretheit: Statt abstrakt über "menschliches Versagen" zu sprechen, benennt es zwölf spezifische Zustände, die gefährlich werden können. Das erlaubt präzisere Prävention. Besonders wichtig: Faktor 7 (Complacency) und Faktor 11 (Lack of Assertiveness) sind in Organisationen häufig unterschätzt — und besonders folgenreich.
Woran erkennt man das?
Die Dirty Dozen lassen sich im Alltag direkt beobachten — wenn man weiß, wonach man schaut:
- Jemand ist erschöpft, trifft aber trotzdem kritische Entscheidungen allein.
- Eine Aufgabe wird unter starkem Zeitdruck durchgeführt — und Checks werden übersprungen.
- Jemand sieht ein Problem, schweigt aber, weil die Führungskraft es nicht hören will.
- Routine hat dazu geführt, dass Checklisten nur noch formal, nicht mehr inhaltlich genutzt werden.
- Informationen werden bei einer Übergabe unvollständig weitergegeben — ohne dass es jemand bemerkt.
Was bedeutet das für Organisationen?
Die Dirty Dozen machen deutlich: Sicherheit und Qualität sind keine Frage des guten Willens, sondern der Bedingungen. Eine Organisation, die Menschen unter chronischem Druck, in schlechter Kommunikationskultur und mit unklaren Rollen arbeiten lässt, aktiviert systematisch mehrere der zwölf Faktoren gleichzeitig — und wundert sich dann über Fehler. Führung, die das versteht, gestaltet Bedingungen aktiv: Erschöpfung begrenzen, Speak-Up ermöglichen, Routine hinterfragen.
Was kann man damit tun?
Die Dirty Dozen sind ein kraftvolles Reflexionswerkzeug für Teams und Führungskräfte:
- Dirty-Dozen-Workshop: Welche der 12 Faktoren sind bei uns gerade besonders aktiv?
- Persönliche Selbstcheck-Frage vor kritischen Aufgaben: 'In welchem Zustand bin ich gerade?'
- Team-Briefings: Explizit ansprechen, wenn Erschöpfung, Druck oder Ablenkung vorliegen.
- Assertiveness trainieren: Wie spreche ich Bedenken an — auch gegenüber Ranghöheren?
- Complacency-Gegenmittel: Routinen bewusst variieren, Checklisten inhaltlich leben, nicht nur abhaken.
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –Die Dirty Dozen als abstraktes Konzept im Training vorstellen — ohne sie im Arbeitsalltag konkret zu verankern
- –Complacency unterschätzen, weil sie sich nicht dramatisch anfühlt: Routinen wirken sicher — bis sie es nicht mehr sind
- –Assertiveness trainieren, aber keine psychologisch sichere Umgebung schaffen, in der Bedenken wirklich willkommen sind
Woran erkenne ich Fortschritt?
- +Teammitglieder benennen aktiv, welche der 12 Faktoren gerade bei ihnen aktiv sind — ohne Scheu
- +In Briefings wird Erschöpfung oder Druck explizit angesprochen, bevor kritische Aufgaben beginnen
- +Checklisten werden inhaltlich genutzt — nicht als bürokratisches Abhaken
- +Bedenken werden auch gegenüber der Führungskraft direkt geäußert
Buzzword-Check
- ≠ 'Unaufmerksamkeit': Meist das Symptom, nicht die Ursache — dahinter stecken Dirty-Dozen-Faktoren wie Ablenkung, Stress oder mangelndes Situationsbewusstsein
- ≠ 'Wir haben kein Dirty-Dozen-Problem': Jede Organisation hat aktive Faktoren — die Frage ist nur, ob sie sichtbar sind oder ignoriert werden
- ≠ 'Nur für die Luftfahrt': Gordon Dupont selbst empfahl die Anwendung auf alle Hochleistungsumgebungen — von Medizin bis Unternehmensführung
Einsatzmöglichkeiten
- Team-Retrospektiven: Dirty-Dozen-Scan: Welche Faktoren waren in den letzten Wochen besonders präsent?
- Incident-Analyse: Nach Fehlern jeden der 12 Faktoren systematisch prüfen — nicht nur den offensichtlichsten
- Führungskräftecoaching: Persönliche Selbstwahrnehmung schärfen: Wie gut erkenne ich meine eigenen aktiven Faktoren?
- Schichtübergaben: Strukturiertes Briefing: Faktor-Zustand explicit ansprechen vor Übergabe kritischer Verantwortung
Modell 03
High Reliability Organizations
Manche Organisationen arbeiten jahrelang unter extremem Druck, hoher Komplexität und mit verheerenden Konsequenzen bei Fehlern — und machen kaum welche. Was ihr Geheimnis ist.
Die 5 Prinzipien der HRO (Weick & Sutcliffe)
Schwache Signale werden ernst genommen. Kleine Abweichungen werden analysiert, nicht wegerklärt.
Komplexe Realitäten brauchen komplexe Wahrnehmung. Einfache Erklärungen werden misstrauisch betrachtet.
Was wirklich passiert — an der Basis — zählt mehr als Pläne und Präsentationen. Führung kennt die Realität.
Fehler werden passieren. HROs investieren in die Fähigkeit, schnell zu erkennen, einzudämmen und zu erholen.
In kritischen Momenten entscheidet der Sachkundigste — nicht der Ranghöchste.
Was ist das?
Karl Weick und Kathleen Sutcliffe entwickelten das HRO-Konzept auf Basis ihrer Studien von Organisationen, die unter höchstem Risiko dauerhaft zuverlässig operieren: Flugzeugträger, Kernkraftwerke, Flugsicherung, Notaufnahmen. Sie identifizierten fünf Prinzipien, die diese Organisationen gemeinsam haben — und die erklären, warum sie trotz Komplexität und Zeitdruck seltener scheitern als andere. Das Konzept steht nicht für Fehlerfreiheit, sondern für die Fähigkeit, mit dem Unerwarteten umzugehen.
Warum ist das relevant?
In einer Welt, die komplexer, schneller und unberechenbarer wird, ist Zuverlässigkeit unter Druck eine der wertvollsten organisationalen Fähigkeiten. HRO-Forschung zeigt: Zuverlässigkeit ist kein Glück, kein Talent und kein Zufall — sie ist das Ergebnis einer Kultur, die spezifische Denk- und Verhaltensmuster kontinuierlich pflegt. Diese Muster lassen sich auf jede Organisation übertragen — unabhängig von Branche oder Größe.
Woran erkennt man das?
Organisationen mit HRO-Mindset erkennt man an konkreten Verhaltensweisen:
- Kleine Abweichungen vom Standard werden besprochen — auch wenn nichts passiert ist.
- Wenn etwas schiefgeht, fragt die Führung zuerst: 'Was haben wir nicht gesehen?' — nicht: 'Wer war schuld?'
- Die Person mit dem meisten Wissen darf in kritischen Momenten die Entscheidung treffen — auch ohne Titel.
- Führung kennt die operative Realität aus erster Hand — nicht nur aus Berichten.
- Resilienzkompetenz wird trainiert: Was tun wir, wenn der Plan nicht greift?
Was bedeutet das für Organisationen?
HRO ist das Gegenteil von Bürokratie: Es fordert aktives Denken statt passives Befolgen. Weicks Konzept der "collective mindfulness" beschreibt eine organisationale Wachheit — das System als Ganzes bemerkt, was Einzelne nicht sehen würden. Diese kollektive Aufmerksamkeit entsteht nur, wenn Führung zuhört statt beruhigt, wenn Bedenken willkommen sind statt unbequem, und wenn Expertise mehr gilt als Hierarchie. Für viele Organisationen ist das eine fundamentale Kulturveränderung.
Was kann man damit tun?
Die fünf Prinzipien lassen sich als Entwicklungsrahmen für Führung und Organisation nutzen:
- Prinzip I: Near Miss Reporting einführen — schwache Signale sichtbar machen, bevor sie eskalieren.
- Prinzip II: In Entscheidungsprozessen aktiv fragen: 'Was vereinfachen wir gerade möglicherweise weg?'
- Prinzip III: Führungskräfte regelmäßig an die operative Basis bringen — Gemba Walks, Schichtbegleitungen.
- Prinzip IV: Krisenübungen und Worst-Case-Szenarien proben — nicht erst, wenn es passiert.
- Prinzip V: Entscheidungskultur entwickeln, in der Expertise über Rang geht — in definierten Kontexten.
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –HRO als Konzept für Kraftwerke und Flugzeugträger betrachten — und den Bezug zur eigenen Organisation nicht herstellen
- –Prinzip V (Deference to Expertise) einfordern, ohne strukturell zu klären, wann Expertise Rang überstimmen darf
- –Collective Mindfulness als Stimmung managen wollen — statt als Verhaltens- und Kommunikationspraxis zu verankern
Woran erkenne ich Fortschritt?
- +Kleine Abweichungen werden im Team besprochen — auch wenn kein Schaden entstanden ist
- +Führungskräfte kennen die operative Realität aus erster Hand — nicht nur aus Berichten
- +In Entscheidungssituationen darf die sachkundigste Person sprechen — unabhängig vom Rang
- +Das Team übt, was zu tun ist, wenn der Plan nicht greift — regelmäßig, nicht erst im Ernstfall
Buzzword-Check
- ≠ 'Wir sind zuverlässig': HRO-Zuverlässigkeit ist kein Selbsturteil — sie zeigt sich in konkreten Verhaltensmustern unter Druck, nicht in ruhigen Phasen
- ≠ 'Null-Fehler-Kultur': HROs streben nicht nach Fehlerfreiheit, sondern nach der Fähigkeit, Unerwartetes früh zu erkennen und einzudämmen
- ≠ 'Resilienz': Im HRO-Kontext kein diffuses Schlagwort, sondern eine konkrete Fähigkeit: schnell erkennen, eindämmen, erholen — und zwar trainiert
Einsatzmöglichkeiten
- Kulturdiagnose: Die fünf HRO-Prinzipien als Reifegrad-Framework nutzen: Wo steht unsere Organisation auf jeder Dimension?
- Führungsentwicklung: Gemba Walks einführen — Führungskräfte gehen regelmäßig an die operative Basis, statt auf Berichte zu warten
- Krisenmanagement: Worst-Case-Szenarien proben, bevor sie eintreten — Resilienzkompetenz ist trainierbar
- Entscheidungskultur: Explizit klären: In welchen Situationen überstimmt Expertise den Rang? Diese Regel braucht ein gemeinsames Commitment
Modell 04
Normalization of Deviance
Kleine Abweichungen vom Standard, die nie Konsequenzen hatten — und irgendwann zum neuen Standard wurden. Diane Vaughan erklärt, warum Katastrophen sich ankündigen, bevor sie passieren.
Wie Normalisierung entsteht
Erste Abweichung
Eine Regel wird gebrochen oder eine Anomalie tritt auf — aber nichts Schlimmes passiert.
Rationalisierung
'Das war eine Ausnahme', 'Die Regel ist zu streng', 'Das passt schon.' Die Abweichung wird erklärt.
Wiederholung
Die Abweichung wird wiederholt — immer ohne sichtbare Konsequenz. Das Risikobewusstsein schwindet.
Normalisierung
Die Abweichung ist der neue Standard. Neue Mitarbeitende lernen sie als 'so machen wir das hier'.
Was ist das?
Diane Vaughan analysierte die Challenger-Katastrophe von 1986 und kam zu einem erschütternden Befund: Die NASA-Ingenieure kannten das O-Ring-Problem. Es war gemessen, dokumentiert, diskutiert worden. Trotzdem flog die Rakete. Vaughan zeigte: Die Entscheidung war nicht irrational — sie folgte einer systemischen Logik, die sich über Jahre entwickelt hatte. Weil kleine Abweichungen nie sofort zu Katastrophen führten, wurden sie schrittweise als normal akzeptiert. "Normalization of Deviance" beschreibt diesen Prozess der graduellen Gewöhnung an das Risiko.
Warum ist das relevant?
Normalization of Deviance passiert überall — und ist besonders gefährlich, weil sie unsichtbar ist. Sie schleicht sich ein: Überstunden werden zum Standard, Sicherheitschecks werden übersprungen, Konflikte werden nicht angesprochen. Niemand entscheidet sich aktiv dafür — es passiert graduell, im Kleinen, über viele einzelne Momente. Das macht es so schwer zu stoppen. Vaughans Forschung zeigt: Die größten Risiken sind oft nicht die offensichtlichen, sondern die, die schon lange niemanden mehr aufregen.
Woran erkennt man das?
Normalisierung hat eine eigene Sprache — erkennbar, wenn man hinhört:
- 'Das haben wir schon immer so gemacht' — ohne dass jemand fragt, ob es noch richtig ist.
- 'Das ist bei uns normal' — für etwas, das es eigentlich nicht sein sollte.
- 'Das ist nie schiefgegangen' — als Begründung, es nicht zu hinterfragen.
- Neue Mitarbeitende werden in die Abweichung eingeführt, statt in den Standard.
- Regeln werden nur noch formal eingehalten — der Sinn dahinter ist in Vergessenheit geraten.
Was bedeutet das für Organisationen?
HRO-Prinzip I — Preoccupation with Failure — ist das direkte Gegenmittel. Wer konsequent dokumentiert, was vom Standard abweicht — auch wenn nichts passiert ist — schützt sich vor Normalisierung. Near Miss Reporting, regelmäßige Audits und eine offene Fehlerkultur sind deshalb keine Bürokratie, sondern aktive Schutzmaßnahmen. Organisationen, die warten, bis etwas schiefgeht, bevor sie hinschauen, zahlen einen unnötig hohen Preis.
Was kann man damit tun?
Normalisierung lässt sich nicht einfach abstellen — aber sie kann sichtbar gemacht und verlangsamt werden:
- Regelmäßige Frage in Führungsrunden: 'Was hat sich bei uns normalisiert, das eigentlich nicht normal sein sollte?'
- Neue Mitarbeitende bewusst befragen: Was fällt euch auf, was alle anderen nicht mehr sehen?
- Standards periodisch auf ihren Sinn prüfen — nicht nur auf ihre Einhaltung.
- Near Miss Reporting als Frühwarnsystem etablieren: Abweichungen dokumentieren, bevor sie Konsequenzen haben.
- Offene Fehlerkultur fördern: Wer Abweichungen anspricht, verdient Anerkennung — keine Skepsis.
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –Normalisierung als externes Problem sehen — 'Das passiert bei uns nicht' ist selbst ein Zeichen von Normalisierung
- –Einmalige Audits und Befragungen als ausreichende Gegenmaßnahme betrachten — Normalisierung braucht kontinuierliche Beobachtung
- –Neue Mitarbeitende zu Kritik einladen, ohne strukturell abzusichern, dass Rückmeldungen auch Konsequenzen haben
Woran erkenne ich Fortschritt?
- +In Führungsrunden wird regelmäßig gefragt: 'Was hat sich bei uns normalisiert, das eigentlich nicht normal sein sollte?'
- +Neue Mitarbeitende werden in ihren ersten Wochen aktiv nach Beobachtungen befragt — und gehört
- +Abweichungen vom Standard werden dokumentiert, bevor sie Konsequenzen haben
- +Standards werden nicht nur auf Einhaltung geprüft — sondern auf ihren Sinn hinterfragt
Buzzword-Check
- ≠ 'Das ist bei uns normal': Genau das ist der Satz, den Vaughan als Warnsignal identifiziert — Normalität sagt nichts über Richtigkeit aus
- ≠ 'Wir haben das immer so gemacht': Kontinuität ist kein Beweis für Sicherheit. Challenger-Ingenieure kannten das Problem — und flogen trotzdem
- ≠ 'Regelabweichung': Im Vaughan-Kontext nicht als Einzelereignis, sondern als Prozess verstehen: Erst Ausnahme, dann Rationalisierung, dann Standard
Einsatzmöglichkeiten
- Strategiegespräche: Feste Agenda-Frage: 'Was hat sich in den letzten 12 Monaten bei uns still normalisiert?'
- Onboarding: Neue Mitarbeitende in den ersten 90 Tagen als Beobachter nutzen — ihre Wahrnehmung verfällt schnell
- Incident-Review: Bei jedem Schadensfall prüfen: Gab es vorherige Abweichungen, die toleriert oder rationalisiert wurden?
- Near-Miss-Reporting: Beinahe-Ereignisse als Normalisierungsindikator auswerten — nicht nur als operatives Thema
Modell 05
Operational Risk Model
Jede Organisation hat operative Risiken — die Frage ist nur, ob sie sie bewusst managen oder zufällig mit ihnen umgehen. Das Modell strukturiert, wo Risiken entstehen und wie man ihnen begegnet.
Die vier Risikoquellen (nach Basel II, vereinfacht)
Menschen
Fehler, Fehlverhalten, Ausfall von Schlüsselpersonen, mangelnde Qualifikation, Interessenkonflikte.
Prozesse
Fehlerhafte Abläufe, fehlende Kontrollen, unklare Verantwortlichkeiten, schlechte Dokumentation.
Systeme
IT-Ausfälle, Datenverlust, Sicherheitslücken, Abhängigkeit von einzelnen Technologien.
Externe Ereignisse
Marktveränderungen, regulatorische Eingriffe, Naturereignisse, Lieferantenausfälle.
Operatives Risiko = Verlustpotenzial durch unzureichende oder versagende Prozesse, Menschen, Systeme oder externe Ereignisse.
Was ist das?
Das Operational Risk Model wurde im Bankensektor durch die Basel-II-Regulierung (2004) formalisiert, beschreibt aber eine Risikokategorie, die in jeder Organisation existiert. Operatives Risiko bezeichnet das Verlustpotenzial, das aus unzureichenden oder versagenden internen Prozessen, Menschen und Systemen oder aus externen Ereignissen entsteht — im Unterschied zu Marktrisiko oder Kreditrisiko. Die vier Quellen (Menschen, Prozesse, Systeme, externe Ereignisse) bilden ein vollständiges Bild der nicht-strategischen Risiken, die den Alltag einer Organisation prägen.
Warum ist das relevant?
Die meisten Organisationen denken bei Risiko an Märkte, Wettbewerb oder Strategie — und übersehen, dass der größte Teil tatsächlicher Verluste aus operativen Quellen stammt: einem Mitarbeitenden, der eine E-Mail an die falsche Person schickt; einem Prozess, den niemand mehr vollständig versteht; einem System, das in der entscheidenden Moment ausfällt. Das Modell zwingt zur Vollständigkeit: Wer alle vier Quellen systematisch bedenkt, findet Risiken, die in keinem Strategiepapier auftauchen.
Woran erkennt man das?
- Risiken werden systematisch nach Quelle kategorisiert — nicht nur nach Bauchgefühl priorisiert.
- Für jede Risikoquelle gibt es benannte Verantwortliche und dokumentierte Kontrollen.
- Incidents werden nach Kategorie erfasst und ausgewertet — nicht nur behoben und vergessen.
- Neue Projekte und Prozesse durchlaufen eine operative Risikoprüfung bevor sie live gehen.
- Risiken aus Schlüsselpersonenabhängigkeit sind explizit adressiert — nicht verdrängt.
Was bedeutet das für Organisationen?
Operatives Risikomanagement ist kein Thema für Banken und Kraftwerke allein. Ein Handelsunternehmen, das einen Schlüssellieferanten verliert, ein Beratungsunternehmen, dessen zentrale Wissensträger gehen, ein Dienstleister, dessen IT-System ausfällt — sie alle erleben operatives Risiko. Organisationen, die diese Risiken strukturiert erfassen, können sie priorisieren, Kontrollen einbauen und Notfallpläne entwickeln. Diejenigen, die es nicht tun, managen sie trotzdem — nur reaktiv und teurer.
Was kann man damit tun?
- Eine einfache Risikomatrix erstellen: Welche Risiken existieren je Kategorie? Wie wahrscheinlich, wie schwerwiegend?
- Schlüsselpersonenabhängigkeiten identifizieren und aktiv adressieren — durch Vertretungsregelungen oder Wissenstransfer.
- Kritische Prozesse dokumentieren und regelmäßig auf Schwachstellen prüfen.
- IT- und Systemrisiken nicht allein der IT-Abteilung überlassen — sie sind Geschäftsführungsthema.
- Incidents konsequent erfassen und kategorisieren: Jeder Fehler ist ein Datenpunkt.
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –Schlüsselpersonenabhängigkeiten benennen, aber nicht adressieren — weil es unbequem ist, das Gespräch zu führen
- –Risikomanagement als Compliance-Übung behandeln, statt als strategisches Steuerungswerkzeug
- –Den Faktor 'Mensch' in der Risikobetrachtung ausklammern, weil er sich schwerer quantifizieren lässt als IT oder Prozesse
Woran erkenne ich Fortschritt?
- +Neue Projekte und Prozesse durchlaufen eine operative Risikoprüfung — bevor sie live gehen, nicht danach
- +Incidents werden nach Kategorie (Mensch, Prozess, System, Extern) erfasst und ausgewertet
- +Schlüsselpersonenabhängigkeiten sind dokumentiert und es gibt aktive Maßnahmen dagegen
- +IT- und Systemrisiken werden in der Geschäftsführung besprochen — nicht nur in der IT-Abteilung
Buzzword-Check
- ≠ 'Nur für Banken': Operatives Risiko existiert in jeder Organisation — Basel II hat es formalisiert, nicht erfunden
- ≠ 'Risikomatrix': Eine Matrix ist ein Werkzeug, kein System. Ohne Verantwortliche, Kontrollen und Review bleibt sie Papierdekoration
- ≠ 'Das managen wir situativ': Situatives Risikomanagement ist reaktives Risikomanagement — und kostet strukturell mehr als systematische Prävention
Einsatzmöglichkeiten
- Jahresplanung: Operative Risikoprüfung nach den vier Quellen als fester Bestandteil der Strategie- und Budgetplanung
- Projektstart: Jedes größere Projekt mit einer 4-Quellen-Risikoprüfung beginnen — vor der ersten Implementierung
- Personalentscheidungen: Bei der Besetzung kritischer Rollen explizit prüfen: Wo entsteht Schlüsselpersonenabhängigkeit?
- Incident-Management: Jede Störung kategorisieren — und monatlich auswerten, welche Quelle am häufigsten auftritt
Modell 06
Bow Tie
Links die Ursachen, in der Mitte das kritische Ereignis, rechts die Folgen — dazwischen Barrieren. Das Bow-Tie-Modell macht Risikomanagement in einem Bild begreifbar.
Struktur des Bow-Tie (Beispiel: Kundenverlust)
Ursachen
Kritisches Ereignis
Kundenverlust
Folgen
Präventionsbarrieren verhindern das Ereignis · Mitigationsbarrieren begrenzen die Folgen
Was ist das?
Das Bow-Tie-Modell wurde in den 1970er Jahren von ICI entwickelt und in den 1990ern durch Shell im Bereich Sicherheitsmanagement systematisiert. Es ist heute eines der meistgenutzten Werkzeuge in der Risikoanalyse — von der Luftfahrt über die chemische Industrie bis zum Finanzsektor. Das Modell hat die Form einer Fliege (Bow Tie): Links konvergieren die möglichen Ursachen auf ein zentrales kritisches Ereignis hin, rechts divergieren die möglichen Folgen. Zwischen Ursachen und Ereignis stehen Präventionsbarrieren, zwischen Ereignis und Folgen Mitigationsbarrieren.
Warum ist das relevant?
Das Bow Tie leistet etwas, das die meisten Risikomodelle nicht schaffen: Es macht komplexe Risikozusammenhänge in einem einzigen Bild sichtbar — und zwingt gleichzeitig zur Unterscheidung zwischen Prävention und Mitigation. Viele Organisationen investieren fast ausschließlich in Prävention (das Ereignis verhindern) und vernachlässigen Mitigation (Schaden begrenzen, wenn das Ereignis trotzdem eintritt). Das Modell zeigt, wo die Barrieren dünn sind — und wo eine einzige fehlende Kontrolle das gesamte System verwundbar macht.
Woran erkennt man das?
- Für kritische Risiken existiert eine explizite Liste von Ursachenpfaden — nicht nur ein Risikoeintrag.
- Präventionskontrollen und Mitigationsmaßnahmen sind klar unterschieden und separat bewertet.
- Barrieren sind auf Wirksamkeit geprüft — nicht nur dokumentiert.
- Das Bow Tie wird regelmäßig aktualisiert, wenn sich Prozesse oder Umfeld verändern.
- Auch nicht-technische Risiken (z. B. Kommunikationsversagen, Führungsentscheidungen) werden modelliert.
Was bedeutet das für Organisationen?
Das Bow Tie ist kein Werkzeug für Ingenieure und Sicherheitsexperten allein — es ist eine Kommunikationsform. Wenn ein Geschäftsführer und sein Team gemeinsam ein Bow Tie für ein kritisches Risiko zeichnen, entsteht ein geteiltes Bild davon, was schiefgehen kann, warum — und wo die Organisation verwundbar ist. Dieser gemeinsame Verständigungsprozess ist oft wertvoller als das fertige Diagramm. Organisationen, die Bow Ties in ihre Strategie- und Planungsgespräche integrieren, denken strukturierter über das Unerwartete nach.
Was kann man damit tun?
- Das wichtigste operative Risiko der Organisation als Bow Tie skizzieren — im Team, nicht am Schreibtisch.
- Explizit fragen: Welche unserer Barrieren sind wirklich wirksam — und welche sind nur auf dem Papier vorhanden?
- Prävention und Mitigation bewusst ausbalancieren: Nicht nur verhindern, auch vorbereiten.
- Das Bow Tie als Gesprächsgrundlage nutzen — nicht als abgehaktes Dokument.
- Für neue Produkte, Prozesse oder Märkte ein Bow Tie erstellen, bevor der Start erfolgt.
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –Das Bow Tie von Sicherheitsbeauftragten erstellen lassen — statt im Führungsteam gemeinsam zu erarbeiten
- –Ausschließlich in Prävention investieren und Mitigation vernachlässigen: 'Das Ereignis darf nicht eintreten' ist keine vollständige Strategie
- –Das Bow Tie als einmalige Dokumentation behandeln, statt es bei Prozessänderungen oder neuen Risiken zu aktualisieren
Woran erkenne ich Fortschritt?
- +Kritische Risiken haben ein explizites Bow Tie — inklusive Benennung der Barrieren und ihrer Verantwortlichen
- +Das Führungsteam unterscheidet bewusst zwischen Präventions- und Mitigationsmaßnahmen
- +Neue Produkte oder Märkte werden vor dem Start mit einem Bow Tie analysiert
- +Barrieren werden auf Wirksamkeit überprüft — nicht nur auf Existenz
Buzzword-Check
- ≠ 'Risikoanalyse': Ohne explizite Unterscheidung von Ursachenpfaden und Konsequenzpfaden bleibt Risikoanalyse oft zu grob für wirksame Maßnahmen
- ≠ 'Barrieren': Im Bow-Tie-Kontext konkret: Wer ist verantwortlich? Funktioniert sie nachweislich? Eine Barriere auf dem Papier ist keine Barriere in der Realität
- ≠ 'Krisenplan': Ein Krisenplan ohne Bow-Tie-Logik adressiert oft nur bekannte Folgen — nicht die Vielfalt möglicher Ursachenpfade
Einsatzmöglichkeiten
- Strategieplanung: Das wichtigste strategische Risiko der nächsten 12 Monate als Bow Tie mit dem Führungsteam erarbeiten
- Produktentwicklung: Vor dem Launch neuer Produkte oder Dienstleistungen kritische Ursachenpfade und Folgen modellieren
- Compliance & Governance: Regulatorische Risiken als Bow Tie darstellen: Welche Barrieren existieren — und wie belastbar sind sie?
- Business Continuity: Für kritische Geschäftsprozesse Bow Ties erstellen — als Grundlage für Notfall- und Wiederherstellungspläne
Modell 07
Pre-Mortem
Bevor das Projekt beginnt, stellt das Team sich vor, es ist gescheitert. Was war der Grund? Diese eine Frage bringt ans Licht, was Optimismus und Gruppendenken verborgen hätten.
Der Pre-Mortem-Prozess (Gary Klein, 2007)
Vorstellung aktivieren
Das Team versetzt sich gedanklich in die Zukunft: Das Projekt ist abgeschlossen — und es ist gescheitert. Vollständig.
Ursachen individuell erfassen
Jede Person schreibt still für sich auf, was zum Scheitern geführt hat. Keine Gruppenabstimmung — individuelle Perspektiven zählen.
Szenarien teilen und diskutieren
Die Ursachen werden reihum vorgestellt. Wiederkehrende Themen werden markiert, überraschende Einsichten explizit besprochen.
Plan anpassen
Die identifizierten Risiken fließen zurück in die Planung: Was ändern wir? Welche Barrieren bauen wir ein? Was überwachen wir besonders?
Was ist das?
Die Pre-Mortem-Methode wurde von Gary Klein entwickelt und 2007 in der Harvard Business Review populär gemacht. Sie nutzt das Prinzip der prospektiven Retrospektive: Statt nach einem Scheitern zurückzuschauen (Post-Mortem), imaginiert das Team vor dem Start, dass das Scheitern bereits eingetreten ist — und sucht rückwärts nach den Ursachen. Das klingt kontraintuitiv, ist aber psychologisch präzise: Studien zeigen, dass das Vorstellen eines konkreten Zukunftsszenarios die Fähigkeit, Ursachen zu identifizieren, um bis zu 30 % verbessert.
Warum ist das relevant?
Drei kognitive Verzerrungen sabotieren Planungsprozesse systematisch: Optimism Bias (wir unterschätzen Risiken und Aufwand), Planning Fallacy (wir unterschätzen Zeit, Kosten und Komplexität) und Groupthink (kritische Einwände werden unterdrückt, weil der Wunsch nach Einigkeit dominiert). Die Pre-Mortem-Methode counteracted alle drei gleichzeitig: Die Scheiterns-Hypothese bricht den Optimismus-Rahmen auf, die individuelle Erfassung vor Gruppenabstimmung verhindert Gruppendenken, und die explizite Einladung zur Kritik macht Bedenken legitim.
Woran erkennt man das?
- Vor Projektstart nimmt sich das Team bewusst Zeit, Scheiterns-Szenarien zu entwickeln — nicht nur Erfolgspfade.
- Bedenken, die sonst im Raum hängen ohne ausgesprochen zu werden, kommen an die Oberfläche.
- Die Erfassung erfolgt zunächst individuell — um Gruppendenken zu verhindern.
- Die Erkenntnisse verändern den Plan: es entstehen neue Kontrollpunkte, Barrieren oder Frühwarnindikatoren.
- Auch die Führungskraft benennt eigene Scheiterns-Szenarien — die Methode wirkt nur ohne Hierarchiehemmung.
Was bedeutet das für Organisationen?
Organisationen, die Pre-Mortems regelmäßig einsetzen, entwickeln eine Planungskultur, in der kritisches Denken nicht als Pessimismus gilt, sondern als professionelle Sorgfalt. Das verändert auch die Psychologie nach einem Scheitern: Wer vorher explizit nach Risiken gesucht hat, kann nachher ehrlicher analysieren, ohne Schuldige suchen zu müssen. In Verbindung mit dem After Action Review (der rückwärts schaut) entsteht ein vollständiger Reflexionszyklus — prospektiv vor dem Start, retrospektiv nach dem Ende.
Was kann man damit tun?
- Den Pre-Mortem als Standard vor jedem bedeutsamen Projekt oder jeder wichtigen Entscheidung einführen.
- Die Frage präzise stellen: 'Stellt euch vor, es ist in einem Jahr gescheitert — was war der Grund?'
- Erst individuell schreiben lassen, dann erst teilen — das ist kein Detail, sondern der Kern der Methode.
- Die Führungskraft gibt zuerst eigene Scheiterns-Szenarien preis — das öffnet den Raum für andere.
- Erkenntnisse konkret in den Plan überführen: Kein Pre-Mortem ohne Konsequenz.
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –Pre-Mortem als Negativitäts-Übung missverstehen — es geht nicht ums Zweifeln, sondern um strukturiertes Vorausdenken
- –Die Gruppenphase zu früh starten: Wenn jemand zuerst seine Scheiterns-Szenarien teilt, beeinflusst das alle anderen
- –Erkenntnisse aus dem Pre-Mortem nicht in den Plan überführen — dann ist die Methode wirkungslos
Woran erkenne ich Fortschritt?
- +Vor bedeutsamen Projekten und Entscheidungen wird die Pre-Mortem-Frage gestellt — als Standard, nicht als Ausnahme
- +Bedenken, die bisher unausgesprochen blieben, kommen in der Scheiterns-Analyse an die Oberfläche
- +Die Führungskraft teilt eigene Scheiterns-Szenarien — und öffnet damit den Raum für ehrliche Beiträge
- +Planänderungen nach einem Pre-Mortem sind dokumentiert und nachvollziehbar
Buzzword-Check
- ≠ 'Risikoworkshop': Pre-Mortem ist psychologisch präziser: Die Scheiterns-Hypothese aktiviert andere kognitive Pfade als abstrakte Risikolisten
- ≠ 'Pessimismus': Pre-Mortem ist kognitiver Realismus — es nutzt die menschliche Fähigkeit zur Mustererkennung gezielt, statt sie durch Optimismus zu unterdrücken
- ≠ 'Post-Mortem': Post-Mortem schaut zurück nach dem Scheitern. Pre-Mortem schaut voraus — und verhindert, dass das Post-Mortem nötig wird
Einsatzmöglichkeiten
- Projektstart: Standard-Pre-Mortem vor jedem Projekt ab einer definierten Größenordnung — in maximal 45 Minuten durchführbar
- Investitionsentscheidungen: Vor signifikanten Investitionen oder strategischen Weichenstellungen die Scheiterns-Perspektive explizit einnehmen
- Teamführung: In neuen Teams früh einsetzen — die Methode baut Vertrauen und legt gleichzeitig Qualitätsstandards fest
- Produktentwicklung: Vor dem Launch fragen: Wenn dieses Produkt in einem Jahr gescheitert ist — was war der häufigste Grund?
Modell 08
Swiss Cheese Model
Kein Unfall hat eine einzige Ursache. Jede Schutzschicht hat Lücken — und wenn sie sich ausrichten, entsteht ein Schadensweg. Das Swiss Cheese Model macht sichtbar, warum Sicherheit kein Zustand ist, sondern ein System.
Das Swiss-Cheese-Modell (James Reason, 1990)
Technik & Systeme
Hardware-Ausfälle, IT-Fehler, fehlende Redundanz
Lücke
Prozesse & Regeln
Lückenhafte Abläufe, unklare Zuständigkeiten
Lücke
Aufsicht & Training
Wissenslücken, Überlastung, fehlende Kontrolle
Lücke
Sicherheitskultur
Normalisierung von Deviance, fehlende Meldung
Lücke
Einzelne Lücken sind normal und unvermeidlich · Sicherheit entsteht durch Tiefe, nicht durch Perfektion einer Schicht
Was ist das?
Das Swiss Cheese Model wurde von James Reason 1990 in seinem Werk "Human Error" entwickelt und ist heute eines der einflussreichsten Konzepte im Sicherheitsmanagement weltweit. Das Modell beschreibt, wie Schadensereignisse in komplexen Systemen entstehen: Nicht durch einen einzelnen katastrophalen Fehler, sondern durch das gleichzeitige Versagen mehrerer Schutzschichten. Jede Schicht — Technik, Prozesse, Aufsicht, Kultur — hat Lücken, wie ein Schweizer Käse Löcher hat. In der Regel blockieren die intakten Teile der Schichten den Fehlerpfad. Erst wenn sich die Lücken aller Schichten ausrichten, entsteht ein durchgängiger Schadensweg.
Warum ist das relevant?
Die häufigste Reaktion auf Fehler in Organisationen ist die Suche nach dem Schuldigen — nach dem menschlichen Fehler, der alles ausgelöst hat. Das Swiss Cheese Model zeigt, warum diese Reaktion nicht nur unfair, sondern gefährlich ist: Sie behebt das sichtbare Symptom, lässt aber alle systemischen Lücken intakt. Wer die Lücken im System nicht adressiert, wartet nur auf die nächste Ausrichtung. Für Geschäftsführer bedeutet das: Jeder Fehler, jede Beinahepanne, jede Reklamation ist ein Datenpunkt über den Zustand des Systems — nicht über das Versagen einer einzelnen Person.
Woran erkennt man das?
- Nach Fehlern wird systematisch nach Ursachen in allen Schichten gesucht — nicht nur nach dem letzten Auslöser.
- Beinahe-Unfälle und Beinahepannen werden aktiv erfasst und ernst genommen — nicht stillschweigend abgehakt.
- Die Organisation hat mehrere unabhängige Sicherheitsmechanismen für kritische Prozesse.
- Mitarbeitende melden Schwachstellen ohne Angst vor Konsequenzen.
- Sicherheit wird regelmäßig im Führungsteam besprochen — nicht erst nach einem Schadensfall.
Was bedeutet das für Organisationen?
Swiss Cheese gilt nicht nur für Kraftwerke und Krankenhäuser. In jedem Unternehmen gibt es kritische Prozesse, bei denen das Versagen mehrerer Schichten gleichzeitig zu erheblichem Schaden führt — verlorene Kunden, fehlerhafte Produkte, Compliance-Verstöße, Datenverluste. Das Modell gibt Führungskräften ein Denk-Werkzeug, um diese Prozesse systematisch zu stärken: Nicht durch Perfektion einer einzigen Ebene, sondern durch die bewusste Staffelung unabhängiger Schutzschichten. Tiefe schlägt Perfektion.
Was kann man damit tun?
- Kritische Prozesse identifizieren und fragen: Welche Schutzschichten existieren — und wie robust ist jede einzelne?
- Eine Fehlerkultur aufbauen, in der Beinahepannen gemeldet und analysiert werden — sie sind das wertvollste Frühwarnsignal.
- Nach jedem Schadensfall alle vier Schichten analysieren: Technik, Prozesse, Aufsicht, Kultur.
- Nicht nach dem Schuldigen suchen — sondern nach der Lücke, die das System zugelassen hat.
- Redundanz bewusst einbauen: Für kritische Entscheidungen und Prozesse auf eine einzige Schutzschicht zu setzen ist ein Risiko.
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –Schuldige suchen statt Systemlücken — wer den letzten Auslöser findet, hat das Swiss Cheese gerade nicht angewendet
- –Schutzschichten stapeln, ohne ihre Unabhängigkeit zu sichern: Wenn vier Schichten dieselbe Schwäche teilen, zählen sie als eine
- –Beinahe-Ereignisse als 'glimpflich ausgegangen' verbuchen — sie sind die wertvollsten Datenpunkte, die das System liefert
Woran erkenne ich Fortschritt?
- +Nach Fehlern werden alle vier Schichten (Technik, Prozesse, Aufsicht, Kultur) systematisch analysiert
- +Beinahe-Ereignisse werden aktiv erfasst, ausgewertet und im Team besprochen
- +Kritische Prozesse haben mehrere unabhängige Schutzschichten — bewusst gestaltet, nicht zufällig entstanden
- +Mitarbeitende melden Schwachstellen, ohne negative Konsequenzen zu befürchten
Buzzword-Check
- ≠ 'Der Mensch hat versagt': James Reason selbst nannte das den fundamentalen Attributionsfehler im Sicherheitsmanagement — das Swiss Cheese zeigt, warum das System versagt hat
- ≠ 'Sicherheitskultur verbessern': Kultur ist eine Schicht im Swiss Cheese — aber keine Wunderlösung. Alle vier Schichten müssen gleichzeitig beachtet werden
- ≠ 'Root Cause': Im Swiss-Cheese-Modell gibt es keine einzelne Wurzelursache — es gibt eine Kette von Lücken, die sich ausgerichtet haben
Einsatzmöglichkeiten
- Incident-Analyse: Jedes Schadensereignis über alle vier Schichten analysieren — als Standard, nicht als Ausnahme bei großen Fällen
- Prozessdesign: Kritische Prozesse mit bewusster Schutzschicht-Tiefe gestalten: Welche unabhängigen Kontrollen existieren?
- Near-Miss-System: Beinahe-Ereignisse als Lücken-Indikator nutzen: Welche Schicht hat fast versagt — und warum?
- Führungsgesprächsvorbereitung: Regelmäßig fragen: Wenn heute ein kritisches Ereignis einträte — welche Schichten würden halten, welche nicht?
Modell 09
Situational Awareness
Daten zu haben ist nicht dasselbe wie die Lage zu verstehen. Und die Lage zu verstehen ist nicht dasselbe wie vorherzusehen, wohin sie führt. Genau hier entscheidet sich, ob Führung wirkt — oder hinterherläuft.
Die drei Ebenen der Situational Awareness (Endsley, 1988)
Level 3
Vorhersagen
Wohin entwickelt sich die Situation?
„Wenn sich das so fortsetzt, verlieren wir in sechs Monaten zwei Schlüsselkunden."
SA-Versagen L3: Daten verstanden — aber Konsequenzen nicht antizipiert.
Level 2
Verstehen
Was bedeutet das?
„Die sinkenden Bestellzahlen signalisieren nachlassendes Vertrauen — nicht saisonale Schwankung."
SA-Versagen L2: Daten vorhanden — aber falsch oder gar nicht interpretiert.
Level 1
Wahrnehmen
Was passiert gerade?
„Bestellzahlen sind diesen Monat um 15 % gesunken."
SA-Versagen L1: Relevante Signale fehlen, werden übersehen oder nicht weitergegeben.
SA-Versagen ist häufig kein Datenproblem — es ist ein Deutungs- und Antizipationsproblem
Was ist das?
Situational Awareness (SA) wurde von Mica Endsley 1988 für die militärische Luftfahrt entwickelt und beschreibt die Fähigkeit, eine Situation vollständig zu erfassen, richtig zu interpretieren und ihre Entwicklung vorherzusagen. Das Modell unterscheidet drei Ebenen: Wahrnehmen (Level 1) bedeutet, relevante Informationen aus der Umgebung aufzunehmen. Verstehen (Level 2) bedeutet, diesen Informationen die richtige Bedeutung zu geben. Vorhersagen (Level 3) bedeutet, auf Basis dieses Verständnisses zu antizipieren, wie sich die Situation entwickeln wird — und entsprechend zu handeln, bevor es zu spät ist.
Warum ist das relevant?
„Das haben wir nicht kommen sehen" ist einer der häufigsten Sätze nach unternehmerischen Krisen — und fast immer ungenau. Meist waren Signale vorhanden. Sie wurden wahrgenommen, aber nicht richtig gedeutet (Level-2-Versagen), oder richtig gedeutet, aber in ihren Konsequenzen unterschätzt (Level-3-Versagen). SA macht diesen Unterschied sichtbar und benennbar. Für Geschäftsführer ist SA keine Aviationskompetenz — es ist das Kernhandwerk des strategischen Urteilsvermögens: die Fähigkeit, aus dem laufenden Geschehen das Richtige herauszulesen und frühzeitig zu handeln.
Woran erkennt man das?
- Führungskräfte benennen explizit, was sie wahrnehmen, was sie daraus schließen und was sie daraufhin erwarten.
- Frühwarnsignale werden systematisch erfasst und ausgewertet — nicht nur Lagebericht-Zahlen.
- In Besprechungen wird unterschieden: Ist das ein Datenpunkt (L1), eine Interpretation (L2) oder eine Prognose (L3)?
- Entscheidungen unter Unsicherheit werden transparent kommuniziert: 'Ich weiß X, ich schließe daraus Y, ich erwarte Z.'
- SA-Versagen nach Krisen wird analysiert: Auf welcher Ebene ist das gemeinsame Lagebild zusammengebrochen?
Was bedeutet das für Organisationen?
Organisationen investieren erheblich in Daten — und kaum in die Fähigkeit, diese Daten richtig zu deuten. Dashboards und Reporting-Systeme adressieren Level 1. Aber Level-2- und Level-3-SA entstehen nicht durch bessere Tools, sondern durch bessere Denk- und Kommunikationsroutinen. Unternehmen mit hoher kollektiver SA treffen frühere, bessere Entscheidungen — nicht weil sie mehr Informationen haben, sondern weil sie strukturierter zwischen Wahrnehmen, Verstehen und Antizipieren unterscheiden. Das ist erlernbar — und es ist Führungsaufgabe.
Was kann man damit tun?
- In Lagebesprechungen explizit zwischen Ebenen trennen: Was wissen wir? Was schließen wir daraus? Was erwarten wir?
- Frühwarnindikatoren definieren — für Kunden, Märkte, Team und Prozesse — bevor eine Krise entsteht.
- SA-Versagen nach Fehlentscheidungen rekonstruieren: War es ein Wahrnehmungs-, Deutungs- oder Antizipationsproblem?
- Meetings so strukturieren, dass verschiedene Perspektiven auf dieselbe Situation explizit gemacht werden.
- Level-3-Frage regelmäßig stellen: 'Wenn sich das so fortsetzt — wo stehen wir in 6 Monaten?'
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –SA mit Informationsvolumen verwechseln — mehr Daten bedeuten nicht besseres Lagebild.
- –Auf Level 1 stehen bleiben: Zahlen werden präsentiert, aber nicht interpretiert — Entscheidungen bleiben aus.
- –SA als Piloten-Kompetenz verstehen — dabei ist es das Kernhandwerk jeder strategischen Führung.
Woran erkenne ich Fortschritt?
- +In Besprechungen wird explizit unterschieden: Datenpunkt (L1), Interpretation (L2), Prognose (L3).
- +Frühwarnsignale werden systematisch erfasst — nicht erst im Quartalsreporting.
- +Nach Fehlentscheidungen wird analysiert, auf welcher SA-Ebene das Lagebild zusammengebrochen ist.
- +Level-3-Fragen sind Routine: 'Wenn sich das so fortsetzt — wo stehen wir in 6 Monaten?'
Buzzword-Check
- ≠ Data-Driven: Daten allein sind Level 1. SA beginnt bei Level 2 — der Deutung. Mehr Dashboards lösen kein Deutungsproblem.
- ≠ Situationsanalyse: SA ist dynamisch und prospektiv — keine einmalige Analyse, sondern kontinuierliches Lagebild unter Unsicherheit.
- ≠ Intuition: SA ist strukturiertes Wahrnehmen und Interpretieren — keine diffuse Ahnung, sondern erlernbare Methodik.
Einsatzmöglichkeiten
- Strategische Führung: Lagebesprechungen nach SA-Ebenen strukturieren: Was wissen wir? Was schließen wir? Was erwarten wir?
- Krisenmanagement: SA-Versagen nach Krisen rekonstruieren — auf welcher Ebene brach das Lagebild zusammen?
- Frühwarnsysteme: Indikatoren für Kunden, Markt und Team definieren, bevor Signale zur Krise werden.
- Führungskräfte-Training: Level-2- und Level-3-Kompetenz als Kernfähigkeit strategischen Urteilsvermögens entwickeln.
Modell 10
Crew Resource Management
Ein Flugzeug stürzte nicht ab, weil der Pilot unfähig war — sondern weil niemand im Cockpit den Mut hatte, ihn zu korrigieren. CRM entstand aus dieser Erkenntnis: Hierarchie schweigt die Menschen, die am nächsten am Problem sind.
Kernprinzipien des Crew Resource Management
01
Gemeinsames Lagebild
Alle Teammitglieder teilen dasselbe Verständnis der Situation — explizit ausgesprochen, nicht still vorausgesetzt.
02
Geschlossene Kommunikation
Der Empfänger wiederholt die Kerninformation zur Bestätigung. Missverständnisse werden sofort sichtbar — nicht erst wenn es zu spät ist.
03
Assertives Eingreifen
Jedes Teammitglied hat das Recht — und die Pflicht — kritische Bedenken auszusprechen, unabhängig von Rang und Position.
04
Briefing & Debriefing
Vor dem Einsatz: Plan, Rollen, Risiken. Danach: Was lief? Was lernen wir? Reflexion ist kein Bonus — sie ist Teil der Arbeit.
05
Workload-Management
Erkennen, wenn jemand kognitiv überlastet ist — und Aufgaben aktiv umverteilen, bevor Fehler entstehen.
Ursprung: Luftfahrt (1979) · Heute: Medizin, Feuerwehr, Nuklearindustrie, Militär, zunehmend Unternehmensführung
Was ist das?
Crew Resource Management entstand aus einer Unfallanalyse der NASA (1979) und der Auswertung von Flugzeugabstürzen, bei denen technisches Versagen ausgeschlossen war. Die Erkenntnis war erschütternd: Ein Hauptfaktor war der Autoritätsgradient im Cockpit — Copiloten und Besatzung hatten Bedenken, wagten es aber nicht, den Kapitän zu korrigieren. CRM wurde als Antwort darauf entwickelt: ein strukturiertes Trainings- und Kommunikationsframework, das sicherstellt, dass alle Ressourcen einer Crew — Wissen, Aufmerksamkeit, Erfahrung — tatsächlich genutzt werden, nicht durch Hierarchie blockiert werden.
Warum ist das relevant?
Der Autoritätsgradient existiert in jedem Führungsgremium, jedem Strategiemeeting, jeder Projektbesprechung. Die Frage ist nur, wie stark er ist — und ob er relevante Information unterdrückt. Wenn Mitarbeitende Probleme sehen, aber schweigen, weil der Chef eine andere Meinung hat; wenn in Meetings Konsens gezeigt wird, der draußen nicht existiert; wenn kritische Rückmeldungen erst nach dem Scheitern kommen — dann ist das CRM-Versagen ohne Aviation-Kontext. CRM zeigt, wie Kommunikationsstrukturen so gestaltet werden können, dass die Menschen, die am nächsten am Problem sind, auch gehört werden.
Woran erkennt man das?
- Teammitglieder sprechen Bedenken offen aus — auch gegenüber ranghöheren Personen.
- Vor wichtigen Entscheidungen und Projekten findet ein strukturiertes Briefing statt: Plan, Rollen, bekannte Risiken.
- Nach Projekten und Krisen gibt es ein echtes Debriefing — ohne Schuldzuweisung, mit Lernorientierung.
- Kommunikation wird aktiv bestätigt: Aufgaben und Entscheidungen werden vom Empfänger rückgemeldet.
- Überlastung wird sichtbar gemacht und aktiv adressiert — nicht stillschweigend ertragen.
Was bedeutet das für Organisationen?
Viele Führungskräfte glauben, ihre Teams würden offen kommunizieren. Die Forschung zeigt konsistent das Gegenteil: Je größer der Autoritätsgradient, desto systematischer werden kritische Informationen zurückgehalten — nicht aus Böswilligkeit, sondern aus sozialer Selbstschutzreaktion. CRM-Prinzipien in Organisationen zu etablieren bedeutet nicht, Hierarchie aufzulösen — es bedeutet, strukturell sicherzustellen, dass Hierarchie die Informationsqualität von Entscheidungen nicht beeinträchtigt. Unternehmen, die das leisten, treffen konsistent bessere Entscheidungen unter Druck — weil alle verfügbaren Ressourcen auch wirklich genutzt werden.
Was kann man damit tun?
- Briefing und Debriefing als Standard einführen — für Projekte, Meetings und kritische Entscheidungen.
- Geschlossene Kommunikation üben: Wer eine Aufgabe erhält, wiederholt Kern und Deadline zur Bestätigung.
- Den Autoritätsgradienten aktiv reduzieren: Als Führungskraft zuerst zuhören, zuletzt sprechen.
- Bedenken explizit einladen: 'Wer sieht einen Grund, warum das scheitern könnte?'
- Eine Sprache für assertives Eingreifen etablieren — sodass auch Rangniedrigere Stoppsignale geben dürfen.
Praxis
Stolperfallen · Fortschritt messen · Buzzwords · Einsatz
Stolperfallen
- –CRM als Kommunikationstraining missverstehen — es ist ein Sicherheits- und Entscheidungsframework unter Druck.
- –Briefings einführen ohne Debriefings — der Lernzyklus bleibt offen, Fehler wiederholen sich.
- –Den Autoritätsgradienten ignorieren — hierarchisches Schweigen existiert in jedem Führungsteam, nicht nur im Cockpit.
Woran erkenne ich Fortschritt?
- +Bedenken werden offen ausgesprochen — auch gegenüber ranghöheren Personen.
- +Briefing und Debriefing sind Standard — nicht Ausnahme bei Großprojekten.
- +Geschlossene Kommunikation ist gelebte Praxis: Aufgaben werden vom Empfänger rückgemeldet.
- +Überlastung wird frühzeitig sichtbar gemacht — nicht stillschweigend ertragen bis zum Fehler.
Buzzword-Check
- ≠ Offene Kommunikation: CRM ist strukturiert, nicht offen-diffus. Geschlossene Kommunikation und assertives Eingreifen sind Methoden, keine Haltungen.
- ≠ Teambuilding: CRM ist kein Teambuilding — es ist ein Sicherheitsframework. Der Unterschied: CRM funktioniert auch mit Menschen, die sich nicht kennen.
- ≠ Flache Hierarchie: CRM löst nicht die Hierarchie auf — es stellt sicher, dass Hierarchie die Informationsqualität nicht beeinträchtigt.
Einsatzmöglichkeiten
- Führungsteams: Autoritätsgradienten bewusst machen und Kommunikationsstrukturen so gestalten, dass kritische Stimmen gehört werden.
- Projektarbeit: Briefing vor Projektstart, Debriefing nach Abschluss als festes Tandem einführen.
- Hochdrucksituationen: Workload-Management und assertives Eingreifen als explizite Norm in kritischen Situationen verankern.
- Führungsentwicklung: CRM-Prinzipien als übertragbares Framework für Entscheidungen unter Unsicherheit trainieren.
