Blog Care&Cockpit
AirNurseOne - Care&Cockpit
- und was Pflege von der Luftfahrt lernen kann
Ich bin Privatpilot. Und ich bin Intensivkrankenpfleger.
In beiden Welten geht es um dasselbe: um komplexe Systeme, hohe Verantwortung – und um Menschenleben. Und in beiden Welten passieren Fehler. Nicht, weil Menschen unfähig sind, sondern weil Systeme es zulassen.
Fehler sind selten das Ergebnis eines einzelnen Fehltritts. Meist stehen sie am Ende einer Kette aus Umständen, Entscheidungen und Rahmenbedingungen. Genau das beschreibt das Schweizer-Käse-Modell nach James Reason: Mehrere Sicherheitsebenen, jede mit kleinen Schwachstellen. Wenn diese sich ungünstig überlagern, entsteht ein kritisches Ereignis.
Die zivile Luftfahrt hat daraus früh gelernt. Dort ist das Critical Incident Reporting System (CIRS) seit Jahrzehnten fest verankert. Kritische Ereignisse und Beinahe-Fehler werden gemeldet – anonym, ohne Schuldzuweisung. Ziel ist nicht, Menschen zu bewerten, sondern Systeme zu verbessern. Dass Fliegen heute die sicherste Art der Fortbewegung ist, ist kein Zufall. Es ist das Ergebnis dieser Haltung.
Piloten trainieren regelmäßig im Simulator reale Gefahrensituationen. Viele dieser Szenarien basieren auf tatsächlichen CIRS-Meldungen. Fehler werden bewusst eingebaut – in einem sicheren Raum, in dem sie erlaubt sind. Nicht um bloßzustellen, sondern um zu verstehen: Warum ist das passiert? Was hätte es verhindert? Wie stellen wir sicher, dass es nicht wieder passiert?
Ein zentraler Sicherheitsfaktor ist dabei die standardisierte Fachsprache. Jeder Funkspruch folgt klaren Regeln. Missverständnisse dürfen keinen Platz haben.
„Clear to land Runway 17, wind 120 degrees / 12 knots, QNH 1011.“
Ein einziger Satz – und doch eine Vielzahl lebenswichtiger Informationen: Landefreigabe, Landebahn, Windrichtung und -stärke sowie der aktuelle Luftdruck. Weltweit eindeutig verstanden. Gerade bei schlechten Sichtbedingungen ist diese Klarheit nicht hilfreich, sondern entscheidend.
Genau diese Eindeutigkeit fehlt uns im klinischen Alltag noch zu oft.
Sicherheit entsteht in der Luftfahrt jedoch nicht erst im Flug. Sie beginnt lange davor – bei der Flugplanung. Wetter, Start- und Landestrecken, Alternativen. Selbst bei kleinen Maschinen ist das anspruchsvoll. Nicht ohne Grund ist die Pilotenausbildung theoretisch wie praktisch sehr fordernd. Und auch wenn Autopiloten vieles übernehmen: Die Verantwortung bleibt beim Menschen. Instrumente überwachen, Systeme verstehen, im Notfall sofort eingreifen.
Fehler passieren trotzdem. Entscheidend ist, was danach passiert.
Wird bei der Flugplanung etwa die Außentemperatur für die Startstreckenberechnung nicht ausreichend berücksichtigt, zeigt sich das oft erst beim Startlauf. Der Abhebepunkt rückt gefährlich nach hinten. Solche Ereignisse werden als CIRS-Meldung erfasst – inklusive konkreter Empfehlungen, etwa zur korrekten Klappenstellung oder zur Berücksichtigung der Temperatur. Dieses Wissen fließt zurück ins System. Der Fehler bekommt keine zweite Chance.
Viele Flugunfälle zeigen, wie fatal mangelhafte Vorbereitung sein kann. Und gleichzeitig gilt: Jeder analysierte Unfall macht das System sicherer. Die gewonnenen Erkenntnisse werden im Simulator trainiert – nicht aus Neugier, sondern aus Verantwortung.
Dieses Denken hat – glücklicherweise – auch im Gesundheitswesen Einzug gehalten. CIRS-Systeme nach dem Vorbild der Luftfahrt sind etabliert. Noch nicht konsequent genug, aber die steigende Zahl an Meldungen zeigt: Die Awareness für eine positive Fehlerkultur wächst.
Oft wird kritisiert, dass Dokumentation und Checklisten zunehmen. Ja, der Aufwand ist real. Aber er ist kein Selbstzweck. Er ist das Ergebnis einer bewussten Entscheidung für Sicherheit. Und er schützt nicht nur Patientinnen und Patienten, sondern auch die Mitarbeitenden. Eine saubere, nachvollziehbare Dokumentation kann im Ernstfall belegen, dass korrekt gehandelt wurde.
Dabei denken viele bei Checklisten an große Operationen. Doch schon das Aufrüsten einer Beatmungsmaschine auf der Intensivstation ist ein hochkomplexer Prozess. SOPs und Checklisten sind hier keine Bürokratie – sie sind gelebte Sicherheitskultur.
Was mir Sorgen macht, ist die nach wie vor vorhandene Zurückhaltung in der Pflege, CIRS konsequent zu nutzen. Zu oft steht Angst im Vordergrund: vor Schuld, vor Konsequenzen, vor Bewertung. Doch diese Angst schützt niemanden. Sie erhöht das Risiko.
Als Pilot weiß ich: Sicherheit entsteht nicht durch Perfektion, sondern durch Ehrlichkeit. Als Intensivkrankenpfleger weiß ich: Fehler passieren – auch bei größter Sorgfalt.
Ein Fehler, der nicht gemeldet wird, bekommt eine zweite Chance. Und genau das dürfen wir uns weder in der Luftfahrt noch im Gesundheitswesen leisten.
CIRS ist kein Kontrollinstrument. Es ist ein Versprechen.
Ein Versprechen, dass aus Fehlern gelernt wird. Ein Versprechen, dass Sicherheit wichtiger ist als Schuld. Ein Versprechen, dass derselbe Fehler nicht noch einmal passiert.
Das ist keine Option. Das ist Verantwortung.
