Rationalität bei der (medizinischen) Entscheidungsfindung
Im Dezember letzten Jahres haben wir einen Blogpost mit 10 Gründen, warum wir manchmal „irrationale“ Entscheidungen treffen veröffentlicht. Dort haben wir gezeigt, dass es die unterschiedlichsten Gründe dafür gibt, weshalb wir uns häufig eben doch nicht zu hundert Prozent objektiv rational verhalten, sondern uns primär nach bestimmten erlernten Denkmustern (Heuristiken) bewegen. Wir möchten uns daher in diesem Artikel insbesondere auf Entscheidungen im medizinischen Kontext fokussieren. Dabei geben wir anhand von Beispielen einen Einblick, weshalb auch Ärztinnen und Ärzte manchmal Entscheidungen treffen, die nicht durch rationale Herangehensweisen erklärbar sind.
Ein kritischer und nüchterner Blick zeigt, dass immer wieder medizinische Fehler unterlaufen, die auf vermeidbaren Fehlentscheidungen von Ärzten zurückzuführen sind. Der Fokus dieses Artikels liegt vor diesem Hintergrund nicht auf Entscheidungen, die aufgrund von fehlendem medizinischem Wissen oder mangelnder Informationslage getroffen werden („Zu diesem Zeitpunkt konnten wir es einfach nicht besser wissen, da uns wichtige Informationen fehlten“). Stattdessen fokussieren wir uns hier auf Entscheidungen, die der Arzt nach kritischer Reflexion oder kurzer Überlegung wahrscheinlich anders treffen würde.
System 1 und 2
Kahneman und Tversky führten einen theoretischen Rahmen ein, der erklärt, wie wir Entscheidungen unter Ungewissheit treffen und weshalb unsere Entscheidungen durch kognitive Vorurteile (Biases) beeinflusst werden können. Dieser theoretische Rahmen besteht aus zwei Systemen, welche wir bei Entscheidungsfindungsprozessen nutzen: System 1 bezieht sich auf einen automatischen, intuitiven, unbewussten, schnellen und mühelosen oder routinemäßigen Mechanismus, den wir nutzen, um die häufigsten Entscheidungen zu treffen. Umgekehrt nutzen wir System 2, um absichtliche Entscheidungen zu treffen, die analytisch, bewusst, normalerweise langsam und mühsam sind. Die meisten kognitiven Vorurteile (Biases) und irrationalen Entscheidungen sind in der Regel auf die Überbeanspruchung unseres intuitiven System 1 zurückzuführen.

Diesen theoretischen Rahmen wollen wir nun auch auf den medizinischen Bereich anwenden:
Wird einem Arzt ein neuer Patient vorgestellt, so muss dieser erst eine Diagnose stellen, bevor es zur Behandlung kommen kann. In der Diagnostik verwendet der Arzt analytische Prozesse (System 2). Diese Prozesse basieren auf der medizinischen Ausbildung und dem Training, das der Arzt erhalten hat. Zusätzlich setzt der Arzt kritisches Denken, logische Kompetenz, Rationalität, Feedback und intellektuelle Fähigkeiten ein. In der Realität werden diagnostische Entscheidungen jedoch auch von Umgebungsbedingungen/Kontext, Aufgabenmerkmalen, Alter und Erfahrung, dem emotionalen Zustand von Arzt und/oder Patient, Geschlecht und Persönlichkeit beeinflusst (System 1). Emotionale Polarisierung gegenüber dem Patienten oder jüngste Erfahrungen mit einer berücksichtigten Diagnose können zum Beispiel die wohl überlegten und rationalen System 2 Prozesse außer Kraft setzen.
Kognitive Biases und Heuristiken, die bei Ärzten zu irrationalen medizinischen Entscheidungen führen können
In diesem Abschnitt wollen wir anhand verhaltenswissenschaftlich etablierter Kategorien deutlich machen, in welchem Kontext die oben erwähnten Biases im medizinischen Kontext auftreten können.
Anchoring Effekt – Anker Effekt
Für die relevante Information eigentlich irrelevante Anker(-zahlen) können ärztliche Entscheidungen mitunter stark beeinflussen. Eine Studie zeigte, dass sogenannte Ankerzahlen die Beurteilung der Wahrscheinlichkeit einer Lungenembolie dramatisch beeinflussten. Zwei Gruppen von Ärzten bekamen dieselbe Beschreibung eines Patienten und wurden anschließend gefragt, ob sie die Wahrscheinlichkeit für eine bestehende Lungenembolie größer oder kleiner als 1% (niedrige Ankerzahl, Gruppe 1) (oder 90%; hohe Ankerzahl, Gruppe 2) einschätzten. Obwohl die Wahrscheinlichkeit von allen Ärzten ausschließlich anhand der Patientenbeschreibung geschätzt werden sollte, zeigte sich, dass Ärzte in Gruppe 1 (1 %), die Wahrscheinlichkeit niedriger einschätzten als Ärzte in Gruppe 2 (90 %) (Brewer et al. 2007). Glücklicherweise zeigte sich jedoch auch, dass in der anschließenden Behandlung nur marginale Unterschiede zwischen den beiden Gruppen auftauchten.
Availability Bias – Verfügbarkeitsbias
Emotional aufgeladene Erinnerungen, die im Vordergrund des Gedächtnisses stehen, können zu falschen Diagnosen führen. Ein Arzt könnte zum Beispiel einen einfachen Bronchospasmus (Verkrampfung der Muskulatur im Bereich der Bronchien) als Anaphylaxie (anaphylaktischer/allergischer Schock) diagnostizieren, weil er einmal einen Fall von Anaphylaxie hatte, der besonders schwer verlaufen ist und ihm deshalb im Vordergrund des Gedächtnisses geblieben ist. Dies kann besonders dann zu einer Fehleinschätzung führen, wenn dieses emotional einschneidende Ereignis sehr selten vorkommt.
Confirmation Bias – Bestätigungsbias
Es kommt doch auch immer wieder vor, dass Ärzte sehr schnell eine Verdachtsdiagnose haben. Damit mögen sie häufig falsch liegen. Es kann jedoch auch dazu kommen, dass eigentlich eine andere Erkrankung zugrunde liegt, man sich in der weiteren Untersuchung jedoch auf die Bestätigung der initialen Diagnose konzentriert und andere Hinweise unterschätzt. Dies kann sich zum Beispiel durch wiederholtes Drehen einer arteriellen Druckmanschette oder dem Ändern der Manschettengröße und -position äußern, da der Arzt den niedrigen Messwert einfach ´nicht glauben kann´.
Gamblers´ Fallacy – Irrtum der Spieler
Es kann vorkommen, dass Ärzte ein zufälliges Ereignis fälschlicherweise als wahrscheinlicher einschätzen, wenn es längere Zeit nicht eingetreten ist. Folgendes Szenario in einer Kardiologie veranschaulicht die „Gamblers´ Fallacy: „Wir haben normalerweise jedes Wochenende mindestens fünf Fälle von Myokardinfarkt (MI) in der Notaufnahme. Es ist Sonntagabend, und bisher ist noch kein MI-Patient eingetroffen. Der nächste Patient mit Brustschmerzen muss ein MI sein.“ (Dawson & Arkes 1987).
Framing Effekt – Darstellungseffekte
Einschätzungen von Situationen/Diagnosen werden durch die besondere Veranschaulichung bestimmter Aspekte beeinflusst. Wird einem Arzt zum Beispiel durch Kollegen mitgeteilt wird, dass eine Patientin vor der Operation besonders besorgt war, so kann es passieren, dass dieser im Anschluss eine Erregung der Patientin auf deren Persönlichkeit zurückführt, statt auf einen zu niedrigen Blutzucker. Ohne diese Information über die Persönlichkeit der Patientin (welcher hier als Frame dient), würde der Arzt mit einer höheren Wahrscheinlichkeit den zu niedrigen Blutdruck als Grund in Erwägung ziehen.
Sunk Cost Fallacy – Verlustkosten Trugschluss
Wenn ein Arzt schon viel Zeit und Ressourcen in eine bestimmte Behandlung oder Diagnosestellung investiert hat, kann dies dazu führen, dass er die Bereitschaft verliert oder zumindest zögert, eine fehlerhafte Diagnose oder Entscheidung loszulassen.
Commission Bias – Tätigkeitsbias
Handlungstendenz statt Untätigkeit. Aufgrund von übermäßigem Selbstbewusstsein, Verzweiflung oder Druck durch Kollegen und Patienten kann es passieren, dass Ärzte sich für nicht vorgesehene Eingriffe entscheiden, die vom Protokoll abweichen. Nach der Devise ´sicher ist sicher´ kann es zum Bespiel zum Einsatz zusätzlicher unnötiger invasiver Maßnahmen am Patienten kommen.
Wie können irrationale Falschentscheidungen vermieden werden?
Wir möchten mit diesem Artikel einen Impuls geben, der reflektierten Ärzten eine größere Vorsicht in der klinischen Praxis vermitteln soll. Intuition bei erfahrenen Kollegen kann sehr wichtig sein, wenn es um Feinheiten oder vor allem um schnelle Entscheidungen geht. Nichtsdestotrotz hilft es, sich bewusst zu machen, dass man doch sehr schnell in oben dargestellte „Fallen“ treten kann. Allein das Bewusstmachen und aktives Entgegensteuern und Hinterfragen kann die medizinische Entscheidungsfindung bereits verbessern. Ein gutes Hilfsmittel – die auch teilweise schon eingesetzt werden – ist die Erstellung und Verwendung von standardisierten Checklisten in Bereichen der Diagnose und Behandlung. Hier können wir sicherlich alle noch mehr dazu beitragen, um im Sinne von Arzt und Patient noch bessere Entscheidungen zu treffen.
Wo finde ich tiefergehende Literatur zum Thema?
- Kahneman (2016) Schnelles Denken, langsames Denken
- Stiegler, Neelankavil, Canales, Dhillon (2011) Cognitive errors detected in anaesthesiology: a literature review and pilot study
- Saposnik, Redelmeier, Ruff, Tobler (2016) Cognitive biases associated with medical decisions: a systematic review
- Bornstein und Emler (2001) Rationality in medical decision making: a review of the literature on doctors´decision-making biases
- Brewer, Chapman, Schwartz, Bergus (2007) The influence of irrelevant anchors on the judgement and choices of doctors and patients
Du hast Fragen zu Nudging und wie du es bei deinen Herausforderungen am besten einsetzen kannst?
Dann schreib uns eine Mail an: info@laeuft.eu