Sprechstunde

über alles was uns krank macht

Posts Tagged ‘Onlinevorlesung

10 Regenwarnung und Rettung durch einen Presbyterianer

leave a comment »


Wir haben zuletzt feststellen müssen, dass es keinen Test gibt, der 100%-ig zwischen krank und gesund zu unterscheiden vermag.
Beunruhigend vielleicht, so manchem Juristen nicht klar zu machen, der einen verurteilt, weil man diesen oder jenen Test unterlassen hätte, aber halt „part of the game„.
Wir haben hoffentlich inzwischen festgestellt, dass im medizinischen Leben das lineare Denken einer Wenn-Dann Logik ebensowenig hilft, wie der feste Glaube an Empirie. Die Lösung ist die Hinwendung zu einer Wahrscheinlichkeitslogik, die die konsekutiv eintreffenden Informationen so „verarbeitet“, dass wir und mit Anchoring & Adjustment auf eine Diagnose bzw. therapeutische Entscheidung hinbewegen.

Als ich mich in den frühen 90ern erstmals mit diesen Konzepten beschäftigte, schien dieses „mathematische“ und somit unanschauliche Vorgehen sehr weit weg von unserem täglichen Leben. In den USA war es schon damals üblich vom Wetterfrosch im TV nicht einfach zu hören, dass es morgen regnen wird oder eben nicht, sondern man erhielt eine Niederschlagswahrscheinlichkeit mitgeteilt. Kritiker mögen einwenden, dass das zwar den Vorteil hat, dass sich der Wetterfrosch nie ganz irren konnte, aber dass sich der Hörer erst Recht nicht orientieren konnte. Genau dies hört man auch in Medizinerkreisen, wenn man eine Wahrscheinlichkeitslogik im Clinical Decision Making einfordert.
Folgendes Beispiel soll illustrieren, dass man aber auch mit der scheinbaren Unsicherheit der Wahrscheinlichkeitsrechnung ganz einfach praktisch relevante Entscheidungen treffen kann, ohne hinter sich einen Hochleistungsrechner zu benötigen.
30%

Nehmen wir an (Folie), der Wetterbericht sagt ihnen für heute eine 30%-ige Niederschlagswahrscheinlichkeit voraus und Sie fragen sich, ob Sie nun einen Regenschirm mitnehmen sollen oder nicht. Für sich genommen ist diese Information natürlich weniger hilfreich, als die autoritären Extreme: Morgen regnet es, oder morgen regnet es nicht.

Was wir aber bedenken müssen, ist dass wir es praktisch nie mit einer einzigen Information zu tun haben. Nehmen Sie die beiden Herren auf unserem Bild, der eine im (vermutlich sündteuren) Smoking, der andere in der (vermutlich billigen und in chinesischen Sweatshops hergestellten) Freizeitkleidung.
Ein paar Regenspritzer werden den Herrn links viel stärker stören, als sein Pendant. Setzen wir eine vergleichbare Wasserscheu bei unseren beiden voraus, wird der Smokingträger besser schon bei einer 30%-igen Regenwahrscheinlichkeit seinen Knirps einstecken, während der Jeansträger durchaus erst ab einer Niederschlagswahrscheinlichkeit von 70% zum Paraplü greift.

Wie man also zusätzlich eintreffende Informationen in seinen Entscheidungsalgorithmus einbindet, hat schon vor 300 Jahren ein englischer Presbyterianer dargelegt: Thomas Bayes http://de.wikipedia.org/wiki/Thomas_Bayes
Gemeinsam mit Ockhams Rasiermesser, einem aus der Scholastik entlehnten Konzept, dass in diesem Blog (http://sprechstunde.meinblog.at/?blogId=32318 ) schon einmal erwähnt wurde, ist das Bayestheorem (http://de.wikipedia.org/wiki/Bayestheorem) der zweite Lehrsatz, den wir der Geistlichkeit früherer Jahrhunderte verdanken; dass aus dieser Ecke derzeit nur mehr „Grand Design“ oder dergleichen kommte, wollen wir jetzt nicht erörtern … Die Ableitung des Bayeschen Theorems finden Sie über den Wiki-Link.
Die Bedeutung des Bayestheorem für die medizinische Diagnostik liegt darin, dass es uns ermöglicht für eine bestimmte Vortestwahrscheinlichkeit, also der Wahrscheinlichkeit, dass die vermutete Krankheit vorliegt weil sie eben so häufig in der Bevölkerung vorkommt, oder weil Anamnese, Körperliche Untersuchung, vorangegangene Test diese Wahrscheinlichkeit ergeben haben, und eine bestimmte Testperformance, also die Sensitivität und Spezifität des Tests zu berechnen, wie wahrscheinlich (Nachtestwahrscheinlichkeit) in unserem Einzelfall die Diagnose geworden ist.

Dies wird hier in einem Video demonstriert: http://www.youtube.com/watch?v=6xtXvh-e3Wc

In der Regel hört man nun, dass das alles schon und gut wäre, aber kein Arzt steht mit einem Rechenblock neben seinem Patienten. Das stimmt natürlich, man muss sich aber diese Zusammenhänge einmal bewußt machen, weil man sonst in der täglichen Routine immer wieder drastisch danebenhaut.
Gehen Sie von einem sehr guten klinischen Bluttest (z.B. auf Grippeviren) aus, der eine 90%-ige Sensitivität und 90%-ige Spezifität hat, aus und schätzen Sie, wie groß die Wahrscheinlichkeit ist, dass ein Patient, der einen positiven Test hat, auch wirklich erkrankt ist.

Wir befinden uns vor einer Grippewelle und die Krankheitsprävalenz beträgt aktuell 1:1000, d.h. ein Mensch von 1000 ist schon angesteckt …..

9 Was ist schon normal

leave a comment »


Teste stellen die wesentlichen Knotenpunkte in jedem Entscheidungsprozess dar. Dabei ist es einerlei, ob es sich um eine Frage, eine Blutabnahme, die Bildgebende Diagnostik oder sogar einen explorativen chirurgischen Eingriff zur Gewebsentnahme handelt.

In all diesen Fällen geht es darum an einer „Kreuzung“ stehend, einen Hinweis zu bekommen, wohin die weitere Reise zu gehen hat.

Wir unterliegen aber alle einem großen Mißverständnis, wenn wir glauben, dass zwar unser Wissen und unsere Herangehensweise letztendlich immer fehleranfällig sein wird, jedoch glauben, dass die Teste stets zu eienr klaren Aussage führen. Schon im vorangegangenen Beispiel sahen wir, dass die „Glaubwürdigkeit“ mancher Auskunftspersonen einmal größer einmal kleiner sein kann. 

Bei Testen beschreibt man das mit den Begriffen von Sensitivität und Spezifität.

Sensitivität (richtig positive Rate eines Tests) bezeichnet die Wahrscheinlichkeit, mit einem diagnostischen Test die Kranken auch als krank zu identifizieren. 
Spezifität (richtig-negative Rate eines Tests) beschreibt die Wahrscheinlichkeit, mit einem diagnostischen Test Nicht-Erkrankte korrekt zu identifizieren.

Für die praktische Bedeutung sagen diese Werte wenig aus, da sie stark vom untersuchten Kollektiv abhängen.

Beispiel:
Nach jahrzehntelanger Forschung habe ich ein Gerät entwickelt, dass Schwangerschaft von Patientinnen mit einer 100%-igen Sensitivitätvoraussagen kann. Klingt toll, nicht? In Wahrheit genügt es ein Gerät zu konstruieren, dass bei jeder Frage IMMER EINE ANTWORT gibt: SCHWANGER.
Auf diese Weise werden alle Schwangeren richtig erkannt und die Sensitivität ist 100%. Dass die Spezifität, also der richtige Schwangerschaftsaussschluss bei 0% liegt, macht mein „Gerät“ klinisch sinnvoll. Natürlich sind die meisten unserer Diagnoseverfahren etwas sophistizierter, aber glauben Sie nicht, dass es da nicht auch solche gibt, die -für viel mehr Geld – unserem Beispiel hier gefährlich nahe kommen.

Wir werden uns noch damit beschäftigen, dass für jede wertende Aussage hinsichtlich eines Testverfahrens auch die Charakteristik des untersuchten Kollektivs ausschlaggebend ist.

Normal

Jeder klinische Test benötigt Normalwerte, d.h. Ergebnisse, von denen man richtigerweise sagen kann, dass sie für Gesundheit sprechen, aber wie kommt man dazu?

In vielen Fällen drängen sich die (Labor-)Werte gesunder Menschen symmetrisch um den arithmetischen Mittelwert (Folie 2 linkes Abb), sind also normalverteilt und bilden eine Gauss’sche Glockenkurve
normalwert

Die Normalwerte werden dann meist festgelegt innerhalb eines Bereiches (Mittelwert +/- 2x Standardabweichung) festgelegt, in den 95% der Individuen fallen. Bei den Aufregungen, wenn im Routinelabor ein Wert außerhalb der Normalwert liegt, wird immer vergessen, dass bei der gewählten Definition ohnehin 5% der Gesunden AUSSERHALB des Normalbereiches liegen.
Fordert Ihr Arzt 2 derartig definierte Teste an, ist die Chance, dass einer davon „abnorm“ ausfällt schon bei 9,8%. Bei steigender Anzahl an Einzeltesten wird es schon höchst verdächtig, wenn nicht irgend ein Test abnorm ausgefallen ist.
Darin liegt auch die Crux vieler Screening-Verfahren, dass sie mehr falsch positive Ergebnisse liefern als sie Patienten retten.

Noch problematischer wird es bei Testvariablen, die NICHT normalverteilt sind, bzw. man annehmen muss, dass die gefundene Normalverteilung (Volkserkrankung) kein Garant für Gesundheit ist.
Einer dieser Klassiker ist das Cholesterin. Während unsere (Groß-)Elterngeneration noch bis zu Serumwerten von 240 mg/dl kein „Sternchen“ auf ihrem Laborbefund fanden (weil die österr. Normalbevölkerung im Mittel bei 215 liegt), wanderte der obere Normalwert seit den 90er jahren immer weiter nach unten. Noch problematischer wird es wenn man einen unteren Normalwert angeben möchte, der z.B. bei gesunden, streng vegan lebenden japanischen Mönchen um die 60 mg/dl liegt. In unseren Breiten ließen solche Werte eher an eine schwere Leberinsuffizienz denken …

Die Normalbereich dieser Parameter orientieren sich eher an Risikoprofil (Folie 2 rechts), also für das Cholesterin z.B. an der Herzinfarktrate. Wie die Kurve aber zeigt, gibt es auch hier keinen eindeutigen cut off. Hat man sein Cholesterin z.B. auf 190 gesenkt, dan wäre das Herzinfarktrisiko für ein Cholesterin von 180 NOCH niedriger (die Nebenwirkungen der benötigten Mendikamente jedoch auch schwerwiegender). Das Herzinfarktrisiko für ein Cholesterin von 0 mg/dl ist zwar auch Null, aber nur deshalb, weil der Patient nun tot ist.

Bei allen Angaben, was denn als normal = gesund zu werten ist, ist also das Zustandekommen des Normalbereiches zu berücksichtigen.

GAUSS: mean +/- 2 S.D.
setzt Normalverteilung voraus
PERCENTILE: Range angeben
macht ebenfalls nur Sinn bei Normalverteilung
KULTURELL: gesellschaftliche Präferenz
RISKIKOFAKTOR: minimiert Risiko
sagt oft nichts über zusätzliche Nebenwirkungen
DIAGNOSTISCH: Ergebnisse, bei denen die Diagnose hoch wahrscheinlich wird
THERAPEUTISCH: Ergebnisse, bei denen eine Therapie mehr Nutzen als Schaden verursacht

U.a. aus den geschilderten Gründen ist es ein Irrtum zu glauben, dass ein MEHR an Testverfahren (Laboruntersuchungen, CTs, ….) immer zu einer Verbessserung der Diagnostik führt. Die Mehrzahl aller klinischen Testverfahren zeichnet sich durch Sensitivitäten und Spezifitäten von 85 – 95% aus. Ihre unkritische Anhäufiung verwirrt oft mehr, als sie zur Klärung beiträgt.
Erst die Kombination aus ausreichend hoher klinischer Verdachtslage (Vortestwahrscheinlichkeit) und einem für die Fragestellung, das Patientenkollektiv und den Entwicklungsgrad des zur Verfügung stehenden Gesundheitssystems adäquaten Tests, erhöht die diagnostische Sicherheit.

Written by medicus58

6. Februar 2013 at 06:38

8 Information und Bias

leave a comment »


Fälschlicherweise glauben wir im täglichen Leben so wie in der klinischen Medizin immer, dass die Information (ein Testergebnis) an sich schon die ganze (verwertbare) Wahrheit darstellt.
Dies ist aber selten der Fall. Wir haben schon gehört, dass die Information Fieber in Abhängigkeit von Zusatzinformationen (geografischer Standort) zu ganz anderen Differentialdiagnosen führen kann (Malaria in Döbling ?).

Einen wesentlichen Einfluss (Bias) auf die subjektive Verarbeitung von Informationen hat die Reihenfolge in der wir Sie erfahren.
Es würde den Rahmen sprengen, jedoch lässt sich an aeiner Fülle von Beispielen zeigen, dass ein falscher Diagnosegang, also z.B. bei Kopfschmerzen ohne klinische Inspektion gleich eine Magnetresonanzuntersuchung anzuordnen, nicht nur teuer ist, sondern in vielen Fällen auch zu völlig falschen Diagnosen führen kann. Grund dafür ist, dass auch wissenschaftlich validierte Untersuchungsmethoden immer in einem bestimmten Kollektiv untersucht werden, so dass bestimmte Differentialdiagnosen, für die dieser bestimmte Test vielleicht gar nicht so gut funktioniert, bereits ausgeschlossen wurden. Viele „Erkenntnisse der Evidence Based Medicine“ sind deshalb in der Praxis schwierig anzuwenden, weil dort andere Selektionskriterien wirken, aber davon später.

Die Erkenntnis, wie sehr die Reihenfolge eintreffender Informationen die subjektive Einschätzung prägt, habe ich versucht mit folgendem Beispiel (Folie 1 und 2) „spürbar“ zu machen.
Reihenfolge a
Stellen Sie sich vor, Sie wohnen in einem Wohnblock mit 6 Etagen:
Sie kommen abends nach Hause und der Hausmeister (wenn es ihn noch gibt) teilt Ihnen mit, dass heute in Ihre Dachgeschoßwohnung eingebrochen wurde. Unbehagen wird sich bei Ihnen breit machen, obwohl Sie wissen, dass der Hausmeister gerne etwas über den Durst trinkt und nicht immer sehr vertrauenswürdig ist.
In der nächsten Etage treffen Sie auf Frau X, die Inen versichert, dass es war zu einem Einbruch im Hause gekommen war, aber nicht in Ihrer Wohnung.
Auch der freundliche Pensionist auf Etage 3, der imemr alles ganz genau weiß, beruhigt Sie: „Nein, die Polizei war bei Müllers, in Ihre Dachgeschoßwohnung ist nicht eingebrochen worden. Sie sind schon merklich entspannter, nur leider in Etage 4 werden Sie von Frau Y mit den Worten empfangen: Na Gott sei Dank kommen Sie, die Polizei sucht Sie schon den ganzen Tag, bei Ihnen ist eingebrochen worden. 
Jetzt sind Sie verwirrt. 2x Einbruch 2x alles OK: 
Eigentlich sind Sie nun so klug wie vorher, ehe Sie Ihr Haus betreten haben: 1:1 stehen die Chancen auf einen Einbruch, eigentlich besser als nach der ersten Information, denn da waren Sie zu 10% davon überzeugt, dass Sie Opfer eines Einbruchs wurden. Entspannt sind Sie aber sicher nicht.
In Etage 5 und 6 informiert man Sie erneut von einem Einbruch, jetzt steht es 4:2 für den Einbruch. Die zwei Mieter, die Ihnen etwasanderes gesagt haben, müssen nicht bösartig sein, sie können sich verhört haben, gerade nicht im Haus gewesen sein, .. was auch immer; Nobody is perfect
Reihenfolge b
Gehen Sie nun die Reihenfolge auf Folie 2 durch. Hier sind sprechen die ersten 4 Informanten von einem Einbruch. Auch wenn Etage 5 oder 6 wieder von keinem Verbrechen wussten, werden Sie deren Information kaum mehr glauben.

Obwohl es in beiden Fällen 4:2 für Einbruch steht, haben Sie im ersten Fall sicher längere Zeit zwischen Verzweiflung und Hoffnung oszilliert als im zweiten Fall. Die subjektive Einschätzung der Situation unterschied sich in beiden Fällen gewaltig, obwohl objektiv die Gesamtinformation gleich war.

Dieses Beispiel zeigt aber auch, dass wir 
zu keinem Zeitpunkt in einem Entscheidungsprozess über die Gesamtinformation verfügen, die das System für uns bereithält. 
Überdies demonstriert es, dass 
jeder Information ein gewisser Unsicherheitsfaktor anhaftet (Hausmeister =Trinker).

Somit sind wir mitten in der Auseinandersetzung über die Werkzeuge, die wir im Entscheidungsprozess heranziehen: 
Tests

Davon dann im nächsten Kapitel

6 Erfahrung hat man immer zu spät

leave a comment »


Nachdem wir uns bisher mit den Problemen beschäftigt haben, die entstehen, wenn sich der Arzt in seiner Diagnostik auf Daumenregeln und pathognomonische Symptome verläßt, wollen wir nochmals kurz auf den Klassiker zurück kommen, der den ärztlichen Beruf früher so angesehen und heute oft so angreifbar macht: Die persönliche Erfahrung

erfahrung

Die heutige Folie ist die vom Dia auf Powerpoint umgesetzte Anfangsfolie unserer Vorlesung: Während die Wahrscheinlichkeit ein Krankheitsbild schon während der Ausbildung gesehen zu haben früher groß war, werden viele von uns sich beim erstamligen Eintreten „“dieses Falles“ bestenfalls an einen Vorlesungsinhalt erinnern können.

Ein weiteres Problem mit unserer persönlichen Erfahrung stellt dar, dass es sich dabei nicht um ein festgefügtes, allzeit abrufbares Wissen handelt, sondern, dass seine Zugänglichkeit (auch vor dem Eintritt der Demenz) gewissen Gesetzen unterliegt, die seine Brauchbarkeit massiv einzuschränken vermögen:

Unter Heuristiken versteht man verkürzte kognitive Operationen, mit deren Hilfe Schlußfolgerungen gezogen werden, ohne komplizierte und langwierige Denkprozesse (Algorithmen) einsetzen zu müssen.

Representativeness Heuristic (Repräsentativitätsheuristik):

Dabei handelt es sich um eine Form der Urteilsheuristik, bei der eine einzelne Information als repräsentativ für eine ganze Klasse von Informationen angesehen wird und auf der Grundlage einer einzelnen Information werden (fälschlich) Aussagen über viele Ereignisse getroffen.

Die Erfahrung lehrt, dass einen die Charakteristika der ersten „Fälle“ stark im Gedächtnis bleiben, man erzählte sie auch schon sehr oft dem lauschenden Hörerkreis. Viele klinische Bilder, z.B. die facies mitralis (http://int-prop.lf2.cuni.cz/foto/016/pic00026.jpg) also die Kombination einer peripheren Zyanose gemeinsam mit Blutarmut im Rahmen einer Mitralklappenstenose treiben sich seit Jahrhunderten in der klinischen Medizin herum und leisten gute Dienste, den Studenten am Krankenbett Hochachtung abzuringen, wenn man schon das Herzecho des Patienten kennt. Wenn nicht, ist die Gefahr groß ziemlich „daneben zu hauen“.

Availibility Heuristic (Verfügbarkeitsheuristik):
Dabei handelt es sich um eine andere Form der Urteilsheuristik, bei denen die Wahrscheinlichkeit eines Ereignisses nach der Leichtigkeit der Verfügbarkeit in der eigenen Erinnerung abgeschätzt wird.

Ein gängiges Beispiel ist die hohe Effizienz mit der Ihr Hausarzt Ihr Fieber als grippalen Infekt und nicht als Malaria diagnostiziert, nachdem an diesem Tag die vorangegangenen drei Patienten bereits mit Fieber +Husten +Schnupfen + Heiserkeit die Ordination aufgesucht haben. Problematisch wird das Vorgehen aber, wenn sich der Arbeitsplatz des Arztes ändert (z.B. von der Hausarztordination in die Intensivstation oder von Döbling (=Wiener Nobelbezirk) nach Mombassa.

Zusammenfassend können wir also festhalten:
Ärzte (wie natürlich auch alle übrigen Menschen) tendieren dazu die Wahrscheinlichkeit einer Diagnose zu überschätzen,
wenn nur einige (typische) Symptome zutreffen und
wenn die Verdachtsdiagnose kürzlich schon häufiger gestellt wurde.
Ärzte neigen dazu die Wahrscheinlichkeit einer Diagnose zu unterschätzen, wenn nur einige (typische) Symptome fehlen und
sie sich nur schwer an den letzten Fall dieser Art erinnern können.

Die Expertise der persönlichen Erfahrung (Eminence based Medicine) ist also wie das Denken in Daumenregeln nicht prinzipiell schlecht, jedoch neben der wirklichen persönlichen Erfahrung noch von einigen Unabwägbarkeiten abhängig, die von Arzt und Publikum meist unterschätzt werden.

Eine gute Strategie ist die Anchoring & Adjustment Heuristic
Dabei benutzt man natürlich sein Vorwissen, seinen Daumenregeln und all die Zeichen, die man aus dem Lehrbuch kennt, aber nicht für die endgültige Festlegung einer Prima vista Diagnose sondern für die Festlegung eines beuwßt vorläufigen Verdachtes (Anchoring). Man tut vorläufig einmal so, als ob sich die gesuchte Diagnose im Umfeld dieser Festlegung, dieses Ankers, befindet und justiert mit dem Eintreffen zusätzlicher Informationen nach (Adjustment).
Mathematisch formuliert ordnet man seinen Diagnosen Wahrscheinlichkeiten zu.
Die Prävalenz ist die prinzipielle Wahrscheinlichkeit, dass diese Diagnose im gegebenen Umfeld vorliegt. Für HIV ist diese in einem Vorort von Johannisburg (Südafrika) deutlich höher als im bereits zitierten Döbling.
Nach all der Anamnese und der körperlichen Untersuchung gelangt man für die vermeutete Diagnose (Diagnosengruppe) zu einer bestimmten Vortestwahrscheinlichkeit, d.h. einem Prozentsatz, der angbit, in wie vielen Fällen von 100 gleichgelagerten Patienten die zu diesem Zeitpunkt vermutete Diagnose vorliegt.
Ein geeignetes Testverfahren, wobei es sich hier um eine spezifische Frage, eine bestimmte körperliche Untersuchung aber auch um all die Labor-, Röntgen-, endoskopischen, oder andere Untersuchungen handeln kann, wird diese Wahrscheinlichkeit erhöhen oder erniedrigen; dann spricht man von Nachtestwahrscheinlichkeit.
Wir werden später sehen, dass wir so selten auf 0% aber auch selten auf 100% gelangen.

%d Bloggern gefällt das: