Sprechstunde

über alles was uns krank macht

Archive for the ‘Clinical Decision Making’ Category

Der ökonomische Trugschluss mit der Überbefundung in der Medizin

with 2 comments


Befund

Fülle an unnötigen Befunden“ gehört zum Basismantra jeder Kritik am Gesundheitssystem, gefolgt von allerlei Extrapolationen, was denn da alles einzusparen wäre, könnte man die vielen Blutbilder und Röntgenaufnahmen verhindern.
Selbstverständlich könnte gerade die elektronische Krankenakte(ELGA) dies leicht in den Griff bekommen, versichern die ELGA Ges.m.b.H. im Chor mit all den IT-Firmen, die an dem Projekt beteiligt sind.

Erst kürzlich beim Europ. Radiologenkongress in Wien schlug Guy Frija, der Präsident der Europäischen Gesellschaft für Radiologie in dieselbe Kerbe, als er vollmundig bekannte, dass ein Drittel aller Röntgenuntersuchungen klinisch nicht gerechtfertigt und daher für den Patienten nutzlos wären.
Ja, wenn selbst die finanziellen Nutznießer dieses Systems zur derartig erhellenden Einsichten kommen, dann hindert uns ja nichts mehr all den Krempel beiseite zu werfen und uns auf das Wesentliche zu beschränken.

Gemach

… mit dieser Logik könnte man schließlich auch die vielen Polizisten abschaffen, weil sie ohnehin nur die wenigen von uns, die wirklich straffällig werden, finden müssen, oder die Feuerwehren einsparen, weil es ohnehin nur sehr selten brennt. Weniger platt formuliert zeigen diese Paradoxien, dass Lösungdsaufwand (Vorhalteleistung) und Häufigkeit eines Problems in einem indirekten, nicht linearen Verhältnis stehen.
Beschäftigen wir uns vorerst aber mit dem Vorwurf weshalb wir Ärzte eigentlich so dumm sind, unnötig viele Befunde anzufordern? Dass unstillbares Gewinnstreben nicht die einzige Erklärung dafür sein kann, beweist ja die Selbstanklage unserer Radiologen!

Wer nachlesen will sei auf einen früheren Artikel verwiesen (2 Anamnese – aber http://wp.me/p1kfuX-zt), in dem ich schon feststellte: Würde man Ärzte fürs Zuhören ähnlich gut honorieren, wie Anwälte, dann würden viel weniger Überweisungen ausgestellt werden.
Mit aktuellen Zahlen lässt sich das so belegen:

Ein Patient kommt zum Arzt und klagt über Müdigkeit und wirkt etwasblaß.
Die Differentialdiagnosen sind mannigfaltig, aber viele mögliche Ursachen laufen auf Infektionen u/o Blutarmut hinaus.
Ihr Arzt könnte nun, für die 18,74 € Fallpauschale pro Anspruchsberechtigtem und Quartal, versuchen herauszufinden, ob den überhaupt eine Müdigkeit (oder eine Depression) vorliegt, tief in die Augen schauen um zu objektivieren, ob der Patient überhaupt blutarm ist oder die Blässe eben seinem Teint entspricht und sich so gut eine halbe Stunde mit seinem Patienten beschäftigen.

Die Wiener Gebietskrankenkasse zahlt dem Labor für ein
Komplettes Blutbild
 (Zählung und Beurteilung der Erythrozyten, Leukozyten und Thrombozyten, automatisierte oder notwendige mikroskopische Differentialzählung, Hämatokrit- und Hämoglobinbestimmung, Errechnung der sich aus der Zählung und Messung ergebenden Parameter) 3,20€

Für ein Lungenröntgen, mit dem zumindest eine schwer Lungenentzündung bei unserem Patient ausgeschlossen werden kann, zahlt die Wiener Gebietskrankenkasse 16,23 € Honorar und 24,54 €.

Und jetzt überlegen Sie was für ihren Hausarzt kostengünstiger ist, eine klinisch-physikalische Untersuchung mit all ihren Unsicherheiten oder die Anordnung eines Röntgen- oder Laborbefundes.

Richtig, da seine Bemühungen schlecht honoriert werden, verwendet er die externe Diagnostik zur Ausschlussdiagnose. Aus Sicht der Diagnostiker sind natürlich die Befunde im konkreten Fall unnötig, oft weil der Patient erst Tage nach der Zuweisung erschien und inzwischen ohnehin nicht mehr fiebert oder sich schon durch die heilsame Wirkung des Zeitablaufes erholt hat.

Wer aber nun glaubt das Problem dadurch in den Griff zu kriegen, dass er ein Drittel der externen Befundkosten in den Bereich der Hausärzte stopft übersieht, ebenso wie die überheblichen Diagnostiker, die sich über die blöden Zuweisungen mokieren, ein wichtiges Detail:

Mit ein bißchen mehr klinisch-diagnostischen Aufwand in der Arztpraxis lassen sich sicher 10% der unnötigen Überweisungen einsparen.
Werden die Ärzte gewzungen, die riesigen und unübersichtlich gewordenen Krankenakte vor jeder Überweisung zu durchwühlen, ob sich nicht doch ein Vorbefund finden lässt, der die eine oder andere Verdachtsdiagnose erhärtet, dann steigt der zeitliche Aufwand (und damit die Kosten) schon überproportional an.
Letztendlich werden wir ein exponentielles Verhältnis zwischen Aufwand und Gewinn, d.h. sehr bald wird es – unabhängig von den aktuellen Arzthonoraren – billiger ein Blutbild anzufordern, nur um nicht neben den eingesparten unnötigen Befunden einen wirklich Kranken zu übersehen.

Advertisements

14 Zebras revisited

with one comment


Zebra
Wir haben hier schon in Lektion 4 Wie denkt der Arzt, wenn er denkt? Daumenregeln (http://sprechstunde.meinblog.at/?blogId=87243) einen der beliebtesten Kalauer der „klinischen Eselsbrücken“ zitiert:

If you hear hoofbeats, think of horses not of zebras.
(Wenn Du Pferdegetrappel hörst, denke (in Europa) zuerst an Pferde und nicht an Zebras)

Diese Regel richtet sich vorzugsweise an Medizinstudenten, die „angestrebert“ mit allerlei ungeordnetem Faktenwissen sehr häufig zuerst an das Spektakuläre denken und darauf vergessen, dass die Vortestwahrscheinlichkeit für so eine spektakuläre Lösung sehr gering ist.

Trotzdem gibt es natürlich auch diese seltenen Diagnosen/Krankheiten und im Gegensatz. zum hier kürzlich kritisierten Zugang, bereits am Anfang des Diagnosegangen sich auf Basis einiger Symptome Differentialdiagnosen vorschlagen zu lassen: 
13 Symptoma – Symptom für eine falsche Entwicklung der Medizin (http://sprechstunde.meinblog.at/?blogId=88871)

Kann dieser Zugang nach einem bislang frustranen Diagnosegang durchaus hilfreich sein: FIND ZEBRA http://arxiv.org/abs/1303.3229 

Auf ORF Science wird in deutscher Sprache erklärt, wie hier dänische Wissenschaftler einen zu Dr. Google alternativen Suchalgorithmus für „orphan diseases“ entwickelt haben, weil „was definitionsgemäß selten ist, lässt sich mittels Linkpopularität nur unzureichend erfassen“.
http://science.orf.at/stories/1714649/

Zum Ausprobieren (in englischer Sprache), hier die Homepage:
http://rarediseases.imm.dtu.dk/FindZebra/default/index 
und zum Nachlesen auch, wobei einige Einträge hier nicht ganz den Definitionen entsprechen, was aber auch daran liegt, dass die Prävalenz (Häufigkeit) mancher Erkrankungen regional stark schwankt: 
http://www.hon.ch/HONselect/RareDiseases/index_de.html 

Ein kurzer eigener Test mit:
cough, muscle weakness, double vision

bringt wirklich an erster Stelle das Lambert-Eaton Syndrom an das ich bei meinem Test gedacht habe
http://de.wikipedia.org/wiki/Lambert-Eaton-Rooke-Syndrom

Respekt!

aber auch anderes spuckt die Suchmaschine aus:

Idiopathic intracranial hypertension
Myasthenia gravis
Pseudotumor Cerebri
Centronuclear myopathy
Myasthenia Gravis
Chronic progressive external ophthalmoplegia
Lambert-Eaton Myasthenic Syndrome
Progressive Supranuclear Palsy
SMA
Myopathy, Tubular Aggregate
Myasthenia Gravis
Machado-Joseph Disease
Muscular Dystrophy, Oculopharyngeal
Becker Muscular Dystrophy (BMD)
Charcot-Marie-Tooth Disease, Axonal, Type 2J
Spinal muscular atrophy
Glycogen storage disease type II
Sandhoff disease20 Polymyositis

Auch deshalb warnen die Autoren, dass diese Suchmaschine nicht für Laien gedacht war … 
die Möglichkeiten seine Hypochondrie zu perfektionieren sind nämlich hoch …

Written by medicus58

20. März 2013 at 17:22

13 Symptoma – Symptom für eine falsche Entwicklung der Medizin

leave a comment »


Aus aktuellem Anlass unterbrechen wir die Online-Vorlesung über „Clinical Decision Making“ (1 Am Anfang war die Diagnose – Clinical Decision making Not only for Dummies http://wp.me/p1kfuX-zq), um exemplarisch zu zeigen, weshalb es eben nicht genügt, sich einer Datenbank zu bedienen, um „ein guter Arzt“ zu sein.

Symptoma 2

Mit einigen Förderungsgeldern (bmwfj, FFG, bmvit, Land Salzburg, aplusb, bccs) hat Jama Nateqi, ein Absolvent der Paracelsus-Privatuniversität Salzburg,
„Symptoma – better diagnosis“ (https://de.symptoma.com/)
entwickelt und wird aktuell von den Salzburger Nachrichten vollmundig „beworben“:
Weltweit sterben jährlich eine halbe Million Menschen an ärztlichen Fehldiagnosen. Die medizinische Suchmaschine „Symptoma“ aus Salzburg will das in Zukunft verhindern.
http://www.salzburg.com/nachrichten/salzburg/wirtschaft/sn/artikel/medizinische-suchmaschine-soll-leben-retten-50343/  

Nach Eingabe eines Symptoms, dem Geburtsjahr und dem Geschlecht werden einen nach Wahrscheinlichkeit gereihte Differentialdiagnosen geboten.

Für 25€/Monat ist der Arzt dabei.

Und was ist denn daran schlecht, mögen die fragen, die die bisherigen Teile der Online-Vorlesung nicht gelesen haben?
Denen sei Teil 7: Der unverzeihende lineare Algorithmus (http://wp.me/p1kfuX-zP) ans Herz gelegt. Natürlich ist nichts schlecht daran auf Knopfdruck zu einem bestimmten Symptom einige Differentialdiagnosen zu sehen. Bücher, die sich tabellarisch mit Differentialdiagnosen beschäftigen haben in der Medizin eine lange Tradition.
Der Zugewinn an Verwirrung ist aber deutlich größer als der Zuwachs an Wissen, die Tendenz zur undifferenzierten Ausschlussdiagnostik mittels Labor und Röntgen wird dadurch enorm gefördert, weil dadurch statt der Verfeinerung eines begonnenen „diagnostischen Fadens“ ein Dutzend weiterer aufgemacht werden.
Überdies gehen alle derartigen Systeme davon aus, dass das eingegeben „Kardinalsymptom“ auch wirklich das wesentlichste Symptom darstellt. Leser dieser Online-Vorlesung sollten aber bereits wissen, dass ein „anchoring and adjustment“, ein sich „Vorwärtstasten“ in bestimmte Diagnosecluster einer frühzeitigen Festlegung auf eine bestimmte Diagnose überlegen ist. 

Somit kommt mit „Symptoma – better diagnosis“ eigentlich nur die alte Blickdiagnose erneut – diesmal in Form einer APP – in die Medizin.

Symptoma ist nur ein Teil des „Click-for-knowledge“ Universums (http://www.clickforknowledge.com/impressum) in dem Dr. med. univ. Jama Nateqi (Geschäftsführer der click for knowledge GmbH und seit seinem 16. Lebensjahr Entwickler von Internetprojekten) und Thomas Lutz (ebenfalls Geschäftsführer der click for knowledge GmbH und ehemaliger bayerischer Schach Jugendmeister dem Schach) allerhand Internet basierte Dienste entwickeln.
Bildnachweis: Screenshot von der Homepage

Written by medicus58

8. März 2013 at 16:23

12 Quite mean, the Regression to the Mean

leave a comment »


Regressiontothemean
Ehe wir uns mit den „höheren Weihen“ der medizinischen Diagnostik (EBEM et al.) auseinandersetzen, wollen wir uns noch etwas länger mit den Eigentümlichkeiten von Testverfahren auseinandersetzen, wobei nochmals in Erinnerung gerufen werden muss, dass Test in diesem Zusammenhang jedes Verfahren (Anamnese, körperliche Untersuchung, Labor, Bildgebung, bis zu diagnostisch invasiven Verfahren) bedeutet.

Aus dem bisher gesagten sollte eigentlich schon klar geworden sein,
dass jeder Test nur dann gerechtfertigt ist, wenn er die nachfolgende klinische Entscheidung sicherer, d.h. weniger fehlerbehaftet macht.

Im Hinblick auf eine – nicht zuletzt von der US-amerikanischen Rechtssprechung forcierten – Absicherungsmedizin muss aber stehts klar bleiben, dass der diagnostische Zugewinn in einem Diagnosegang absolut immer geringer werden wird, was die im letzten Kapitel vorgestellten ROC Kurven m.E. wunderschön verdeutlichen.

Vor diesem Hintergrund müsste jeder naturwissenschaftlich geschulte Arzt auf die Frage seines Patienten oder Richters, ob er sich absolut (100%) sicher wäre, mit einem deutlichen NEIN antworten. 

Jeder weitere diagnostische Schritt führt im besten Fall zu einer asymptotischen Annäherung an die „richtige Diagnose“.

Ein Test macht nur Sinn, wenn die Nachtestwahrscheinlichkeit sich gegenüber der Vortestwahrscheinlichkeit ändert.

Der größte diagnostische Zugewinn ist immer bei mittlerer Vortestwahrscheinlichkeit zu erwarten.
Im Umkehrschluss sagt dieser Satz auch, dass es in der klinsichen Diagnostik nur mit enorm großen Aufwand möglich ist, eine Krankehit gänzich auszuschließen oder ganz sicher z ubeweisen. Wie wir ebenfalls gesehen haben ist es in dieser Situation viel wahrscheinlicher, das ein falsch positiver oder negativer Testbefund verwirrt.

Regression to the Mean
http://de.wikipedia.org/wiki/Regression_zur_Mitte 
Einer meiner klinischen Lehrer empfahl stets die Wiederholung von abnormen Testergebnissen, die so gar nicht zu den bisherigen Verdachtsdiagnosen passten: 

Wiederholung führt zur Normalisierung abnormer Laborergebnisse.

und er behielt meistens recht.

Man muss sich nur vor Augen halten, dass die nachträgliche Beruhigung von Arzt und Patient eine trügerische ist. in Wirklichkeit zeigt sie weder die Gesundhung des Patienten noch die Aufdeckung eines (zuerst) falschen Laborbefundes an, sondern reflektiert einfach die Streubreite jedes Testverfahrens. 
Bemühen Sie sich mit geschlossenen Augen mit einem Bleistift einen Punkt in einem Kreis auf einem vor Ihnen liegenden Blatt Papier zu machen. Es ist sehr unwahrscheinlich, dass sie den Kreismittelpunkt treffen. Wenn sie den Versuch aber 100x wiederholen, wird die Punktwolke um den Mittelpunkt liegen. Wenn nicht besuchen Sie Ihren Neurologen.
Dieses Phänomen tritt auch sehr häufig bei Therapiestudien auf, wo einer Befundnormalisierung auch in der Placebogruppe bemerkt wird. Neben einer reihe anderer Faktoren ist dafür auch verantwortlich, dass Wiederholungen von TEsten mit einer gewissen Streubreite dazu führen, dass die Werte hin zu einem Mittelwert konvergieren. 
Andere Effekte, die sich in erster Linie auf die Ergebnisse medizinischer Vergleichstudien auswirken sind
Hawthorne-Effekt: Ändern Studienteilnehmer aufgrund der Studienteilnahme
ihr natürliches Verhalten, kann das – insbesondere in der Kontrollgruppe
– zu einer Überschätzung von Behandlungseffekten führen. 
Simpson-Paradox: Wenn (un)bekannte Einflussfaktoren (Confounder)
auf das Studienergebnis einwirken, kann das Gesamtergebnis einer (Fallkontroll-) Studie durch Subgruppenanalysen auf den Kopf gestellt werden.
und das Will-Rogers-Phänomen: Verbessern sich die diagnostischen Möglichkeiten oder wird die Prävalenz einer Erkrankung künstlich angehoben, kann sich die Prognose eines Patienten verbessern, ohne dass sich an seinen Messwerten irgendetwas geändert hat.

Da es hier i.e.L. um den Diagnosegang des individuellen Patienten geht und nicht um eine Kritik klinischer Studien, werden wir uns hier nicht weiter verbreiten. Interessierten sei aber ein sehr leicht verständlicher Artikel dazu ans Herz und Hirn gelegt: 
http://www.medicalforum.ch/pdf/pdf_d/2006/2006-46/2006-46-194.PDF

ROC around the clock

leave a comment »


Gehen Sie von einem sehr guten klinischen Bluttest (z.B. auf Grippeviren) aus, der eine 90%-ige Sensitivität und 90%-ige Spezifität hat, aus und schätzen Sie, wie groß die Wahrscheinlichkeit ist, dass ein Patient, der einen positiven Test hat, auch wirklich erkrankt ist.

Wir befinden uns vor einer Grippewelle und die Krankheitsprävalenz beträgt aktuell 1:1000, d.h. ein Mensch von 1000 ist schon angesteckt …..

so endete das letzte Kapitel und es wird Zeit für die Auflösung:

Der positive Vorhersagewert, so nennt man das, wonauch gefragt wurde, beträgt 0,9%!

Wären wir aber schon am Höhepunkt der Grippewelle und nicht 1:1000 sondern bereits 1 : 100 Personen haben sich angesteckt, dann wäre der positive prädiktive Wert schon 8,3%.

Was lernen wir daraus?

Sens und Spec eines Testes sagen für sich genommen über den erreichbaren klinischen Erkenntnisgewinn wenig aus, wenn das gesuchte Merkmal sehr selten ist.

komplizierter wird die Sache nun durch die schon angesprochenen Normalwerte
Diese gelten natürlich nicht nur für Blutteste, sondern jedes Testverfahren. 
Ein Radiologe kann im CT zB. einen Lymphknoten schon mit einem Durchmesser von 5 mm als pathologisch diagnostizieren und hat dadurch die Sensitivität seines Testes deutlich angehoben, d.h. er wird weniger Lymphknotenmetastasen übersehen, nur fällt seine Spezifität in den Keller, d.h. viele der von ihm als pathologisch beschriebenen Lymphknoten sind dann gar keine Metastasen sondern normal große oder gering entzündlich veränderte Lymphknoten.

Um dieses Phänomen zu veranschaulichen und um zwei Testverfahren unabhängig von den jeweils festgelegten Normalweten vergleichen zu können, wurde die ROC Analyse (http://de.wikipedia.org/wiki/Receiver_Operating_Characteristic) entwickelt:

ROC 2
In Folie 1 sehen wir die erzielbaren Sensitivität und Spezifität eines Testes in Abhängigkeit von den gewählten Normal- bzw. Schwellenwerten.
Bei einen laxen Schwellenwert (Punkt rechts oben) ist Sensitivität hoch (in diesem Beispiel 0,94), die Spezifität aber mit 0,44 aber im Keller. Anders ausgefrückt: Wir übersehen wieder keinen Kranken, machen aber mehr als die Hälfte der Gesunden mit einem pathologischen testergebnis fälschlich krank. Mit einem Strikten Schwellenwert (Punkt links unten) sind die Verhältnisse umgekehrt (Sensitivität nur mehr 0,46, Spezifität aber 0,92).

ROC 1

Folie 2 zweigt uns nun eine vergleichbare Darstellung, in der nun die Testcharakteristik in ein Quadrat eingetragen wird, dessen Seiten nun Vortestwahrscheinlichkeit und Nachtestwahrscheinlichkeit entsprechen.

Ein völlig sinnloser Test, oder der Verzicht auf irgendeien Test (kein Test) ergibt eine Diagonale, d.h. die 
Vortestwahrscheinlichkeit = 
Nachtestwahrscheinlichkeit.=
kein Informationszugewinn
Normale Teste haben eine den gelben Linien entsprechende Charakteristik, wobei je eine der Kurven dem positiven (abnormen) und dem negativen (gesunden) Ergebnis entspricht.
Grafisch wird schnell kalr, dass der Informationszugewinn immer größer wird, je weiter ein positives oder negatives Ergebnis von der roten Linie auslenkt.
Die grüne Linie repräsentiert einen nahezu utopischen Informationszugewinn.

ROC3

An dieser grafischen Darstellung (Folie 3) wird auch ein anderes Gesetz der klinischen Diagnostik klar: In der Regel hat man den größten diagnostischen Zugewinn zu erwarten, wenn man einen Test bei mittlerer Vortestwahrscheinlichkeit anfordert.

Bei mittlerer Vortestwahrscheinlichkeit, also in der mitte der linken Seite unseres Quadrats ist der Informationszugewinn, also die Distanz zwischen roter Linie und Textcharakteristik am größten.

Wir haben heute einiges für die Praxis gelernt, auch wenn die Darstellugnen sehr theoretisch wirkten:

Die gewählten Normalwerte beeinflussen Sensitivität und  Spezifität eines testes, ohne, dass sich am testverfahren selbst (Labortest, CT-Bild, …) etwas ändert.

Wir verstehen nun. die 2-stufige Testung beim Screening auf HIV.
Ist die gesuchte Krankheit im untersuchten Kollektiv sehr selten, dann muss ich einen sehr, sehr sensitiven Test anwenden, um die wenigen Kranken nicht zu übersehen, handle mir aber damit viele falsch positiven (Gesunde mit einem abnormen Testergebnis) ein. Diese filtere ich mit einem auf hohe Spezifität getrimmten zweiten Test heraus. Die hohe Spezifität des zweiten Tests hätte uns zwar viele falsch positive Teste (und unnötig aufgeregte Patienten) bei der ersten Runde erspart, es liefen aber viele HIV-Positive mit einem falsch negativen Testergebnis herum.

Written by medicus58

15. Februar 2013 at 17:05

10 Regenwarnung und Rettung durch einen Presbyterianer

leave a comment »


Wir haben zuletzt feststellen müssen, dass es keinen Test gibt, der 100%-ig zwischen krank und gesund zu unterscheiden vermag.
Beunruhigend vielleicht, so manchem Juristen nicht klar zu machen, der einen verurteilt, weil man diesen oder jenen Test unterlassen hätte, aber halt „part of the game„.
Wir haben hoffentlich inzwischen festgestellt, dass im medizinischen Leben das lineare Denken einer Wenn-Dann Logik ebensowenig hilft, wie der feste Glaube an Empirie. Die Lösung ist die Hinwendung zu einer Wahrscheinlichkeitslogik, die die konsekutiv eintreffenden Informationen so „verarbeitet“, dass wir und mit Anchoring & Adjustment auf eine Diagnose bzw. therapeutische Entscheidung hinbewegen.

Als ich mich in den frühen 90ern erstmals mit diesen Konzepten beschäftigte, schien dieses „mathematische“ und somit unanschauliche Vorgehen sehr weit weg von unserem täglichen Leben. In den USA war es schon damals üblich vom Wetterfrosch im TV nicht einfach zu hören, dass es morgen regnen wird oder eben nicht, sondern man erhielt eine Niederschlagswahrscheinlichkeit mitgeteilt. Kritiker mögen einwenden, dass das zwar den Vorteil hat, dass sich der Wetterfrosch nie ganz irren konnte, aber dass sich der Hörer erst Recht nicht orientieren konnte. Genau dies hört man auch in Medizinerkreisen, wenn man eine Wahrscheinlichkeitslogik im Clinical Decision Making einfordert.
Folgendes Beispiel soll illustrieren, dass man aber auch mit der scheinbaren Unsicherheit der Wahrscheinlichkeitsrechnung ganz einfach praktisch relevante Entscheidungen treffen kann, ohne hinter sich einen Hochleistungsrechner zu benötigen.
30%

Nehmen wir an (Folie), der Wetterbericht sagt ihnen für heute eine 30%-ige Niederschlagswahrscheinlichkeit voraus und Sie fragen sich, ob Sie nun einen Regenschirm mitnehmen sollen oder nicht. Für sich genommen ist diese Information natürlich weniger hilfreich, als die autoritären Extreme: Morgen regnet es, oder morgen regnet es nicht.

Was wir aber bedenken müssen, ist dass wir es praktisch nie mit einer einzigen Information zu tun haben. Nehmen Sie die beiden Herren auf unserem Bild, der eine im (vermutlich sündteuren) Smoking, der andere in der (vermutlich billigen und in chinesischen Sweatshops hergestellten) Freizeitkleidung.
Ein paar Regenspritzer werden den Herrn links viel stärker stören, als sein Pendant. Setzen wir eine vergleichbare Wasserscheu bei unseren beiden voraus, wird der Smokingträger besser schon bei einer 30%-igen Regenwahrscheinlichkeit seinen Knirps einstecken, während der Jeansträger durchaus erst ab einer Niederschlagswahrscheinlichkeit von 70% zum Paraplü greift.

Wie man also zusätzlich eintreffende Informationen in seinen Entscheidungsalgorithmus einbindet, hat schon vor 300 Jahren ein englischer Presbyterianer dargelegt: Thomas Bayes http://de.wikipedia.org/wiki/Thomas_Bayes
Gemeinsam mit Ockhams Rasiermesser, einem aus der Scholastik entlehnten Konzept, dass in diesem Blog (http://sprechstunde.meinblog.at/?blogId=32318 ) schon einmal erwähnt wurde, ist das Bayestheorem (http://de.wikipedia.org/wiki/Bayestheorem) der zweite Lehrsatz, den wir der Geistlichkeit früherer Jahrhunderte verdanken; dass aus dieser Ecke derzeit nur mehr „Grand Design“ oder dergleichen kommte, wollen wir jetzt nicht erörtern … Die Ableitung des Bayeschen Theorems finden Sie über den Wiki-Link.
Die Bedeutung des Bayestheorem für die medizinische Diagnostik liegt darin, dass es uns ermöglicht für eine bestimmte Vortestwahrscheinlichkeit, also der Wahrscheinlichkeit, dass die vermutete Krankheit vorliegt weil sie eben so häufig in der Bevölkerung vorkommt, oder weil Anamnese, Körperliche Untersuchung, vorangegangene Test diese Wahrscheinlichkeit ergeben haben, und eine bestimmte Testperformance, also die Sensitivität und Spezifität des Tests zu berechnen, wie wahrscheinlich (Nachtestwahrscheinlichkeit) in unserem Einzelfall die Diagnose geworden ist.

Dies wird hier in einem Video demonstriert: http://www.youtube.com/watch?v=6xtXvh-e3Wc

In der Regel hört man nun, dass das alles schon und gut wäre, aber kein Arzt steht mit einem Rechenblock neben seinem Patienten. Das stimmt natürlich, man muss sich aber diese Zusammenhänge einmal bewußt machen, weil man sonst in der täglichen Routine immer wieder drastisch danebenhaut.
Gehen Sie von einem sehr guten klinischen Bluttest (z.B. auf Grippeviren) aus, der eine 90%-ige Sensitivität und 90%-ige Spezifität hat, aus und schätzen Sie, wie groß die Wahrscheinlichkeit ist, dass ein Patient, der einen positiven Test hat, auch wirklich erkrankt ist.

Wir befinden uns vor einer Grippewelle und die Krankheitsprävalenz beträgt aktuell 1:1000, d.h. ein Mensch von 1000 ist schon angesteckt …..

9 Was ist schon normal

leave a comment »


Teste stellen die wesentlichen Knotenpunkte in jedem Entscheidungsprozess dar. Dabei ist es einerlei, ob es sich um eine Frage, eine Blutabnahme, die Bildgebende Diagnostik oder sogar einen explorativen chirurgischen Eingriff zur Gewebsentnahme handelt.

In all diesen Fällen geht es darum an einer „Kreuzung“ stehend, einen Hinweis zu bekommen, wohin die weitere Reise zu gehen hat.

Wir unterliegen aber alle einem großen Mißverständnis, wenn wir glauben, dass zwar unser Wissen und unsere Herangehensweise letztendlich immer fehleranfällig sein wird, jedoch glauben, dass die Teste stets zu eienr klaren Aussage führen. Schon im vorangegangenen Beispiel sahen wir, dass die „Glaubwürdigkeit“ mancher Auskunftspersonen einmal größer einmal kleiner sein kann. 

Bei Testen beschreibt man das mit den Begriffen von Sensitivität und Spezifität.

Sensitivität (richtig positive Rate eines Tests) bezeichnet die Wahrscheinlichkeit, mit einem diagnostischen Test die Kranken auch als krank zu identifizieren. 
Spezifität (richtig-negative Rate eines Tests) beschreibt die Wahrscheinlichkeit, mit einem diagnostischen Test Nicht-Erkrankte korrekt zu identifizieren.

Für die praktische Bedeutung sagen diese Werte wenig aus, da sie stark vom untersuchten Kollektiv abhängen.

Beispiel:
Nach jahrzehntelanger Forschung habe ich ein Gerät entwickelt, dass Schwangerschaft von Patientinnen mit einer 100%-igen Sensitivitätvoraussagen kann. Klingt toll, nicht? In Wahrheit genügt es ein Gerät zu konstruieren, dass bei jeder Frage IMMER EINE ANTWORT gibt: SCHWANGER.
Auf diese Weise werden alle Schwangeren richtig erkannt und die Sensitivität ist 100%. Dass die Spezifität, also der richtige Schwangerschaftsaussschluss bei 0% liegt, macht mein „Gerät“ klinisch sinnvoll. Natürlich sind die meisten unserer Diagnoseverfahren etwas sophistizierter, aber glauben Sie nicht, dass es da nicht auch solche gibt, die -für viel mehr Geld – unserem Beispiel hier gefährlich nahe kommen.

Wir werden uns noch damit beschäftigen, dass für jede wertende Aussage hinsichtlich eines Testverfahrens auch die Charakteristik des untersuchten Kollektivs ausschlaggebend ist.

Normal

Jeder klinische Test benötigt Normalwerte, d.h. Ergebnisse, von denen man richtigerweise sagen kann, dass sie für Gesundheit sprechen, aber wie kommt man dazu?

In vielen Fällen drängen sich die (Labor-)Werte gesunder Menschen symmetrisch um den arithmetischen Mittelwert (Folie 2 linkes Abb), sind also normalverteilt und bilden eine Gauss’sche Glockenkurve
normalwert

Die Normalwerte werden dann meist festgelegt innerhalb eines Bereiches (Mittelwert +/- 2x Standardabweichung) festgelegt, in den 95% der Individuen fallen. Bei den Aufregungen, wenn im Routinelabor ein Wert außerhalb der Normalwert liegt, wird immer vergessen, dass bei der gewählten Definition ohnehin 5% der Gesunden AUSSERHALB des Normalbereiches liegen.
Fordert Ihr Arzt 2 derartig definierte Teste an, ist die Chance, dass einer davon „abnorm“ ausfällt schon bei 9,8%. Bei steigender Anzahl an Einzeltesten wird es schon höchst verdächtig, wenn nicht irgend ein Test abnorm ausgefallen ist.
Darin liegt auch die Crux vieler Screening-Verfahren, dass sie mehr falsch positive Ergebnisse liefern als sie Patienten retten.

Noch problematischer wird es bei Testvariablen, die NICHT normalverteilt sind, bzw. man annehmen muss, dass die gefundene Normalverteilung (Volkserkrankung) kein Garant für Gesundheit ist.
Einer dieser Klassiker ist das Cholesterin. Während unsere (Groß-)Elterngeneration noch bis zu Serumwerten von 240 mg/dl kein „Sternchen“ auf ihrem Laborbefund fanden (weil die österr. Normalbevölkerung im Mittel bei 215 liegt), wanderte der obere Normalwert seit den 90er jahren immer weiter nach unten. Noch problematischer wird es wenn man einen unteren Normalwert angeben möchte, der z.B. bei gesunden, streng vegan lebenden japanischen Mönchen um die 60 mg/dl liegt. In unseren Breiten ließen solche Werte eher an eine schwere Leberinsuffizienz denken …

Die Normalbereich dieser Parameter orientieren sich eher an Risikoprofil (Folie 2 rechts), also für das Cholesterin z.B. an der Herzinfarktrate. Wie die Kurve aber zeigt, gibt es auch hier keinen eindeutigen cut off. Hat man sein Cholesterin z.B. auf 190 gesenkt, dan wäre das Herzinfarktrisiko für ein Cholesterin von 180 NOCH niedriger (die Nebenwirkungen der benötigten Mendikamente jedoch auch schwerwiegender). Das Herzinfarktrisiko für ein Cholesterin von 0 mg/dl ist zwar auch Null, aber nur deshalb, weil der Patient nun tot ist.

Bei allen Angaben, was denn als normal = gesund zu werten ist, ist also das Zustandekommen des Normalbereiches zu berücksichtigen.

GAUSS: mean +/- 2 S.D.
setzt Normalverteilung voraus
PERCENTILE: Range angeben
macht ebenfalls nur Sinn bei Normalverteilung
KULTURELL: gesellschaftliche Präferenz
RISKIKOFAKTOR: minimiert Risiko
sagt oft nichts über zusätzliche Nebenwirkungen
DIAGNOSTISCH: Ergebnisse, bei denen die Diagnose hoch wahrscheinlich wird
THERAPEUTISCH: Ergebnisse, bei denen eine Therapie mehr Nutzen als Schaden verursacht

U.a. aus den geschilderten Gründen ist es ein Irrtum zu glauben, dass ein MEHR an Testverfahren (Laboruntersuchungen, CTs, ….) immer zu einer Verbessserung der Diagnostik führt. Die Mehrzahl aller klinischen Testverfahren zeichnet sich durch Sensitivitäten und Spezifitäten von 85 – 95% aus. Ihre unkritische Anhäufiung verwirrt oft mehr, als sie zur Klärung beiträgt.
Erst die Kombination aus ausreichend hoher klinischer Verdachtslage (Vortestwahrscheinlichkeit) und einem für die Fragestellung, das Patientenkollektiv und den Entwicklungsgrad des zur Verfügung stehenden Gesundheitssystems adäquaten Tests, erhöht die diagnostische Sicherheit.

Written by medicus58

6. Februar 2013 at 06:38

%d Bloggern gefällt das: