Sprechstunde

über alles was uns krank macht

Archive for the ‘ONLINE VORLESUNGEN’ Category

Ja was nun, oder was an der medizinischen Wissenschaft so verwirrt

leave a comment »


Auf AuntMinnie.com, einem beliebten Online Portal für die Bildgebende Diagnostik fiel mir dieser Widerspruch auf: Ein und die selbe Methode (das sogenannte NaF-PET, nicht mit dem „üblichen FDG PET“ zu verwechseln!) ist einmal gut um Knochenmetastasen beim Prostatakarzinom zu finden und einem mies. Das wundert doch, nicht wahr?

Geht man zu den Originalbeiträgen, kommt man auf zwei parallel publizierte Arbeiten:

In der einen haben Forscher der Uni-Klinik Aalborg in einer Studie in der September Ausgabe des Journal of Nuclear Medicine publiziert, dass erfahrene Befunder sich einig sind, ob die NAF PET/CT Untersuchung Knochenmetastasen zeigt.
211 von 219 untersuchten Patienten hätten demnach Knochenmetastasen.
The sensitivity ranged from 0.86-0.92, specificity from 0.83-0.97, positive predictive value from 0.70-0.93, and negative predictive value from 0.94-0.96.
Die Übereinstimmung, ausgedrückt durch den sogenannten Kappa-Wert war beeindruckend. D.h. doch, dass das eine gute Methode ist, nicht?

Der andere Eintrag bezog sich auf eine im Mai auch (!) im Journal of Nuclear Medicine publizierte Arbeit der selben Arbeitsgruppe um den selben Erstautor aus Aalborg.

Observer agreement and accuracy of 18F-sodium-fluoride PET/CT in the diagnosis of bone metastases in prostate cancer. Zacho HD, Fonager RF, Nielsen JB, Haarmark C, Hendel HW, Johansen MB, Mortensen JC, Petersen LJ. J Nucl Med. 2019 Sep 3

No added value of 18F-sodium fluoride PET/CT for the detection of bone metastases in patients with newly diagnosed prostate cancer with normal bone scintigraphy. Zacho H, Jochumsen MR, Langkilde NC, Mortensen JC, Haarmark C, Hendel HW, Jensen JB, Petersen LJ. J Nucl Med. 2019 May 30

In der Arbeit im Mai hat man schon festgestellt, dass, zugegeben in einer besonders schwierigen Patientengruppe (81 intermediär oder Hoch-Risiko Patienten mit negativem Knochenscan im initialen Staging) die NaF PET/CT keinen diagnostischen Gewinn hatte.
D.h. doch, dass das eine miese Methode ist, nicht?

Von 81 Patienten schienen an Hand des initialen postoperativen PSA Wertes 6 Patienten nicht als „biochemisch als geheilt“, wobei all diese Patienten auch einen negative NaF PET hatten, also präoperativ nicht identifiziert werden konnten. (Natürlich könnten diese auch Lymphknotenmetastasen haben) De NaF-PET hat bei negativem Kochenscan nur in einem Patienten eine Knochenmetastase identifiziert und ergab in 7 Patienten unklare Ergebnisse, wobei diese Patienten vermutlich keine Knochenmetastase hatten, weil sie postoperativ einen optimalen PSA Wert hatten. H
err Kollege Zacho schloss somit: NaF-PET/CT has no added value for bone staging in intermediate- and high-risk prostate cancer patients with normal bone scintigraphy results undergoing prostatectomy.

Der umtriebige Kollege hat übrigens 2018 in einer im European Journal of Nuclear Medicine erschienen Arbeit festgestellt, dass NaF PET/CT und Ga-68-PSMA PET eine vergleichbare und hohe Treffsicherheit in der Identifikation von Knochenmetastasen beim biochemischen Rezidiv des Prostatakarzioms hat.

Auch 2018 hat er als Ko-Autor im Acta Oncol. 2018 Aug festgestellt, dass in 64 Patienten der gute alte Knochenscan im Monitoring von Knochenmetastastasen beim Prostatakarzinom besser als der NaF-PET/CT ist.

2017 haben die umtriebigen Kollegen aus Aalborg und anderer dänischen Kliniken an Hand von 37 Patienten festgestellt (Am J Nucl Med Mol Imaging. 2017 Nov), dass zwar der NaF PET/CT zwar mehr Metastasen fand, als der zweidimensionale Knochenscan und der Knochen SPECT/CT, aber, dass das statistisch nicht signifikant war.

Wär doch eine bessere Übung für angehende Mediziner da „die Wahrheit“ herauszufinden, als dass man sie blödsinnigen Multiple Choice Tests über Zahlenreihen und ethischen Pseudoproblemen (MedAT) unterwirft ….
Im Studium könnte man ihnen dann beibringen, was man unter HTA Assessment so versteht …

Written by medicus58

25. September 2019 at 18:39

Dr. Google is a Liar: Falschmeldung über Gesundheitsthemen und typische Folgefehler

leave a comment »


Was einem nicht in den Kram passt, wird heute schnell als Fake-News bezeichnet, aber dabei handelt es sich in der Regel um Themen im gesellschaftspolitischen Bereich.

In einem rezenten Artikel
Dr. Google Is a Liar
Fake news threatens our democracy. 
Fake medical news threatens our lives.

warf nun die New York Times einen lesenswerten Blick auf die Fake-News im Gesundheitswesen, die sich dank Internet schneller verbreiten als jede New England Journal of Medicine Studie.

Der Autor, ein Kardiologe, dokumentiert mehrere Beispiele, wo falsche Behauptungen im Netzt zu Therapieabbrüchen führt und Politiker völlig unsinnige Behauptungen (Impfungen verursachen Autismus) verbreiten.

Wie bestellt zeigt uns ein im August 2018 erschienener Artikel im Guardian, ein typisches Muster auf, weshalb wir immer häufiger glauben, der Medizin rein gar nix mehr glauben zu können.

Die Zeitung berichtete, dass der oft behauptete enge Zusammenhang zwischen Salzaufnahme und Bluthochdruck gar nicht so sicher ist und eher in Ländern (und Patienten) beobachtet werden kann, die sehr viel Salz konsumieren. Wenn in diesen Fällen der Salzkonsum in Hypertonikern reduziert wird, scheint das wirklich eine blutdrucksenkende Wirkung zu haben:

Salt not as damaging to health as previously thought, says study

Basis war eine immerhin im Lancet publizierte Studie, die nun das durch den Vergleich verschiedener Populationen das verifizieren wollte, was diese Gruppe – unter harscher Ablehnung vieler Experten – bereits vorher an Einzelpersonen gezeigt hat. Besonders interessant scheint da aber die gemeinsame Betrachtung des Kalium-Spiegels sein, der z.B. durch eine Gemüse-reiche Ernährung angehoben werden kann und offenbar einen größeren Einfluss auf die Blutdruckregulation hat als eine reine NaCl-Reduktion.

“Perhaps salt-reduction evangelists and salt-addition libertarians could temporarily put aside their vitriol and support the hypothesis that diets rich in potassium confer substantially greater health benefits than aggressive sodium reduction,”

Am 25. November gab dann ein gewisser Duncan Selbie (Chief executive of Public Health England) dem Observer ein Interview, in dem das Salz in der Nahrung der Briten als ihre größte Todesursache anschuldigt, das erneut der Guardian zitiert:

Large amounts of salt can cause high blood pressure, the single biggest cause of heart attacks and strokes, which between them kill more Britons than anything else.

Jede Gramm an Salzreduktion erspart 7,000 Tote/Jahr.

Dieses Drama können wir als „Derivative Fake News“ bezeichnen, in der Hoffnung damit berühmt zu werden, denn Folgefehler klingt halt so old school.

Das Problem habe ich hier schon einmal unter dem Titel Die toten Seelen in der Computertomografie angesprochen und wir finden es allenthalben, wenn wir nur danach suchen:
Zu Beginn steht ein (in Kausalität und Beweiskraft) hinterfragbarer Zusammenhang.
Hier eben den immer wieder gefundenen aber auch nicht gefundenen Zusammenhang zwischen Nahrungssalz und Blutdruck. 
Besonders geeignet sind multifaktorielle Prozesse, also Abläufe, von denen man weiß, dass sie durch viele Faktoren beeinflusst werden können. In Wirklichkeit behauptet auch niemand ernsthaft, dass NUR das Kochsalz den Blutdruck beeinflusst,
Dann negiert man alle Ko-Faktoren und extrapoliert eine Verhältniszahl aus besonders extrem ausgefallenen Studien und extrapoliert sie auf eine riesige Population und schockiert mit dem Ergebnis. 
UK hat über 66 Millionen Einwohner!
Schließlich versichert man (natürlich ohne der Möglichkeit einer Interventionsstudie) , dass die Reduktion des eines „bösen“ Faktors all diese Todesfälle aus der Welt schaffen würde.
Meist wird das übrigens junktimiert mit der Forderung nach entsprechender Finanzierung präventiver Maßnahmen.

Verstehen Sie mich richtig, auch ich empfehle Hypertonikern nicht, jedes Gericht, kaum wird es aufgetragen, nach zu salzen und mache auf das „versteckte Natrium“ in vielen „Dosen-Gerichten“ aufmerksam. Nur sollte man die Erwartungen daran nicht übertreiben.

Noch wichtiger scheint jedoch, sich gerade in sehr komplexen Gesundheitsfragen nicht von Einzelstudien, egal ob via Dr. Google oder via Peer-Reviewed Journals zu allgemeinen Heilsbotschaften verleiten lassen und diese Kritik befreit zu beeindruckenden Zahlen auf zu blasen. 

Written by medicus58

19. Dezember 2018 at 18:49

Wie verhindern Sie unnötige Zuweisungen? Einfache Fragen statt komplexer Algorithmen

with 4 comments


In einer hier vor 5 Jahren eingestellten und vor 10 Jahren gehaltenen Vorlesung über Clinical Decision Making habe ich mich schon sehr kurz mit den unterschiedlichen Möglichkeiten „ärztlichen Denkens“ beschäftigt:

1. Vorgehen nach Daumenregeln
2. Suchen nach Pathognomonische Symptomen/Kasuistiken
3. Vorgehen nach Persönlicher Erfahrung (Eminence)
4. Lineare – Algorithmische Modelle

Inzwischen hat uns die Informationstechnologie natürlich auch noch nicht-lineare Algorithmen (lernfähige Artificial Intelligence) beschert, die scheinbar uns Ärzte übertreffen:

Babylon AI erreicht Genauigkeit bei Global Healthcare First, die menschlichen Ärzten gleichwertig ist 
Hautkrebs: Computer erkennt besser als Ärzte
Memorial Sloan Kettering Trains IBM Watson to Help Doctors Make Better Cancer Treatment Choices 

Auch wenn derartige Algorithmen wirklich Ärzteposten einsparen könnten und somit bei Ökonomen schon jetzt zu feuchten Tagträumen führen, werden die Kosten für die notwendige Hardware-Infrastruktur und für die beständige Wartung der Programme in der Regel unterschätzt.

13 Symptoma – Symptom für eine falsche Entwicklung der Medizin

Meine persönliche Ressentiments gegen den Zugang liegen aber in der problematischen Schnittstelle in der das vorliegende Problem einmal ausformuliert wird, bzw. wie es dem Algorithmus vorgelegt wird. Jeder in der Anamnese-Erhebung Erfahrene kann auf den ersten Blick einschätzen, ob eine Frage verstanden wird bzw. eine Antwort plausibel ist.
Denken Sie nur an so exemplarische Situationen wie die Frage nach dem aktuellen Alkoholkonsum. Glauben Sie, dass der Betroffene hier dem Algorithmus seine 5 Krügel und drei Schnäpse ehrlich eingibt, wenn er nach der Ursache seiner Übelkeit fahndet?

Auch bei der Kommunikation zwischen den Ärzten im Rahmen der sogenannten Zuweisung werden oft Nicht-Informationen geteilt:

Neben den Klassikern:
DU (=Durchuntersuchung) erbeten
BG (=Begutachtung) + TÜ (=Therapieübernahme)
Kardiale (Endokrinologische, Psychiatrische, Neurologische, … ) Abklärung erbeten

Kommen einem auch oft echter Zuckerln unter:
Hyperlipidämie, erbitte Therapievorschlag
(bei einem Cholesterninwert von 135 mg/dl, nur weil das entsprechende Labor auch einen unteren Normalwert hatte und deshalb das Ergebnis mit einem Sternchen als abnormal markiert hat)
Analpruritus (=Jucken am After), erbitte um Ausschluss einer Schilddrüsenerkrankung
Demenzabklärung
(bei einem multimorbiden, nach mehreren Schlaganfällen an den Rollstuhl gefesselten 92-Jährigen)

Wäre ich in der IT-Industrie würde ich beginnen einen sehr komplexen Algorithmus zu programmieren, um den Zuweiser zu einer minutenlangen Fragebeantwortung zu zwingen, um diese unsinnigen Zuweisungen abzufangen. Meine über Jahrzehnte in der Praxis erprobte, analoge Lösung beinhalten aber nur zwei einfache Fragen:

Was ist Ihre Verdachtsdiagnose?
Wie ändert sich Ihr Vorgehen, wenn die gewünschte Untersuchung positiv ausfällt, wie ändert es sich, wenn der Befund negativ ausfällt?

Natürlich lässt sich das auch programmieren, jedoch bezweifle ich, dass der Algorithmus das nachfolgende Gestottere, das „Muss den Arzt fragen“ der Ordinationshilfe, …
entsprechend gewichtet!

Written by medicus58

2. August 2018 at 17:00

Babylonische Zustände in der Medizin

with 7 comments


Ich sitze gerade vor drei Bildschirmen, einem großen 4K, einen Standard Flatscreen und einen noch teureren EIZO, und tippe meinen heutigen Beitrag auf einem ziemlichen High-end PC, den ich normalerweise für weitaus rechenintensivere Aufgaben verwende, als für diese kleinen Wortmeldungen am Rande des Internets.
Will heißen, ich halte mich auch privat für ein bisschen EDV-affin.
Das will ich vorausschicken, da regelmäßige Leser vielleicht den Eindruck gewinnen können (siehe Links), dass ich ein prinzipielles Problem mit der EDV (oder IT) habe, was definitiv nicht stimmt.

Als 13-Jähriger habe ich von einer allgemein zugänglichen Enzyklopädie geträumt, da ich mit einen Brockhaus nicht leisten konnte – heute stehen die 24 Bände einen Handgriff hinter mir, einschließlich der Ausgaben für Weltgeschichte.
Trotzdem genieße ich es, dass ich auch in der U-Bahn die Wikipedia befragen kann.

Meine ersten Erfahrungen mit Spracherkennungssoftware machte ich vor mehr als zwei Jahrzehnten und finde die diesbezüglichen Fähigkeiten meines Smart-TV bemerkenswert.
Trotzdem konnten Sie hier lesen, dass die Anwendung in der medizinischen Praxis mehr als hinterfragbar sind (Eupnoe – Aponoe)

Ja, und ich bin mir der bemerkenswerten Fähigkeiten von IBMs semantischer Suchmaschine Watson, durchaus bewusst, obwohl ich mich entgegen anders lautender Werbeaussendungen nicht ausschließlich nach seinen Erkenntnissen onkologisch behandeln lassen wollte, obwohl der Link uns zu beweisen scheint, dass dieser Algorithmus zu 90% zu den gleichen Therapien rät, wie ein interdisziplinäres Tumorboard.
JA, und eigentlich habe ich auch mal ein bislang nicht realisiertes Watson Projekt erarbeitet, aber Schwamm drüber.

Nun scheint es mir aber, dass ich mich langsam geschlagen geben muss:
Babylon AI erreicht Genauigkeit bei Global Healthcare First, die menschlichen Ärzten gleichwertig ist

Wenn Sie sich das Nachlesen dieser APA Meldung ersparen wollen, wovon ich abrate, dann steht dort, dass ein Algorithmus bei einer ärztlichen Befähigkeitsprüfung besser abschnitt, als der durchschnittliche britische Arzt.
Die Ergebnisse des heutigen Abends zeigen deutlich, wie durch AI erweiterte Gesundheitsdienste die Belastung der Gesundheitssysteme weltweit verringern können. Unsere Mission ist es, zugängliche und erschwingliche Gesundheitsdienstleistungen in die Hände jedes Menschen auf der Erde zu legen. Diese bedeutenden Ergebnisse bringen die Menschheit einen wichtigen Schritt näher zu einer besseren Welt, in der niemandem eine sichere und exakte Gesundheitsberatung verweigert wird.“

So weit so gut, wir alle wissen aber, dass es nicht darum geht, sondern um die Einsparung von „ärztlichen Vollzeitäquivalenten“, und das wird auch so kommen, seien Sie (als Patient) gewarnt.

AI (=Artificial Intelligence)ist derzeit einer der heißesten Tickets in der Medizin.

IBM, das schon lange mit seiner Hardwaresparte keine Geld mehr macht, investierte Unsummen in Watson, seinen AI Algorithmus, der wie eine Reihe anderer IT-Anwendungen, zum Super-Doktor gehypt wird, als ob ein derartig komplexes System wie die Behandlung eines einzelnen Patienten durch einen Algorithmus erfasst werden könnte.

Im American Journal of Medicine erschien im Februar 2018 ein Artikel mit dem Titel: Artificial Intelligence in Medical Practice: The Question to the Answer? und kommt wenigstens zu dem Schluss, dass da auch noch fallweise ein Arzt zwischen den Bits and Bytes auftauchen soll.

Ich habe vor längerer Zeit meine Vorlesung aus den 90er Jahren (Am Anfang war die Diagnose – Clinical Decision making Not only for Dummies) hier auf den Blog gestellt, um ein bisschen die Komplexität des Diagnoseprozesses zu umschreiben, die nicht zu letzt die Schwierigkeiten an der Schnittstelle Patient:Medizin(Arzt) aufzeigt,
die auch heute nicht FÜR DEN EINZELFALL, von der AI abgedeckt werden kann und damit haben wir es in der Praxis zu tun.
Nicht mit Mittelwerten und Gruppen-Wahrscheinlichkeiten, sondern dem Einzelfall.

Egal: Drücken Sie die 1 wenn Sie krank sind oder die 0 wenn sie tot sind

Meiner Wahrnehmung nach haben die meisten in meiner ärztlichen Kollegenschaft noch gar nicht begriffen, wie nahe stark die Versprechungen der IT-Industrie das Berufsbild der Ärzte bereits gefährdet.
Ja, und Patienten beschweren sich ausschließlich über Wartezeiten ….

Links: 
Krankenhaus EDV: erfassten Widerspruch im Anlassfall
Meine Paranoia mit der Spitals-EDV oder wenn alles steht, geht’s weiter wie bisher
Die Überraschungseier der Krankenhaus EDV
Kunstfehler waren gestern, heute haben wir die EDV

Written by medicus58

28. Juni 2018 at 21:58

Der ökonomische Trugschluss mit der Überbefundung in der Medizin

with 2 comments


Befund

Fülle an unnötigen Befunden“ gehört zum Basismantra jeder Kritik am Gesundheitssystem, gefolgt von allerlei Extrapolationen, was denn da alles einzusparen wäre, könnte man die vielen Blutbilder und Röntgenaufnahmen verhindern.
Selbstverständlich könnte gerade die elektronische Krankenakte(ELGA) dies leicht in den Griff bekommen, versichern die ELGA Ges.m.b.H. im Chor mit all den IT-Firmen, die an dem Projekt beteiligt sind.

Erst kürzlich beim Europ. Radiologenkongress in Wien schlug Guy Frija, der Präsident der Europäischen Gesellschaft für Radiologie in dieselbe Kerbe, als er vollmundig bekannte, dass ein Drittel aller Röntgenuntersuchungen klinisch nicht gerechtfertigt und daher für den Patienten nutzlos wären.
Ja, wenn selbst die finanziellen Nutznießer dieses Systems zur derartig erhellenden Einsichten kommen, dann hindert uns ja nichts mehr all den Krempel beiseite zu werfen und uns auf das Wesentliche zu beschränken.

Gemach

… mit dieser Logik könnte man schließlich auch die vielen Polizisten abschaffen, weil sie ohnehin nur die wenigen von uns, die wirklich straffällig werden, finden müssen, oder die Feuerwehren einsparen, weil es ohnehin nur sehr selten brennt. Weniger platt formuliert zeigen diese Paradoxien, dass Lösungdsaufwand (Vorhalteleistung) und Häufigkeit eines Problems in einem indirekten, nicht linearen Verhältnis stehen.
Beschäftigen wir uns vorerst aber mit dem Vorwurf weshalb wir Ärzte eigentlich so dumm sind, unnötig viele Befunde anzufordern? Dass unstillbares Gewinnstreben nicht die einzige Erklärung dafür sein kann, beweist ja die Selbstanklage unserer Radiologen!

Wer nachlesen will sei auf einen früheren Artikel verwiesen (2 Anamnese – aber http://wp.me/p1kfuX-zt), in dem ich schon feststellte: Würde man Ärzte fürs Zuhören ähnlich gut honorieren, wie Anwälte, dann würden viel weniger Überweisungen ausgestellt werden.
Mit aktuellen Zahlen lässt sich das so belegen:

Ein Patient kommt zum Arzt und klagt über Müdigkeit und wirkt etwasblaß.
Die Differentialdiagnosen sind mannigfaltig, aber viele mögliche Ursachen laufen auf Infektionen u/o Blutarmut hinaus.
Ihr Arzt könnte nun, für die 18,74 € Fallpauschale pro Anspruchsberechtigtem und Quartal, versuchen herauszufinden, ob den überhaupt eine Müdigkeit (oder eine Depression) vorliegt, tief in die Augen schauen um zu objektivieren, ob der Patient überhaupt blutarm ist oder die Blässe eben seinem Teint entspricht und sich so gut eine halbe Stunde mit seinem Patienten beschäftigen.

Die Wiener Gebietskrankenkasse zahlt dem Labor für ein
Komplettes Blutbild
 (Zählung und Beurteilung der Erythrozyten, Leukozyten und Thrombozyten, automatisierte oder notwendige mikroskopische Differentialzählung, Hämatokrit- und Hämoglobinbestimmung, Errechnung der sich aus der Zählung und Messung ergebenden Parameter) 3,20€

Für ein Lungenröntgen, mit dem zumindest eine schwer Lungenentzündung bei unserem Patient ausgeschlossen werden kann, zahlt die Wiener Gebietskrankenkasse 16,23 € Honorar und 24,54 €.

Und jetzt überlegen Sie was für ihren Hausarzt kostengünstiger ist, eine klinisch-physikalische Untersuchung mit all ihren Unsicherheiten oder die Anordnung eines Röntgen- oder Laborbefundes.

Richtig, da seine Bemühungen schlecht honoriert werden, verwendet er die externe Diagnostik zur Ausschlussdiagnose. Aus Sicht der Diagnostiker sind natürlich die Befunde im konkreten Fall unnötig, oft weil der Patient erst Tage nach der Zuweisung erschien und inzwischen ohnehin nicht mehr fiebert oder sich schon durch die heilsame Wirkung des Zeitablaufes erholt hat.

Wer aber nun glaubt das Problem dadurch in den Griff zu kriegen, dass er ein Drittel der externen Befundkosten in den Bereich der Hausärzte stopft übersieht, ebenso wie die überheblichen Diagnostiker, die sich über die blöden Zuweisungen mokieren, ein wichtiges Detail:

Mit ein bißchen mehr klinisch-diagnostischen Aufwand in der Arztpraxis lassen sich sicher 10% der unnötigen Überweisungen einsparen.
Werden die Ärzte gewzungen, die riesigen und unübersichtlich gewordenen Krankenakte vor jeder Überweisung zu durchwühlen, ob sich nicht doch ein Vorbefund finden lässt, der die eine oder andere Verdachtsdiagnose erhärtet, dann steigt der zeitliche Aufwand (und damit die Kosten) schon überproportional an.
Letztendlich werden wir ein exponentielles Verhältnis zwischen Aufwand und Gewinn, d.h. sehr bald wird es – unabhängig von den aktuellen Arzthonoraren – billiger ein Blutbild anzufordern, nur um nicht neben den eingesparten unnötigen Befunden einen wirklich Kranken zu übersehen.

14 Zebras revisited

with one comment


Zebra
Wir haben hier schon in Lektion 4 Wie denkt der Arzt, wenn er denkt? Daumenregeln (http://sprechstunde.meinblog.at/?blogId=87243) einen der beliebtesten Kalauer der „klinischen Eselsbrücken“ zitiert:

If you hear hoofbeats, think of horses not of zebras.
(Wenn Du Pferdegetrappel hörst, denke (in Europa) zuerst an Pferde und nicht an Zebras)

Diese Regel richtet sich vorzugsweise an Medizinstudenten, die „angestrebert“ mit allerlei ungeordnetem Faktenwissen sehr häufig zuerst an das Spektakuläre denken und darauf vergessen, dass die Vortestwahrscheinlichkeit für so eine spektakuläre Lösung sehr gering ist.

Trotzdem gibt es natürlich auch diese seltenen Diagnosen/Krankheiten und im Gegensatz. zum hier kürzlich kritisierten Zugang, bereits am Anfang des Diagnosegangen sich auf Basis einiger Symptome Differentialdiagnosen vorschlagen zu lassen: 
13 Symptoma – Symptom für eine falsche Entwicklung der Medizin (http://sprechstunde.meinblog.at/?blogId=88871)

Kann dieser Zugang nach einem bislang frustranen Diagnosegang durchaus hilfreich sein: FIND ZEBRA http://arxiv.org/abs/1303.3229 

Auf ORF Science wird in deutscher Sprache erklärt, wie hier dänische Wissenschaftler einen zu Dr. Google alternativen Suchalgorithmus für „orphan diseases“ entwickelt haben, weil „was definitionsgemäß selten ist, lässt sich mittels Linkpopularität nur unzureichend erfassen“.
http://science.orf.at/stories/1714649/

Zum Ausprobieren (in englischer Sprache), hier die Homepage:
http://rarediseases.imm.dtu.dk/FindZebra/default/index 
und zum Nachlesen auch, wobei einige Einträge hier nicht ganz den Definitionen entsprechen, was aber auch daran liegt, dass die Prävalenz (Häufigkeit) mancher Erkrankungen regional stark schwankt: 
http://www.hon.ch/HONselect/RareDiseases/index_de.html 

Ein kurzer eigener Test mit:
cough, muscle weakness, double vision

bringt wirklich an erster Stelle das Lambert-Eaton Syndrom an das ich bei meinem Test gedacht habe
http://de.wikipedia.org/wiki/Lambert-Eaton-Rooke-Syndrom

Respekt!

aber auch anderes spuckt die Suchmaschine aus:

Idiopathic intracranial hypertension
Myasthenia gravis
Pseudotumor Cerebri
Centronuclear myopathy
Myasthenia Gravis
Chronic progressive external ophthalmoplegia
Lambert-Eaton Myasthenic Syndrome
Progressive Supranuclear Palsy
SMA
Myopathy, Tubular Aggregate
Myasthenia Gravis
Machado-Joseph Disease
Muscular Dystrophy, Oculopharyngeal
Becker Muscular Dystrophy (BMD)
Charcot-Marie-Tooth Disease, Axonal, Type 2J
Spinal muscular atrophy
Glycogen storage disease type II
Sandhoff disease20 Polymyositis

Auch deshalb warnen die Autoren, dass diese Suchmaschine nicht für Laien gedacht war … 
die Möglichkeiten seine Hypochondrie zu perfektionieren sind nämlich hoch …

Written by medicus58

20. März 2013 at 17:22

13 Symptoma – Symptom für eine falsche Entwicklung der Medizin

leave a comment »


Aus aktuellem Anlass unterbrechen wir die Online-Vorlesung über „Clinical Decision Making“ (1 Am Anfang war die Diagnose – Clinical Decision making Not only for Dummies http://wp.me/p1kfuX-zq), um exemplarisch zu zeigen, weshalb es eben nicht genügt, sich einer Datenbank zu bedienen, um „ein guter Arzt“ zu sein.

Symptoma 2

Mit einigen Förderungsgeldern (bmwfj, FFG, bmvit, Land Salzburg, aplusb, bccs) hat Jama Nateqi, ein Absolvent der Paracelsus-Privatuniversität Salzburg,
„Symptoma – better diagnosis“ (https://de.symptoma.com/)
entwickelt und wird aktuell von den Salzburger Nachrichten vollmundig „beworben“:
Weltweit sterben jährlich eine halbe Million Menschen an ärztlichen Fehldiagnosen. Die medizinische Suchmaschine „Symptoma“ aus Salzburg will das in Zukunft verhindern.
http://www.salzburg.com/nachrichten/salzburg/wirtschaft/sn/artikel/medizinische-suchmaschine-soll-leben-retten-50343/  

Nach Eingabe eines Symptoms, dem Geburtsjahr und dem Geschlecht werden einen nach Wahrscheinlichkeit gereihte Differentialdiagnosen geboten.

Für 25€/Monat ist der Arzt dabei.

Und was ist denn daran schlecht, mögen die fragen, die die bisherigen Teile der Online-Vorlesung nicht gelesen haben?
Denen sei Teil 7: Der unverzeihende lineare Algorithmus (http://wp.me/p1kfuX-zP) ans Herz gelegt. Natürlich ist nichts schlecht daran auf Knopfdruck zu einem bestimmten Symptom einige Differentialdiagnosen zu sehen. Bücher, die sich tabellarisch mit Differentialdiagnosen beschäftigen haben in der Medizin eine lange Tradition.
Der Zugewinn an Verwirrung ist aber deutlich größer als der Zuwachs an Wissen, die Tendenz zur undifferenzierten Ausschlussdiagnostik mittels Labor und Röntgen wird dadurch enorm gefördert, weil dadurch statt der Verfeinerung eines begonnenen „diagnostischen Fadens“ ein Dutzend weiterer aufgemacht werden.
Überdies gehen alle derartigen Systeme davon aus, dass das eingegeben „Kardinalsymptom“ auch wirklich das wesentlichste Symptom darstellt. Leser dieser Online-Vorlesung sollten aber bereits wissen, dass ein „anchoring and adjustment“, ein sich „Vorwärtstasten“ in bestimmte Diagnosecluster einer frühzeitigen Festlegung auf eine bestimmte Diagnose überlegen ist. 

Somit kommt mit „Symptoma – better diagnosis“ eigentlich nur die alte Blickdiagnose erneut – diesmal in Form einer APP – in die Medizin.

Symptoma ist nur ein Teil des „Click-for-knowledge“ Universums (http://www.clickforknowledge.com/impressum) in dem Dr. med. univ. Jama Nateqi (Geschäftsführer der click for knowledge GmbH und seit seinem 16. Lebensjahr Entwickler von Internetprojekten) und Thomas Lutz (ebenfalls Geschäftsführer der click for knowledge GmbH und ehemaliger bayerischer Schach Jugendmeister dem Schach) allerhand Internet basierte Dienste entwickeln.
Bildnachweis: Screenshot von der Homepage

Written by medicus58

8. März 2013 at 16:23

12 Quite mean, the Regression to the Mean

leave a comment »


Regressiontothemean
Ehe wir uns mit den „höheren Weihen“ der medizinischen Diagnostik (EBEM et al.) auseinandersetzen, wollen wir uns noch etwas länger mit den Eigentümlichkeiten von Testverfahren auseinandersetzen, wobei nochmals in Erinnerung gerufen werden muss, dass Test in diesem Zusammenhang jedes Verfahren (Anamnese, körperliche Untersuchung, Labor, Bildgebung, bis zu diagnostisch invasiven Verfahren) bedeutet.

Aus dem bisher gesagten sollte eigentlich schon klar geworden sein,
dass jeder Test nur dann gerechtfertigt ist, wenn er die nachfolgende klinische Entscheidung sicherer, d.h. weniger fehlerbehaftet macht.

Im Hinblick auf eine – nicht zuletzt von der US-amerikanischen Rechtssprechung forcierten – Absicherungsmedizin muss aber stehts klar bleiben, dass der diagnostische Zugewinn in einem Diagnosegang absolut immer geringer werden wird, was die im letzten Kapitel vorgestellten ROC Kurven m.E. wunderschön verdeutlichen.

Vor diesem Hintergrund müsste jeder naturwissenschaftlich geschulte Arzt auf die Frage seines Patienten oder Richters, ob er sich absolut (100%) sicher wäre, mit einem deutlichen NEIN antworten. 

Jeder weitere diagnostische Schritt führt im besten Fall zu einer asymptotischen Annäherung an die „richtige Diagnose“.

Ein Test macht nur Sinn, wenn die Nachtestwahrscheinlichkeit sich gegenüber der Vortestwahrscheinlichkeit ändert.

Der größte diagnostische Zugewinn ist immer bei mittlerer Vortestwahrscheinlichkeit zu erwarten.
Im Umkehrschluss sagt dieser Satz auch, dass es in der klinsichen Diagnostik nur mit enorm großen Aufwand möglich ist, eine Krankehit gänzich auszuschließen oder ganz sicher z ubeweisen. Wie wir ebenfalls gesehen haben ist es in dieser Situation viel wahrscheinlicher, das ein falsch positiver oder negativer Testbefund verwirrt.

Regression to the Mean
http://de.wikipedia.org/wiki/Regression_zur_Mitte 
Einer meiner klinischen Lehrer empfahl stets die Wiederholung von abnormen Testergebnissen, die so gar nicht zu den bisherigen Verdachtsdiagnosen passten: 

Wiederholung führt zur Normalisierung abnormer Laborergebnisse.

und er behielt meistens recht.

Man muss sich nur vor Augen halten, dass die nachträgliche Beruhigung von Arzt und Patient eine trügerische ist. in Wirklichkeit zeigt sie weder die Gesundhung des Patienten noch die Aufdeckung eines (zuerst) falschen Laborbefundes an, sondern reflektiert einfach die Streubreite jedes Testverfahrens. 
Bemühen Sie sich mit geschlossenen Augen mit einem Bleistift einen Punkt in einem Kreis auf einem vor Ihnen liegenden Blatt Papier zu machen. Es ist sehr unwahrscheinlich, dass sie den Kreismittelpunkt treffen. Wenn sie den Versuch aber 100x wiederholen, wird die Punktwolke um den Mittelpunkt liegen. Wenn nicht besuchen Sie Ihren Neurologen.
Dieses Phänomen tritt auch sehr häufig bei Therapiestudien auf, wo einer Befundnormalisierung auch in der Placebogruppe bemerkt wird. Neben einer reihe anderer Faktoren ist dafür auch verantwortlich, dass Wiederholungen von TEsten mit einer gewissen Streubreite dazu führen, dass die Werte hin zu einem Mittelwert konvergieren. 
Andere Effekte, die sich in erster Linie auf die Ergebnisse medizinischer Vergleichstudien auswirken sind
Hawthorne-Effekt: Ändern Studienteilnehmer aufgrund der Studienteilnahme
ihr natürliches Verhalten, kann das – insbesondere in der Kontrollgruppe
– zu einer Überschätzung von Behandlungseffekten führen. 
Simpson-Paradox: Wenn (un)bekannte Einflussfaktoren (Confounder)
auf das Studienergebnis einwirken, kann das Gesamtergebnis einer (Fallkontroll-) Studie durch Subgruppenanalysen auf den Kopf gestellt werden.
und das Will-Rogers-Phänomen: Verbessern sich die diagnostischen Möglichkeiten oder wird die Prävalenz einer Erkrankung künstlich angehoben, kann sich die Prognose eines Patienten verbessern, ohne dass sich an seinen Messwerten irgendetwas geändert hat.

Da es hier i.e.L. um den Diagnosegang des individuellen Patienten geht und nicht um eine Kritik klinischer Studien, werden wir uns hier nicht weiter verbreiten. Interessierten sei aber ein sehr leicht verständlicher Artikel dazu ans Herz und Hirn gelegt: 
http://www.medicalforum.ch/pdf/pdf_d/2006/2006-46/2006-46-194.PDF

ROC around the clock

leave a comment »


Gehen Sie von einem sehr guten klinischen Bluttest (z.B. auf Grippeviren) aus, der eine 90%-ige Sensitivität und 90%-ige Spezifität hat, aus und schätzen Sie, wie groß die Wahrscheinlichkeit ist, dass ein Patient, der einen positiven Test hat, auch wirklich erkrankt ist.

Wir befinden uns vor einer Grippewelle und die Krankheitsprävalenz beträgt aktuell 1:1000, d.h. ein Mensch von 1000 ist schon angesteckt …..

so endete das letzte Kapitel und es wird Zeit für die Auflösung:

Der positive Vorhersagewert, so nennt man das, wonauch gefragt wurde, beträgt 0,9%!

Wären wir aber schon am Höhepunkt der Grippewelle und nicht 1:1000 sondern bereits 1 : 100 Personen haben sich angesteckt, dann wäre der positive prädiktive Wert schon 8,3%.

Was lernen wir daraus?

Sens und Spec eines Testes sagen für sich genommen über den erreichbaren klinischen Erkenntnisgewinn wenig aus, wenn das gesuchte Merkmal sehr selten ist.

komplizierter wird die Sache nun durch die schon angesprochenen Normalwerte
Diese gelten natürlich nicht nur für Blutteste, sondern jedes Testverfahren. 
Ein Radiologe kann im CT zB. einen Lymphknoten schon mit einem Durchmesser von 5 mm als pathologisch diagnostizieren und hat dadurch die Sensitivität seines Testes deutlich angehoben, d.h. er wird weniger Lymphknotenmetastasen übersehen, nur fällt seine Spezifität in den Keller, d.h. viele der von ihm als pathologisch beschriebenen Lymphknoten sind dann gar keine Metastasen sondern normal große oder gering entzündlich veränderte Lymphknoten.

Um dieses Phänomen zu veranschaulichen und um zwei Testverfahren unabhängig von den jeweils festgelegten Normalweten vergleichen zu können, wurde die ROC Analyse (http://de.wikipedia.org/wiki/Receiver_Operating_Characteristic) entwickelt:

ROC 2
In Folie 1 sehen wir die erzielbaren Sensitivität und Spezifität eines Testes in Abhängigkeit von den gewählten Normal- bzw. Schwellenwerten.
Bei einen laxen Schwellenwert (Punkt rechts oben) ist Sensitivität hoch (in diesem Beispiel 0,94), die Spezifität aber mit 0,44 aber im Keller. Anders ausgefrückt: Wir übersehen wieder keinen Kranken, machen aber mehr als die Hälfte der Gesunden mit einem pathologischen testergebnis fälschlich krank. Mit einem Strikten Schwellenwert (Punkt links unten) sind die Verhältnisse umgekehrt (Sensitivität nur mehr 0,46, Spezifität aber 0,92).

ROC 1

Folie 2 zweigt uns nun eine vergleichbare Darstellung, in der nun die Testcharakteristik in ein Quadrat eingetragen wird, dessen Seiten nun Vortestwahrscheinlichkeit und Nachtestwahrscheinlichkeit entsprechen.

Ein völlig sinnloser Test, oder der Verzicht auf irgendeien Test (kein Test) ergibt eine Diagonale, d.h. die 
Vortestwahrscheinlichkeit = 
Nachtestwahrscheinlichkeit.=
kein Informationszugewinn
Normale Teste haben eine den gelben Linien entsprechende Charakteristik, wobei je eine der Kurven dem positiven (abnormen) und dem negativen (gesunden) Ergebnis entspricht.
Grafisch wird schnell kalr, dass der Informationszugewinn immer größer wird, je weiter ein positives oder negatives Ergebnis von der roten Linie auslenkt.
Die grüne Linie repräsentiert einen nahezu utopischen Informationszugewinn.

ROC3

An dieser grafischen Darstellung (Folie 3) wird auch ein anderes Gesetz der klinischen Diagnostik klar: In der Regel hat man den größten diagnostischen Zugewinn zu erwarten, wenn man einen Test bei mittlerer Vortestwahrscheinlichkeit anfordert.

Bei mittlerer Vortestwahrscheinlichkeit, also in der mitte der linken Seite unseres Quadrats ist der Informationszugewinn, also die Distanz zwischen roter Linie und Textcharakteristik am größten.

Wir haben heute einiges für die Praxis gelernt, auch wenn die Darstellugnen sehr theoretisch wirkten:

Die gewählten Normalwerte beeinflussen Sensitivität und  Spezifität eines testes, ohne, dass sich am testverfahren selbst (Labortest, CT-Bild, …) etwas ändert.

Wir verstehen nun. die 2-stufige Testung beim Screening auf HIV.
Ist die gesuchte Krankheit im untersuchten Kollektiv sehr selten, dann muss ich einen sehr, sehr sensitiven Test anwenden, um die wenigen Kranken nicht zu übersehen, handle mir aber damit viele falsch positiven (Gesunde mit einem abnormen Testergebnis) ein. Diese filtere ich mit einem auf hohe Spezifität getrimmten zweiten Test heraus. Die hohe Spezifität des zweiten Tests hätte uns zwar viele falsch positive Teste (und unnötig aufgeregte Patienten) bei der ersten Runde erspart, es liefen aber viele HIV-Positive mit einem falsch negativen Testergebnis herum.

Written by medicus58

15. Februar 2013 at 17:05

10 Regenwarnung und Rettung durch einen Presbyterianer

leave a comment »


Wir haben zuletzt feststellen müssen, dass es keinen Test gibt, der 100%-ig zwischen krank und gesund zu unterscheiden vermag.
Beunruhigend vielleicht, so manchem Juristen nicht klar zu machen, der einen verurteilt, weil man diesen oder jenen Test unterlassen hätte, aber halt „part of the game„.
Wir haben hoffentlich inzwischen festgestellt, dass im medizinischen Leben das lineare Denken einer Wenn-Dann Logik ebensowenig hilft, wie der feste Glaube an Empirie. Die Lösung ist die Hinwendung zu einer Wahrscheinlichkeitslogik, die die konsekutiv eintreffenden Informationen so „verarbeitet“, dass wir und mit Anchoring & Adjustment auf eine Diagnose bzw. therapeutische Entscheidung hinbewegen.

Als ich mich in den frühen 90ern erstmals mit diesen Konzepten beschäftigte, schien dieses „mathematische“ und somit unanschauliche Vorgehen sehr weit weg von unserem täglichen Leben. In den USA war es schon damals üblich vom Wetterfrosch im TV nicht einfach zu hören, dass es morgen regnen wird oder eben nicht, sondern man erhielt eine Niederschlagswahrscheinlichkeit mitgeteilt. Kritiker mögen einwenden, dass das zwar den Vorteil hat, dass sich der Wetterfrosch nie ganz irren konnte, aber dass sich der Hörer erst Recht nicht orientieren konnte. Genau dies hört man auch in Medizinerkreisen, wenn man eine Wahrscheinlichkeitslogik im Clinical Decision Making einfordert.
Folgendes Beispiel soll illustrieren, dass man aber auch mit der scheinbaren Unsicherheit der Wahrscheinlichkeitsrechnung ganz einfach praktisch relevante Entscheidungen treffen kann, ohne hinter sich einen Hochleistungsrechner zu benötigen.
30%

Nehmen wir an (Folie), der Wetterbericht sagt ihnen für heute eine 30%-ige Niederschlagswahrscheinlichkeit voraus und Sie fragen sich, ob Sie nun einen Regenschirm mitnehmen sollen oder nicht. Für sich genommen ist diese Information natürlich weniger hilfreich, als die autoritären Extreme: Morgen regnet es, oder morgen regnet es nicht.

Was wir aber bedenken müssen, ist dass wir es praktisch nie mit einer einzigen Information zu tun haben. Nehmen Sie die beiden Herren auf unserem Bild, der eine im (vermutlich sündteuren) Smoking, der andere in der (vermutlich billigen und in chinesischen Sweatshops hergestellten) Freizeitkleidung.
Ein paar Regenspritzer werden den Herrn links viel stärker stören, als sein Pendant. Setzen wir eine vergleichbare Wasserscheu bei unseren beiden voraus, wird der Smokingträger besser schon bei einer 30%-igen Regenwahrscheinlichkeit seinen Knirps einstecken, während der Jeansträger durchaus erst ab einer Niederschlagswahrscheinlichkeit von 70% zum Paraplü greift.

Wie man also zusätzlich eintreffende Informationen in seinen Entscheidungsalgorithmus einbindet, hat schon vor 300 Jahren ein englischer Presbyterianer dargelegt: Thomas Bayes http://de.wikipedia.org/wiki/Thomas_Bayes
Gemeinsam mit Ockhams Rasiermesser, einem aus der Scholastik entlehnten Konzept, dass in diesem Blog (http://sprechstunde.meinblog.at/?blogId=32318 ) schon einmal erwähnt wurde, ist das Bayestheorem (http://de.wikipedia.org/wiki/Bayestheorem) der zweite Lehrsatz, den wir der Geistlichkeit früherer Jahrhunderte verdanken; dass aus dieser Ecke derzeit nur mehr „Grand Design“ oder dergleichen kommte, wollen wir jetzt nicht erörtern … Die Ableitung des Bayeschen Theorems finden Sie über den Wiki-Link.
Die Bedeutung des Bayestheorem für die medizinische Diagnostik liegt darin, dass es uns ermöglicht für eine bestimmte Vortestwahrscheinlichkeit, also der Wahrscheinlichkeit, dass die vermutete Krankheit vorliegt weil sie eben so häufig in der Bevölkerung vorkommt, oder weil Anamnese, Körperliche Untersuchung, vorangegangene Test diese Wahrscheinlichkeit ergeben haben, und eine bestimmte Testperformance, also die Sensitivität und Spezifität des Tests zu berechnen, wie wahrscheinlich (Nachtestwahrscheinlichkeit) in unserem Einzelfall die Diagnose geworden ist.

Dies wird hier in einem Video demonstriert: http://www.youtube.com/watch?v=6xtXvh-e3Wc

In der Regel hört man nun, dass das alles schon und gut wäre, aber kein Arzt steht mit einem Rechenblock neben seinem Patienten. Das stimmt natürlich, man muss sich aber diese Zusammenhänge einmal bewußt machen, weil man sonst in der täglichen Routine immer wieder drastisch danebenhaut.
Gehen Sie von einem sehr guten klinischen Bluttest (z.B. auf Grippeviren) aus, der eine 90%-ige Sensitivität und 90%-ige Spezifität hat, aus und schätzen Sie, wie groß die Wahrscheinlichkeit ist, dass ein Patient, der einen positiven Test hat, auch wirklich erkrankt ist.

Wir befinden uns vor einer Grippewelle und die Krankheitsprävalenz beträgt aktuell 1:1000, d.h. ein Mensch von 1000 ist schon angesteckt …..

%d Bloggern gefällt das: