zur Navigation zum Inhalt
 
Zahnheilkunde 9. Dezember 2005

Keine Angst vor Zahlenspielen (Teil 2)

„Ärzte sollten grundlegende Begriffe wie Signifikanz, Konfidenzintervall und Odds-Ratio kennen und interpretieren können“, betont Prof. DI Dr. Josef Haas, Geburtshilflich-gynäkologische Klinik der Medizinischen Universität Graz.

Statistisch signifikant ist das Ergebnis einer Studie dann, so der Experte, wenn das Ergebnis gegen die Nullhypothese (z.B. „Das neue Medikament ist nicht wirksamer als Placebo“) spricht. Die Aussage basiert auf einem statistischen Prüfverfahren (Signifikanztest). Konventionsgemäß bedeutet dabei ein p-Wert kleiner als 0,05, dass ein Ergebnis statistisch signifikant ist. Ein nicht-signifikanter p-Wert muss nicht unbedingt bedeuten, dass kein Unterschied zwischen den Gruppen besteht. Es könnte auch sein, dass die Teilnehmerzahl zu gering war. Werden multiple Tests auf Signifikanz mit zahlreichen Parametern durchgeführt (was die „Chance“ auf signifikante Ergebnisse erhöht), ist eine entsprechende Korrektur für multi­ples Testen notwendig. Im Methodikteil von Studien wird deshalb öfters die Bonferroni-Korrektur erwähnt. Es gibt aber mittlerweile auch neuere Verfahren. „Der p-Wert wird oft fehlinterpretiert“, so Prof. Dr. Karl Wegscheider, Institut für Statistik und Ökonometrie der Universität Hamburg. „Es handelt sich dabei nicht um die Wahrscheinlichkeit, dass die Therapie unwirksam ist und auch nicht um ein Maß für die Stärke der Wirkung. Vielmehr misst der p-Wert lediglich die Stärke der Evidenz für eine vermutete Wirkung der Therapie.“

Im einfachsten Fall werden bei einer klinischen Studie zwei Gruppen im Hinblick auf eine vorher definierte Zielgröße verglichen, die „stetig“ (z.B. Körpergewicht) oder „diskret“ (Mortalität) sein kann. Hier kann die Auswertung mit Hilfe eines einfachen Zwei­stichproben-Tests erfolgen (im Fall der Mortalität: Fishers exakter Test oder Chi-Quadrat-Test).

Keiner wiegt weniger als nichts

Generell unterscheidet man bei den statistischen Prüfverfahren zwischen parametrischen und nicht-parametrischen Tests. Die parametrischen Tests setzen eine bestimmte Verteilung der Daten (häufig die Normalverteilung – Gauß’sche Glockenkurve) voraus, bei nicht normalverteilten Daten werden nicht-parametrische Tests angewendet. Ein Beispiel für eine schiefe (nicht normale) Verteilung bringt Dr. Trisha Greenhalgh, London Medical School, in ihrem empfehlenswerten Buch „How to read a paper/Einführung in die Evidence-based Medicine“: „Das durchschnittliche Gewicht erwachsener Männer beträgt 70 Kilo. Allerdings gibt es Männer, die 140 Kilo und mehr wiegen, jedoch keinen, der weniger als nichts wiegt, sodass die Verteilung nie symmetrisch sein kann.“ Nicht normalverteilte Daten können manchmal transformiert (logarithmiert) werden, sodass sich eine Normalverteilungskurve ergibt.
Nicht-parametrische Tests basieren auf der Rangordnung der Werte, d.h. deren Platzierung in der vom kleinsten zum höchsten Wert sortierten Stichprobe. Das Wort „Rang“ kommt zum Teil auch im Namen der Tests vor wie beim Wilcoxon-Rangsummen-Test (rank sum test, auch als Mann-Whitney-U-Test bekannt). Beispiele für weitere nicht-parametrische Tests sind der Kruskal-Wallis-Test, der Chi-Quadrat- oder der McNemar-Test.
Häufig verwendete parametrische Tests sind der t-Test (für unabhängige und abhängige Paare), die Varianzanalyse (ANOVA) oder die Regression nach der Methode der kleinsten Quadrate (least squares). Der Begriff „Regression“ bezieht sich auf eine mathematische Gleichung, mit der eine Variable (die Ziel- oder abhängige Variable) durch eine andere Variable bzw. mehrere (unabhängige Variablen) vorhergesagt werden kann. Die einfachste Regressionsgleichung lautet bekanntlich y = a + bx (die bekannte Geradengleichung), wobei y die abhängige Variable auf der vertikalen Achse, x die unabhängige Variable auf der horizontalen Achse und a der Schnittpunkt mit der y-Achse ist.

Verhältnis der Chancen richtig beurteilen

„Häufig berechnet und häufig auch überstrapaziert werden Korrelationskoeffizienten“, erläutert Haas. Am bekanntesten ist der Korrelationskoeffizient nach Pearson r (für normalverteilte Daten). Meist werden in Studien heute auch Konfidenzintervalle (Vertrauensintervalle) angegeben– abgekürzt 95% CI –, zum Beispiel bei Odds Ratios. Odds Ratio (OR) bedeutet Chancenverhältnis, also das Verhältnis der Chance (Odds), dass beispielsweise ein Ereignis oder Endpunkt in der experimentellen Gruppe eintritt, zu der Chance, dass das Ereignis in der Kontrollgruppe eintritt. Eine Odds Ratio von 1 bedeutet, dass zwischen den Vergleichsgruppen kein Unterschied besteht. Lautet das Ergebnis zum Beispiel OR = 1,4 (95% CI = 0,8-2,4), ist der Unterschied nicht signifikant, da das Konfidenzintervall auch den Wert 1 einschließt.

Zu diesem Thema wurden noch keine Kommentare abgegeben.

Medizin heute

Aktuelle Printausgaben