Zweite Ausgabe des Newsletters für Ernährungsfachkräfte und Interessierte

Ernährungsforschung richtig interpretieren

- In der neuen Ausgabe erklärt Dr. oec. troph. Sandra Habicht, Institut für Ernährungswissenschaft der Justus-Liebig-Universität Gießen, gängige Methoden und Begriffe der deskriptiven und analytischen Statistik für alle, die Studien und ihre Ergebnisse korrekt lesen und verstehen möchten.
© Lebensmittelverband
Bildunterschrift anzeigen

Auch in der Ernährungsforschung sind Fragestellungen und Studiendesigns mittlerweile sehr komplex und damit einher geht einerseits eine aufwendige statistische Auswertung der erhobenen Daten und andererseits eine ausdifferenzierte Darstellung der Studien und ihrer Ergebnisse. Die Ansprüche an all diejenigen, die Publikationen verstehen und/oder Studienergebnisse korrekt interpretieren und wiedergeben möchten, sind hoch. Deshalb ging es in der 1. Ausgabe von FOKUS WISSENSCHAFT um verschiedene Studientypen der Ernährungsforschung, und dieser 2. Teil stellt häufig verwendete Begriffe aus der Statistik sowie grafische Darstellungen in den Fokus.

Repräsentativ: Für was und für was nicht?
Das übergeordnete Ziel aller statistischen Analysen ist es, Erkenntnisse auf die allgemeine Bevölkerung, eine bestimmte Risikopopulation oder eine Gruppe von Patientinnen und Patienten mit einer bestimmten Erkrankung zu übertragen. Soll auf die Gesamtbevölkerung geschlossen werden, sind Stichproben notwendig, die bezogen auf relevante Merkmale wie Alter, Geschlecht oder Einkommen den Merkmalen der Gesamtbevölkerung entsprechen. Solche repräsentativen Studien sind z. B. sinnvoll, wenn man Daten oder Einstellungen zu Ernährung und Gesundheit oder zum Konsum von Nahrungsergänzungsmitteln erheben will. Zur Erforschung von Erkrankungsursachen sowie Präventionsmaßnahmen oder Handlungsmöglichkeiten hingegen werden Erkenntnisse häufig auf Personen mit ähnlichen Merkmalen, wie die der Studienpopulation, übertragen. Hier ist es wichtig, dass mit den Studienergebnissen auch die Merkmale des Studienkollektivs dargestellt werden: einerseits als Ein- und Ausschlusskriterien, andererseits mittels der deskriptiven Statistik.

Deskriptive Statistik: Mehr als nur die Beschreibung der (Studien-)Population
Zur deskriptiven Statistik gehören Häufigkeiten, aber auch berechnete Größen wie Mittelwert, Varianz, Standardabweichung, Median und Interquartilsabstand. Um ein Bild von der Verteilung der Daten zu erhalten, werden Mittelwert und Median mit den jeweils passenden Maßen für die Streuung der Daten angegeben. Die Autorin definiert die wichtigsten Größen und grenzt sie gegeneinander ab. Außerdem werden übliche grafische Darstellungen vorgestellt und erklärt.

Deskriptive und analytische Statistik in Beobachtungsstudien
Bei deskriptiven Beobachtungsstudien (auch Querschnittsstudien oder Prävalenzstudien) spielen zusätzlich Häufigkeiten, Prävalenzen und Inzidenzen eine große Rolle. In diesem Abschnitt wird erklärt, wann man welchen Begriff nutzt und was jeder Einzelne genau besagt. Im Rahmen der weiterführenden Statistik können Häufigkeiten z. B. von Erkrankungen, einem Versorgungstatus oder anderen Gesundheitsdaten mit weiteren Merkmalen der Personen oder des Lebensstils in Verbindung gebracht werden. Derlei Korrelationen können auch in deskriptiven Studien erste Assoziationen von zwei oder mehreren Parametern miteinander ermitteln. Sie werden ausgedrückt als Korrelationskoeffizienten und die Autorin zeigt auf, wie angegebene Werte zu lesen sind. Stellt sich bei multivariaten statistischen Testverfahren eine Variable als starker Einflussfaktor heraus, obwohl andere Variablen in der Analyse berücksichtigt wurden, wird oft von einem sogenannten unabhängigen Risikofaktor oder Präventionsfaktor gesprochen. Die Begrifflichkeiten werden im Beitrag definiert und anhand von Beispielen erläutert.

Schaut man auf die Ergebnisse einer Kohortenstudie, so wird aus den Daten das Relative Risiko berechnet, über das häufig auch in Kombination mit einem p-Wert oder Konfidenzintervall berichtet wird. Damit in Verbindung steht die häufig zu findende Aussage, dass Ergebnisse statistisch signifikant sind: Auch hier klärt die Autorin auf, wie dies abzuleiten ist, und erläutert, was mit einer Hazard Ratio und einer Odds Ratio gemeint ist.

Perzentilen und z-Scores: Werte außerhalb der Norm ermitteln
Aus den Daten einer Stichprobe können Perzentile berechnet werden, die anzeigen, wie viel Prozent der Personen einer Stichprobe einen bestimmten Wert oder einen kleineren Wert als diesen aufweisen. Oder andersherum betrachtet: Welchen Wert mindestens 5 bzw. 10 Prozent der Stichprobe erreichen. Perzentilen zeigen, welche Personen stark von den meisten anderen Personen abweichen. Ähnlich sind z-Scores zu interpretieren. Die Fragen, was beide unterscheidet bzw. wann man diese Werte ermittelt, werden erläutert.

Den Erfolg einer Intervention durch statistische Vergleiche messen
Interventionsstudien untersuchen neben der Gruppe, die eine definierte Intervention erhält, auch eine Kontrollgruppe mit oder ohne Placebo-Behandlung. Um Gruppen oder Zeitpunkte miteinander zu vergleichen, gibt es unterschiedliche Testverfahren wie z. B. den Mittelwertvergleich mittels T-Test, eine ANOVA oder die Ermittlung der Effektstärke. Was lässt sich sinnvoll kombinieren? Was sagt was aus? Dieser Abschnitt bietet wertvolle Hilfestellung und erklärende Hintergründe.

Auswertung mit Prinzip: Die Qualität der Daten beurteilen
Weiterhin geht es um Kriterien, die man kennen sollte, um die Datenqualität bewerten zu können. So ist es zunächst wichtig zu erfahren, nach welchem Prinzip die Auswertung stattfand: Intention-To-Treat – hier sind auch Personen eingeschlossen, für die keine kompletten Datensätze vorliegen – oder Per-Protocol (nur mit vollständigen Datensätzen). Sind „Ausreißer“ beschrieben und kenntlich gemacht?

Qualitätsmerkmale sind außerdem, ob die Auswahl der untersuchten Kriterien zur Fragestellung passt und diese zuverlässig und valide bestimmt werden können. Deshalb sollte man auch darauf achten, ob Hinweise zur Vermeidung von Messfehlern bei anthropometrischen Messungen, Fragebögen oder Laboranalyen gegeben werden und die Zuverlässigkeit dieser Methoden erläutert wird.

Aber auch die Auswahl der untersuchten Parameter ist entscheidend: Können sie die Fragestellung ausreichend beantworten? Bei der Validität der Daten werden die interne und die externe Validität unterschieden. Die interne Validität kann durch den Ausschluss von Störfaktoren oder Störvariablen hergestellt oder verbessert werden. Die externe Validität ist gegeben, wenn die Studienergebnisse nicht nur für die Studienpopulation gelten, sondern auch auf die Allgemeinheit übertragen werden können. Die externe Validität ist umso höher, je besser die Studienpopulation ausgewählt wurde, also kein Sampling Bias vorliegt.

Daten statistisch zusammenfassen: Meta-Analysen
Eine Meta-Analyse kann Beobachtungsstudien oder Interventionsstudien zusammenfassen, und je nachdem, wird das Hauptergebnis als Verhältnis bzw. als Differenz dargestellt. Üblich ist zudem die grafische Umsetzung in Form eines Forrest-Plots. Anhand von Beispielen wird aufgezeigt, wie man Details richtig liest und interpretiert. Es gilt dabei, die Heterogenität der in eine Meta-Analyse eingeschlossenen Studien und deren Ergebnisse zu beleuchten. Sogenannte Publication Bias lassen sich mittels eines Funnel Plots aufdecken. Wie das funktioniert, beantwortet die Autorin zum Abschluss des Beitrages.

Die komplette zweite Ausgabe des „FOKUS Wissenschaft“ steht zum Download unter https://www.nahrungsergaenzungsmittel.org/fokus-wissenschaft/ernahrungsforschung-interpretieren/ zur Verfügung.