Mittwoch, März 02 2011 03: 15

Statistische Methoden

Artikel bewerten
(1 Vote)

Über die Rolle der Statistik in der epidemiologischen Forschung zu kausalen Zusammenhängen wird viel diskutiert. In der Epidemiologie ist Statistik in erster Linie eine Sammlung von Methoden zur Bewertung von Daten auf der Grundlage von menschlichen (und auch tierischen) Populationen. Statistik ist insbesondere eine Technik zur Quantifizierung und Messung unsicherer Phänomene. Alle wissenschaftlichen Untersuchungen, die sich mit nichtdeterministischen, variablen Aspekten der Realität befassen, könnten von der statistischen Methodik profitieren. In der Epidemiologie ist Variabilität der Beobachtungseinheit inhärent – ​​eine Person ist keine deterministische Einheit. Während experimentelle Designs dahingehend verbessert werden würden, dass sie die Annahmen der Statistik in Bezug auf zufällige Variationen besser erfüllen, ist dieser Ansatz aus ethischen und praktischen Gründen nicht allzu verbreitet. Stattdessen beschäftigt sich die Epidemiologie mit Beobachtungsforschung, die sowohl zufällige als auch andere Quellen der Variabilität mit sich bringt.

Die statistische Theorie befasst sich damit, wie unstrukturierte Variabilität in den Daten kontrolliert werden kann, um gültige Schlussfolgerungen aus empirischen Beobachtungen zu ziehen. In Ermangelung einer Erklärung für das variable Verhalten des untersuchten Phänomens nimmt die Statistik dies an zufällig– das heißt, nicht-systematische Abweichungen von einem durchschnittlichen Naturzustand (siehe Greenland 1990 für eine Kritik dieser Annahmen).

Wissenschaft stützt sich auf Empirie Beweis um zu zeigen, ob seine theoretischen Modelle von Naturereignissen Gültigkeit haben. Tatsächlich bestimmen die Methoden der statistischen Theorie, inwieweit Beobachtungen in der realen Welt mit der Sicht der Wissenschaftler auf ein Phänomen in mathematischer Modellform übereinstimmen. Statistische Methoden, die auf Mathematik basieren, müssen daher sorgfältig ausgewählt werden; Es gibt viele Beispiele zum Thema „Wie man mit Statistiken lügt“. Epidemiologen sollten sich daher der Angemessenheit der Techniken bewusst sein, die sie anwenden, um das Krankheitsrisiko zu messen. Insbesondere bei der Interpretation sowohl statistisch signifikanter als auch statistisch nicht signifikanter Ergebnisse ist große Sorgfalt geboten.

Die erste Bedeutung des Wortes Statistiken bezieht sich auf eine beliebige zusammenfassende Größe, die anhand einer Reihe von Werten berechnet wird. Beschreibende Indizes oder Statistiken wie der arithmetische Durchschnitt, der Median oder der Modus werden häufig verwendet, um die Informationen in einer Reihe von Beobachtungen zusammenzufassen. In der Vergangenheit wurden diese zusammenfassenden Deskriptoren von Staaten für Verwaltungszwecke verwendet und daher benannt Statistiken. In der Epidemiologie leiten sich häufig verwendete Statistiken aus Vergleichen ab, die der Natur der Epidemiologie innewohnen, die Fragen stellt wie: „Ist eine Bevölkerung einem größeren Krankheitsrisiko ausgesetzt als eine andere?“ Bei solchen Vergleichen ist das relative Risiko ein beliebtes Maß für die Stärke des Zusammenhangs zwischen einem individuellen Merkmal und der Wahrscheinlichkeit zu erkranken und wird am häufigsten in der ätiologischen Forschung verwendet; Das zurechenbare Risiko ist auch ein Maß für den Zusammenhang zwischen individuellen Merkmalen und dem Auftreten von Krankheiten, betont jedoch den Gewinn in Bezug auf die Anzahl der Fälle, die durch eine Intervention erspart bleiben, die den betreffenden Faktor beseitigt – es wird hauptsächlich in der öffentlichen Gesundheit und Präventivmedizin angewendet.

Die zweite Bedeutung des Wortes Statistiken bezieht sich auf die Sammlung von Techniken und die zugrunde liegende Theorie der statistischen Inferenz. Dies ist eine besondere Form der induktiven Logik, die die Regeln für das Erhalten einer gültigen Verallgemeinerung aus einem bestimmten Satz empirischer Beobachtungen spezifiziert. Diese Verallgemeinerung wäre gültig, sofern einige Annahmen erfüllt sind. Dies ist die zweite Art und Weise, wie uns ein ungebildeter Gebrauch von Statistiken täuschen kann: In der Beobachtungsepidemiologie ist es sehr schwierig, sich der Annahmen sicher zu sein, die von statistischen Techniken impliziert werden. Daher sollten Sensitivitätsanalysen und robuste Schätzer Begleiter jeder korrekt durchgeführten Datenanalyse sein. Abschließende Schlussfolgerungen sollten auch auf dem Gesamtwissen beruhen und sich nicht ausschließlich auf die Ergebnisse statistischer Hypothesentests stützen.

Definitionen

A statistische Einheit ist das Element, an dem die empirischen Beobachtungen gemacht werden. Das kann eine Person, eine biologische Probe oder ein zu analysierendes Stück Rohmaterial sein. Normalerweise werden die statistischen Einheiten vom Forscher unabhängig ausgewählt, aber manchmal können komplexere Designs erstellt werden. Beispielsweise werden in Längsschnittstudien eine Reihe von Bestimmungen über eine Sammlung von Personen im Laufe der Zeit vorgenommen; Die statistischen Einheiten in dieser Studie sind die Menge von Bestimmungen, die nicht unabhängig sind, sondern durch ihre jeweiligen Verbindungen zu jeder untersuchten Person strukturiert sind. Der Mangel an Unabhängigkeit oder Korrelation zwischen statistischen Einheiten verdient besondere Aufmerksamkeit bei der statistischen Analyse.

A Variable ist ein einzelnes Merkmal, das an einer bestimmten statistischen Einheit gemessen wird. Es sollte mit a kontrastiert werden konstante, ein festes individuelles Merkmal – zum Beispiel sind in einer Studie über Menschen Kopf oder Brust eine Konstante, während das Geschlecht eines einzelnen Studienteilnehmers eine Variable ist.

Variablen werden mit verschiedenen ausgewertet Messskalen. Die erste Unterscheidung ist zwischen qualitativen und quantitativen Skalen. Qualitative Variablen bieten unterschiedliche Modalitäten or Kategorien. Wenn jede Modalität nicht in Relation zu anderen eingestuft oder geordnet werden kann – zum Beispiel Haarfarbe oder Geschlechtsmodalitäten – bezeichnen wir die Variable als nominal. Wenn die Kategorien geordnet werden können – wie der Schweregrad einer Krankheit – wird die Variable aufgerufen Ordinal-. Wenn eine Variable aus einem numerischen Wert besteht, sagen wir, dass die Skala quantitativ ist. EIN diskret Skala bedeutet, dass die Variable nur einige bestimmte Werte annehmen kann – zum Beispiel ganzzahlige Werte für die Anzahl der Krankheitsfälle. EIN kontinuierlich Skala wird für diejenigen Maßnahmen verwendet, die zu führen echt Zahlen. Kontinuierliche Skalen sollen sein Intervall skaliert, wenn der Nullwert eine rein konventionelle Bedeutung hat. Das heißt, ein Wert von null bedeutet nicht null Menge – zum Beispiel bedeutet eine Temperatur von null Grad Celsius nicht null thermische Energie. In diesem Fall machen nur Unterschiede zwischen den Werten Sinn (deshalb der Begriff „Intervall“-Skala). Ein reeller Nullwert bezeichnet a Verhältnis Skala. Bei einer auf dieser Skala gemessenen Größe sind auch Werteverhältnisse sinnvoll: Ein zweifaches Verhältnis bedeutet nämlich doppelte Menge. Wenn man beispielsweise sagt, dass ein Körper eine doppelt so hohe Temperatur hat wie ein zweiter Körper, bedeutet dies, dass er die doppelte Wärmeenergie des zweiten Körpers hat. unter der Vorraussetzung, dass die Temperatur wird auf einer Verhältnisskala (z. B. in Kelvin Grad) gemessen. Die Menge der zulässigen Werte für eine gegebene Variable wird als Definitionsbereich der Variablen bezeichnet.

Statistische Paradigmen

Statistik befasst sich mit der Art und Weise, aus einer Reihe bestimmter Beobachtungen zu verallgemeinern. Dieser Satz empirischer Messungen wird als a bezeichnet Sample. Aus einer Stichprobe berechnen wir einige deskriptive Statistiken, um die gesammelten Informationen zusammenzufassen.

Die grundlegenden Informationen, die im Allgemeinen zur Charakterisierung eines Maßnahmenpakets erforderlich sind, beziehen sich auf seine zentrale Tendenz und seine Variabilität. Die Wahl zwischen mehreren Alternativen hängt von der Skala ab, die zur Messung eines Phänomens verwendet wird, und von den Zwecken, für die die Statistiken berechnet werden. In Tabelle 1 werden verschiedene Maße der zentralen Tendenz und Variabilität (oder Streuung) beschrieben und der entsprechenden Messskala zugeordnet.

Tabelle 1. Indizes der zentralen Tendenz und Streuung nach Messskala

 

Messskala

 

Qualitativ

 

Quantitativ

Indizes

Definition

Nominal

Ordinal

Intervall/Verhältnis

Arithmetisches Mittel

Summe der beobachteten Werte dividiert durch die Gesamtzahl der Beobachtungen

 

x

Median

Mittelpunktwert der beobachteten Verteilung

 

x

x

Model

Häufigster Wert

x

x

x

Abdeckung

Niedrigster und höchster Wert der Verteilung

 

x

x

Unterschied

Summe der quadrierten Differenz jedes Werts vom Mittelwert dividiert durch die Gesamtzahl der Beobachtungen minus 1

 

 

x

 

Die berechnete deskriptive Statistik wird aufgerufen Schätzungen wenn wir sie als Ersatz für die analoge Menge der Population verwenden, aus der die Stichprobe ausgewählt wurde. Die Populationsgegenstücke der Schätzungen werden als Konstanten bezeichnet Parameter. Schätzungen desselben Parameters können mit unterschiedlichen statistischen Methoden erhalten werden. Eine Schätzung sollte sowohl valide als auch präzise sein.

Das Populations-Stichproben-Paradigma impliziert, dass die Validität durch die Art und Weise sichergestellt werden kann, wie die Stichprobe aus der Grundgesamtheit ausgewählt wird. Zufällige oder probabilistische Stichproben sind die übliche Strategie: Wenn jedes Mitglied der Bevölkerung die gleiche Wahrscheinlichkeit hat, in die Stichprobe aufgenommen zu werden, dann sollte unsere Stichprobe im Durchschnitt repräsentativ für die Bevölkerung sein und darüber hinaus könnte jede Abweichung von unserer Erwartung sein zufällig erklärt. Die Wahrscheinlichkeit einer gegebenen Abweichung von unserer Erwartung kann ebenfalls berechnet werden, sofern eine Stichprobe durchgeführt wurde. Die gleiche Argumentation gilt für die für unsere Stichprobe berechneten Schätzungen in Bezug auf die Parameter der Grundgesamtheit. Als Schätzwert für den Mittelwert der Grundgesamtheit nehmen wir beispielsweise das arithmetische Mittel aus unserer Stichprobe. Etwaige Unterschiede zwischen dem Durchschnitt der Stichprobe und dem Mittelwert der Grundgesamtheit werden zufälligen Schwankungen bei der Auswahl der in die Stichprobe aufgenommenen Mitglieder zugeschrieben. Wir können die Wahrscheinlichkeit für jeden Wert dieser Differenz berechnen, vorausgesetzt, die Stichprobe wurde zufällig ausgewählt. Wenn die Abweichung zwischen Stichprobenschätzung und Grundgesamtheitsparameter nicht zufällig erklärt werden kann, spricht man von einer Schätzung voreingenommen. Das Design der Beobachtung oder des Experiments verleiht den Schätzungen Gültigkeit, und das grundlegende statistische Paradigma ist das der Zufallsstichprobe.

In der Medizin wird ein zweites Paradigma angenommen, wenn ein Vergleich zwischen verschiedenen Gruppen das Ziel der Studie ist. Ein typisches Beispiel ist die kontrollierte klinische Studie: Anhand vordefinierter Kriterien wird eine Gruppe von Patienten mit ähnlichen Merkmalen ausgewählt. In diesem Stadium wird keine Repräsentativität berücksichtigt. Jeder in die Studie aufgenommene Patient wird durch ein Zufallsverfahren der Behandlungsgruppe zugeteilt, die die Standardtherapie plus das neue zu bewertende Medikament erhält, oder der Kontrollgruppe, die die Standardtherapie und ein Placebo erhält. In diesem Design ersetzt die zufällige Zuordnung der Patienten zu jeder Gruppe die zufällige Auswahl der Mitglieder der Stichprobe. Die Schätzung des Unterschieds zwischen den beiden Gruppen kann statistisch bewertet werden, da wir unter der Hypothese der fehlenden Wirksamkeit des neuen Medikaments die Wahrscheinlichkeit eines Unterschieds ungleich Null berechnen können.

In der Epidemiologie fehlt uns die Möglichkeit, zufällig exponierte und nicht exponierte Personengruppen zusammenzustellen. In diesem Fall können wir immer noch statistische Methoden verwenden, als ob die analysierten Gruppen zufällig ausgewählt oder zugewiesen worden wären. Die Richtigkeit dieser Annahme hängt hauptsächlich vom Studiendesign ab. Dieser Punkt ist besonders wichtig und unterstreicht die Bedeutung des epidemiologischen Studiendesigns gegenüber statistischen Techniken in der biomedizinischen Forschung.

Signal und Rauschen

Die zufällige Variable bezeichnet eine Variable, für die jedem Wert, den sie annehmen kann, eine definierte Wahrscheinlichkeit zugeordnet ist. Die theoretischen Modelle für die Verteilung der Wahrscheinlichkeit einer Zufallsvariablen sind Populationsmodelle. Die Stichprobengegenstücke werden durch die Stichprobenhäufigkeitsverteilung dargestellt. Dies ist eine nützliche Methode, um einen Datensatz zu melden. es besteht aus einer kartesischen Ebene mit der interessierenden Variablen entlang der horizontalen Achse und der Frequenz oder relativen Häufigkeit entlang der vertikalen Achse. Eine grafische Darstellung ermöglicht es uns, leicht zu sehen, was die häufigsten Werte sind und wie sich die Verteilung um bestimmte zentrale Werte wie den arithmetischen Durchschnitt konzentriert.

Für die Zufallsvariablen und ihre Wahrscheinlichkeitsverteilungen verwenden wir die Terme Parameter, mittlerer Erwartungswert (anstelle des arithmetischen Mittels) und Unterschied. Diese theoretischen Modelle beschreiben die Variabilität eines gegebenen Phänomens. In der Informationstheorie wird das Signal durch die zentrale Tendenz (z. B. den Mittelwert) dargestellt, während das Rauschen durch einen Streuungsindex (z. B. die Varianz) gemessen wird.

Zur Veranschaulichung der statistischen Inferenz verwenden wir das Binomialmodell. In den folgenden Abschnitten werden die Konzepte von Punktschätzungen und Konfidenzintervallen, Hypothesentests und Wahrscheinlichkeit von Fehlentscheidungen sowie Aussagekraft einer Studie eingeführt.

Tabelle 2. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)

Arbeitnehmer

Wahrscheinlichkeit

A

B

C

 

0

0

0

1

0

0

0

1

0

0

0

1

0

1

1

1

0

1

1

1

0

1

1

1

 

Ein Beispiel: Die Binomialverteilung

In der biomedizinischen Forschung und Epidemiologie ist das wichtigste Modell der stochastischen Variation die Binomialverteilung. Es stützt sich auf die Tatsache, dass sich die meisten Phänomene wie eine nominelle Variable mit nur zwei Kategorien verhalten: zum Beispiel das Vorhandensein/Nichtvorhandensein einer Krankheit: lebendig/tot oder genesen/krank. Unter solchen Umständen sind wir an der Erfolgswahrscheinlichkeit interessiert – dh im Fall von Interesse (z. B. Vorliegen einer Krankheit, am Leben oder Genesung) – und an den Faktoren oder Variablen, die sie verändern können. Lass uns in Erwägung ziehen n = 3 Arbeiter, und nehmen wir an, dass wir an der Wahrscheinlichkeit p interessiert sind, eine Sehbehinderung zu haben (ja/nein). Das Ergebnis unserer Beobachtung könnten die möglichen Ergebnisse in Tabelle 2 sein.

Tabelle 3. Mögliche Ergebnisse eines binomialen Experiments (ja = 1, nein = 0) und ihre Wahrscheinlichkeiten (n = 3)

Anzahl der Erfolge

Wahrscheinlichkeit

0

1

2

3

 

Die Wahrscheinlichkeit jeder dieser Ereigniskombinationen lässt sich leicht ermitteln, indem man p berücksichtigt, die (individuelle) Erfolgswahrscheinlichkeit, die für jede Versuchsperson konstant und unabhängig von anderen Ergebnissen ist. Da wir an der Gesamtzahl der Erfolge interessiert sind und nicht an einer bestimmten Reihenfolge, können wir die Tabelle wie folgt umordnen (siehe Tabelle 3) und allgemein die Wahrscheinlichkeit von ausdrücken x Erfolge P (x) als:

woher x ist die Anzahl der Erfolge und die Notation x! bezeichnet die Fakultät von xDh x! = x×(x–1)×(x–2)…×1.

Betrachtet man das Ereignis „krank sein/nicht sein“, so wird die individuelle Wahrscheinlichkeit, bezieht sich auf den Zustand, in dem das Subjekt vermutet wird; in der Epidemiologie wird diese Wahrscheinlichkeit „Prävalenz“ genannt. Um p zu schätzen, verwenden wir den Stichprobenanteil:

p = x/n

mit Varianz:

In einer hypothetischen unendlichen Reihe von replizierten Stichproben derselben Größe n, würden wir unterschiedliche Stichprobenanteile erhalten p = x/n, mit Wahrscheinlichkeiten, die durch die Binomialformel gegeben sind. Der „wahre“ Wert von  wird durch jeden Stichprobenanteil geschätzt, und ein Konfidenzintervall für p, d. h. der Satz wahrscheinlicher Werte für p, bei gegebenen beobachteten Daten und einem vordefinierten Konfidenzniveau (z. B. 95 %), wird aus der Binomialverteilung als geschätzt die Menge von Werten für p, die eine Wahrscheinlichkeit von ergibt x größer als ein vorgegebener Wert (z. B. 2.5 %). Für ein hypothetisches Experiment, bei dem wir beobachteten x = 15 Erfolge in n = 30 Versuche, die geschätzte Erfolgswahrscheinlichkeit beträgt:

p = x/n = 15/30 = 0.5 

Tabelle 4. Binomialverteilung. Wahrscheinlichkeiten für verschiedene Werte von  für x = 15 Erfolge in n = 30 Versuchen

Wahrscheinlichkeit

0.200

0.0002

0.300

0.0116

0.334

0.025

0.400

0.078

0.500

0.144

0.600

0.078

0.666

0.025

0.700

0.0116

 

Das 95 %-Konfidenzintervall für p, erhalten aus Tabelle 4, beträgt 0.334 – 0.666. Jeder Eintrag der Tabelle zeigt die Wahrscheinlichkeit von x = 15 Erfolge in n = 30 Versuche berechnet mit der Binomialformel; zum Beispiel für = 0.30 erhalten wir aus:

Aussichten für n groß und p nahe 0.5 können wir eine Näherung basierend auf der Gaußschen Verteilung verwenden:

woher za /2 bezeichnet den Wert der Standard-Gauß-Verteilung für eine Wahrscheinlichkeit

P (|z| ³ za /2) = a/2;

1 – a ist das gewählte Konfidenzniveau. Für das betrachtete Beispiel = 15/30 = 0.5; n = 30 und aus der standardmäßigen Gaußschen Tabelle z0.025 = 1.96. Das 95 %-Konfidenzintervall ergibt den Wertesatz 0.321 – 0.679, den man durch Einsetzen erhält p = 0.5, n = 30 und z0.025 = 1.96 in die obige Gleichung für die Gaußsche Verteilung. Beachten Sie, dass diese Werte nahe an den zuvor berechneten exakten Werten liegen.

Statistische Hypothesentests umfassen ein Entscheidungsverfahren über den Wert eines Populationsparameters. Nehmen wir im vorherigen Beispiel an, dass wir uns mit der Behauptung befassen möchten, dass es ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage gibt. Die wissenschaftliche Hypothese, die durch unsere empirischen Beobachtungen überprüft werden soll, lautet dann: „Es besteht ein erhöhtes Risiko für Sehbehinderung bei Arbeitern einer bestimmten Anlage“. Statistiker demonstrieren solche Hypothesen, indem sie die komplementäre Hypothese „es gibt keine Erhöhung des Risikos einer Sehbehinderung“ falsifizieren. Dies folgt der mathematischen Demonstration per Absurdum und anstatt eine Behauptung zu verifizieren, werden empirische Beweise nur verwendet, um sie zu falsifizieren. Die statistische Hypothese heißt Nullhypothese. Der zweite Schritt besteht darin, einen Wert für den Parameter dieser Wahrscheinlichkeitsverteilung anzugeben, die verwendet wird, um die Variabilität in den Beobachtungen zu modellieren. Da das Phänomen binär ist (dh Vorhandensein/Fehlen einer Sehbehinderung), wählen wir in unseren Beispielen die Binomialverteilung mit dem Parameter p, der Wahrscheinlichkeit einer Sehbehinderung. Die Nullhypothese behauptet das = 0.25, sagen wir. Dieser Wert wird aus der Sammlung von Wissen über das Thema und a-priori-Wissen über die übliche Prävalenz von Sehbehinderungen in nicht exponierten (dh Nicht-Arbeiter-) Bevölkerungsgruppen ausgewählt. Angenommen, unsere Daten ergaben eine Schätzung = 0.50, von den 30 untersuchten Arbeitern.

Können wir die Nullhypothese ablehnen?

Wenn ja, wofür Alternative Hypothese?

Wir spezifizieren eine Alternativhypothese als Kandidaten, falls die Beweise diktieren, dass die Nullhypothese abgelehnt wird. Ungerichtete (zweiseitige) Alternativhypothesen besagen, dass sich der Populationsparameter von dem in der Nullhypothese angegebenen Wert unterscheidet; gerichtete (einseitige) Alternativhypothesen besagen, dass der Populationsparameter größer (oder kleiner) als der Nullwert ist.

Tabelle 5. Binomialverteilung. Erfolgswahrscheinlichkeiten für  = 0.25 in n = 30 Versuchen

X

Wahrscheinlichkeit

Kumulative Wahrscheinlichkeit

0

0.0002

0.0002

1

0.0018

0.0020

2

0.0086

0.0106

3

0.0269

0.0374

4

0.0604

0.0979

5

0.1047

0.2026

6

0.1455

0.3481

7

0.1662

0.5143

8

0.1593

0.6736

9

0.1298

0.8034

10

0.0909

0.8943

11

0.0551

0.9493

12

0.0291

0.9784

13

0.0134

0.9918

14

0.0054

0.9973

15

0.0019

0.9992

16

0.0006

0.9998

17

0.0002

1.0000

.

.

.

30

0.0000

1.0000

 

Unter der Nullhypothese können wir die Wahrscheinlichkeitsverteilung der Ergebnisse unseres Beispiels berechnen. Tabelle 5 zeigt z = 0.25 und n = 30, die Wahrscheinlichkeiten (siehe Gleichung (1)) und die kumulativen Wahrscheinlichkeiten:

Aus dieser Tabelle erhalten wir die Wahrscheinlichkeit zu haben x ³15 Arbeitnehmer mit Sehbehinderung

P(x ³15) = 1 - P(x15) = 1 - 0.9992 0.0008 =

Dies bedeutet, dass es höchst unwahrscheinlich ist, dass wir 15 oder mehr Arbeitnehmer mit Sehbehinderung beobachten würden, wenn sie die Prävalenz der Krankheit der nicht exponierten Bevölkerungsgruppen erfahren würden. Daher könnten wir die Nullhypothese zurückweisen und bestätigen, dass es eine höhere Prävalenz von Sehbehinderungen in der untersuchten Population von Arbeitnehmern gibt.

Wann n×p ³ 5 und n×(1-) ³ 5 können wir die Gaußsche Näherung verwenden:

Aus der Tabelle der Standard-Gauß-Verteilung erhalten wir:

P(|z|>2.95) = 0.0008

in enger Übereinstimmung mit den genauen Ergebnissen. Aus dieser Näherung können wir erkennen, dass die Grundstruktur eines statistischen Hypothesentests aus dem Verhältnis von Signal zu Rauschen besteht. In unserem Fall ist das Signal (p-), die beobachtete Abweichung von der Nullhypothese, während das Rauschen die Standardabweichung von ist P:

Je größer das Verhältnis, desto geringer die Wahrscheinlichkeit des Nullwerts.

Beim Treffen von Entscheidungen über statistische Hypothesen können zwei Arten von Fehlern auftreten: ein Fehler erster Art, die Ablehnung der Nullhypothese, wenn sie wahr ist; oder ein Typ-II-Fehler, Annahme der Nullhypothese, wenn sie falsch ist. Das Wahrscheinlichkeitsniveau bzw p-Wert, ist die Wahrscheinlichkeit eines Fehlers erster Art, der mit dem griechischen Buchstaben a bezeichnet wird. Diese errechnet sich aus der Wahrscheinlichkeitsverteilung der Beobachtungen unter der Nullhypothese. Es ist üblich, ein a-Fehlerniveau (z. B. 5 %, 1 %) vorzugeben und die Nullhypothese abzulehnen, wenn das Ergebnis unserer Beobachtung eine Wahrscheinlichkeit hat, die gleich oder kleiner als dieses sogenannte kritische Niveau ist.

Die Wahrscheinlichkeit eines Fehlers XNUMX. Art wird mit dem griechischen Buchstaben β bezeichnet. Um ihn zu berechnen, müssen wir in der Alternativhypothese den α-Wert für den zu testenden Parameter angeben (in unserem Beispiel den α-Wert für ). Generische Alternativhypothesen (anders als, größer als, kleiner als) sind nicht sinnvoll. In der Praxis interessiert der β-Wert für eine Reihe von Alternativhypothesen oder deren Ergänzung, die als statistische Aussagekraft des Tests bezeichnet wird. Wenn wir beispielsweise den α-Fehlerwert auf 5 % festlegen, finden wir aus Tabelle 5:

P(x ³12) <0.05

unter der Nullhypothese = 0.25. Wenn wir es zumindest beobachten würden x = 12 Erfolge, würden wir die Nullhypothese verwerfen. Die entsprechenden β-Werte und die Potenz für x = 12 sind in Tabelle 6 angegeben. 

Tabelle 6. Fehler 12. Art und Trennschärfe für x = 30, n = 0.05, α = XNUMX

β

Power

0.30

0.9155

0.0845

0.35

0.7802

0.2198

0.40

0.5785

0.4215

0.45

0.3592

0.6408

0.50

0.1808

0.8192

0.55

0.0714

0.9286

 

In diesem Fall können unsere Daten nicht unterscheiden, ob größer als der Nullwert von 0.25, aber kleiner als 0.50 ist, weil die Aussagekraft der Studie für diese Werte zu gering ist (< 80 %). <0.50 – das heißt, die Sensitivität unserer Studie beträgt 8 % für = 0.3, 22 % für = 0.35,…, 64% für = 0.45.

Die einzige Möglichkeit, ein niedrigeres β oder ein höheres Power-Niveau zu erreichen, wäre die Vergrößerung der Studie. In Tabelle 7 geben wir beispielsweise β und die Leistung für an n = 40; Wie erwartet sollten wir in der Lage sein, a zu erkennen  Wert größer als 0.40. 

Tabelle 7. Fehler 12. Art und Trennschärfe für x = 40, n = 0.05, α = XNUMX

β

Power

0.30

0.5772

0.4228

0.35

0.3143

0.6857

0.40

0.1285

0.8715

0.45

0.0386

0.8614

0.50

0.0083

0.9917

0.55

0.0012

0.9988

 

Das Studiendesign basiert auf einer sorgfältigen Prüfung des Satzes alternativer Hypothesen, die eine Berücksichtigung verdienen und der Studie eine ausreichende Stichprobengröße garantieren.

In der epidemiologischen Literatur wurde die Bedeutung zuverlässiger Risikoschätzungen betont. Daher ist es wichtiger, Konfidenzintervalle (entweder 95 % oder 90 %) anzugeben, als a p-Wert eines Tests einer Hypothese. Der gleichen Argumentation folgend sollte der Interpretation von Ergebnissen aus kleinen Studien Beachtung geschenkt werden: Aufgrund der geringen Aussagekraft könnten selbst Zwischeneffekte unentdeckt bleiben und andererseits Effekte von großem Ausmaß später nicht repliziert werden.

Erweiterte Methoden

Der Komplexitätsgrad der statistischen Methoden im arbeitsmedizinischen Kontext hat in den letzten Jahren zugenommen. Wichtige Entwicklungen sind im Bereich der statistischen Modellierung zu finden. Die Nelder- und Wedderburn-Familie von nicht-Gaußschen Modellen (verallgemeinerte lineare Modelle) war einer der bemerkenswertesten Beiträge zum Wissenszuwachs in Bereichen wie Berufsepidemiologie, wo die relevanten Antwortvariablen binär sind (z. B. Überleben/Tod) oder zählt (z. B. Anzahl der Arbeitsunfälle).

Dies war der Ausgangspunkt für eine umfassende Anwendung von Regressionsmodellen als Alternative zu den traditionelleren Analysearten auf der Grundlage von Kontingenztabellen (einfache und stratifizierte Analyse). Poisson, Cox und logistische Regression werden heute routinemäßig für die Analyse von Längsschnitt- bzw. Fall-Kontroll-Studien verwendet. Diese Modelle sind das Gegenstück zur linearen Regression für kategoriale Antwortvariablen und haben die elegante Eigenschaft, direkt das relevante epidemiologische Assoziationsmaß zu liefern. Beispielsweise sind die Koeffizienten der Poisson-Regression der Logarithmus der Rate Ratios, während die der logistischen Regression der Logarithmus der Odds Ratios sind.

Davon ausgehend haben die Weiterentwicklungen im Bereich der statistischen Modellierung zwei Hauptrichtungen eingeschlagen: Modelle für wiederholte kategoriale Maße und Modelle, die die verallgemeinerten linearen Modelle erweitern (verallgemeinerte additive Modelle). In beiden Fällen konzentrieren sich die Ziele darauf, die Flexibilität der statistischen Werkzeuge zu erhöhen, um komplexere Probleme zu bewältigen, die sich aus der Realität ergeben. Modelle mit wiederholten Messungen werden in vielen Berufsstudien benötigt, bei denen die Analyseeinheiten auf der subindividuellen Ebene liegen. Zum Beispiel:

  1. Die Untersuchung des Einflusses der Arbeitsbedingungen auf das Karpaltunnelsyndrom muss beide Hände einer Person berücksichtigen, die nicht unabhängig voneinander sind.
  2. Die Analyse zeitlicher Trends von Umweltschadstoffen und deren Wirkung auf das Atmungssystem von Kindern kann mit äußerst flexiblen Modellen bewertet werden, da die exakte funktionelle Form der Dosis-Wirkungs-Beziehung schwer zu erhalten ist.

 

Eine parallele und wahrscheinlich schnellere Entwicklung wurde im Zusammenhang mit der Bayes'schen Statistik gesehen. Die praktische Barriere der Verwendung von Bayes'schen Methoden ist nach der Einführung computerintensiver Methoden zusammengebrochen. Monte-Carlo-Prozeduren wie Gibbs-Stichprobenschemata haben es uns ermöglicht, die Notwendigkeit einer numerischen Integration zur Berechnung der Posterior-Verteilungen zu vermeiden, die das herausforderndste Merkmal der Bayes'schen Methoden darstellten. Die Zahl der Anwendungen von Bayes'schen Modellen in realen und komplexen Problemen hat zunehmend Raum in angewandten Zeitschriften gefunden. Beispielsweise werden geografische Analysen und ökologische Zusammenhänge auf kleinräumiger Ebene sowie AIDS-Vorhersagemodelle immer häufiger mit bayesianischen Ansätzen angegangen. Diese Entwicklungen sind zu begrüßen, da sie nicht nur eine Zunahme der Zahl alternativer statistischer Lösungen darstellen, die bei der Analyse epidemiologischer Daten eingesetzt werden könnten, sondern auch, weil der Bayes'sche Ansatz als solidere Strategie angesehen werden kann.

 

Zurück

Lesen Sie mehr 6135 mal Zuletzt geändert am Donnerstag, den 13. Oktober 2011 um 20:24 Uhr

HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."

Inhalte

Referenzen zu Epidemiologie und Statistik

Ahlbom, A. 1984. Kriterien des kausalen Zusammenhangs in der Epidemiologie. In Health, Disease, and Causal Explanations in Medicine, herausgegeben von L. Nordenfelt und BIB Lindahl. Dordrecht: D. Reidel.

American Conference of Government Industrial Hygienists (ACGIH). 1991. Exposure Assessment for Epidemiology and Hazard Control, herausgegeben von SM Rappaport und TJ Smith. Chelsea, Mich.: Lewis.

Armstrong, BK, E. White und R. Saracci. 1992. Prinzipien der Expositionsmessung in der Epidemiologie. Oxford: Oxford-Univ. Drücken Sie.

Ashford, NA, CI Spadafor, DB Hattis und CC Caldart. 1990. Überwachung des Arbeitnehmers auf Exposition und Krankheit. Baltimore: Johns Hopkins Univ. Drücken Sie.

Axelson, O. 1978. Aspekte zum Confounding in der Epidemiologie der Arbeitsmedizin. Scand J Work Environ Health 4:85-89.

—. 1994. Einige neuere Entwicklungen in der Berufsepidemiologie. Scand J Work Environ Health 20 (Sonderausgabe):9-18.

Ayrton-Paris, JA. 1822. Pharmakologie.

Babbie, E. 1992. Die Praxis der Sozialforschung. Belmont, Kalifornien: Wadsworth.

Beauchamp, TL, RR Cook, WE Fayerweather, GK Raabe, WE Thar, SR Cowles und GH Spivey. 1991. Ethische Richtlinien für Epidemiologen. J Clin Epidemiol 44 Suppl. I:151S-169S.

Bell, B. 1876. Paraffinepitheliom des Hodensacks. Edinburgh Med J 22:135.

Blondin, O und C Viau. 1992. Benzo(a)pyren-Blutproteinaddukte in wilden Waldmurmeltieren, die als biologische Wächter für die Kontamination durch polyzyklische aromatische Kohlenwasserstoffe in der Umwelt verwendet werden. Arch Environ Contam Toxicol 23: 310–315.

Buck, C. 1975. Poppers Philosophie für Epidemiologen. Int. J. Epidemiol 4: 159-168.

Gehäuse, RAM und ME Hosker. 1954. Tumor an der Harnblase als Berufskrankheit in der Gummiindustrie in England und Wales. Brit J. Prevent Soc Med 8:39-50.

Checkoway, H, NE Pearce und DJ Crawford-Brown. 1989. Forschungsmethoden in der Berufsepidemiologie. New York: Oxford Univ. Drücken Sie.

Clayson, DB. 1962. Chemische Karzinogenese. London: JA Churchill.

Clayton, D. 1992. Lehre statistischer Methoden in der Epidemiologie. In Epidemiologie. Was Sie wissen sollten und was Sie tun könnten, herausgegeben von J Olsen und D Trichopoulos. Oxford: Oxford-Univ. Drücken Sie.

Clayton, D und M Hills. 1993. Statistische Modelle in der Epidemiologie. New York: Oxford Univ. Drücken Sie.

Cornfield, J. 1954. Statistische Zusammenhänge und Beweise in der Medizin. Am Stat 8:19-21.

Rat für internationale Organisationen der medizinischen Wissenschaften (CIOMS). 1991. Internationale Richtlinien für die ethische Überprüfung epidemiologischer Studien. Genf: CIOMS.

Czaja, R. und J. Blair. 1996. Entwerfen von Umfragen. Thousand Oaks, Kalifornien: Pine Forge Press.

Doll, R. 1952. Todesursachen bei Gasarbeitern unter besonderer Berücksichtigung von Lungenkrebs. Brit J Ind Med 9: 180-185.

—. 1955. Sterblichkeit durch Lungenkrebs bei Asbestarbeitern. Brit J Ind Med 12:81-86.

Droz, PO und MM Wu. 1991. Biologische Überwachungsstrategien. In Exposure Assessment for Epidemiology and Hazard Control, herausgegeben von SM Rappaport und TJ Smith. Chelsea, Mich.: Lewis.

Gamble, J und R Spirtas. 1976. Berufsklassifikation und Nutzung vollständiger Erwerbsbiografien in der Berufsepidemiologie. J Med 18: 399-404.

Gardner, MJ und DG Altman. 1989. Statistik mit Vertrauen. Konfidenzintervalle und statistische Richtlinien. London: BMJ-Verlag.

Garfinkel, L. 1984. Klassiker der Onkologie; E. Cuyler Hammond, ScD. Ca-Cancer Journal für Kliniker. 38(1): 23-27

Gier, RN. 1979. Wissenschaftliches Denken verstehen. New York: Holt Rinehart & Winston.

Glickmann, LT. 1993. Natürliche Expositionsstudien bei Heimtieren: Sentinels für Umweltkarzinogene. Vet Can Soc Newslttr 17:5-7.

Glickman, LT, LM Domanski, TG Maguire, RR Dubielzig und A. Churg. 1983. Mesotheliom bei Haushunden im Zusammenhang mit der Exposition ihrer Besitzer gegenüber Asbest. Environmental Research 32:305-313.

Gloyn, SR. 1935. Zwei Fälle von Plattenepithelkarzinom der Lunge, die bei Asbestose auftreten. Tuberkel 17:5-10.

—. 1951. Pneumokoniose: Histologische Untersuchung von Obduktionsmaterial in 1,205 Fällen. Lancet 1:810-814.

Greenland, S. 1987. Quantitative Methoden in der Überprüfung der epidemiologischen Literatur. Epidemiol Off 9:1-30.

—. 1990. Randomisierung, Statistik und kausale Inferenz. Epidemiologie 1:421-429.

Harting, FH und W Hessen. 1879. Der Lungenkrebs, die Bergkrankheit in den Schneeberger Gruben. Vierteljahrsschr Gerichtl Med Offentl Gesundheitswesen CAPS 30:296-307.

Hayes, RB, JW Raatgever, A. de Bruyn und M. Gerin. 1986. Krebs der Nasenhöhle und der Nasennebenhöhlen und Formaldehyd-Exposition. Int. J. Cancer 37: 487-492.

Hayes, HM, RE Tarone, HW Casey und DL Huxsoll. 1990. Exzessives Auftreten von Seminomen bei Arbeitshunden des US-Militärs in Vietnam. J Natl Cancer Inst 82: 1042-1046.

Hernberg, S. 1992. Einführung in die Berufsepidemiologie. Chelsea, Mich.: Lewis.
Hügel, AB. 1965. Umwelt und Krankheit: Assoziation oder Kausalität? Proc Royal Soc Med 58:295-300.

Hume, D. 1978. Eine Abhandlung über die menschliche Natur. Oxford: Clarendon Press.

Hungerford, LL, HL Trammel und JM Clark. 1995. Der potenzielle Nutzen von Tiervergiftungsdaten zur Identifizierung der menschlichen Exposition gegenüber Umweltgiften. Vet Hum Toxicol 37:158-162.

Jeyaratnam, J. 1994. Übertragung gefährlicher Industrien. In Occupational Cancer in Developing Countries, herausgegeben von NE Pearce, E. Matos, H. Vainio, P. Boffetta und M. Kogevinas. Lyon: IARC.

Karhausen, LR. 1995. Die Armut der Popperschen Epidemiologie. Int. J. Epidemiol. 24: 869-874.

Kogevinas, M, P Boffetta und N Pearce. 1994. Berufliche Exposition gegenüber Karzinogenen in Entwicklungsländern. In Occupational Cancer in Developing Countries, herausgegeben von NE Pearce, E. Matos, H. Vainio, P. Boffetta und M. Kogevinas. Lyon: IARC.

LaDou, J. 1991. Tödliche Migration. Tech Rev 7:47-53.

Laurell, AC, M. Noriega, S. Martinez und J. Villegas. 1992. Partizipative Forschung zur Gesundheit der Arbeitnehmer. Soc Sci Med 34:603-613.

Lilienfeld, AM und DE Lilienfeld. 1979. Ein Jahrhundert Fall-Kontroll-Studien: Fortschritt? Chronik Dis 32:5-13.

Loewenson, R. und M. Biocca. 1995. Partizipative Ansätze in der betrieblichen Gesundheitsforschung. Med Lavoro 86:263-271.

Lynch, KM und WA Smith. 1935. Lungenasbestose. III Lungenkarzinom bei Asbest-Silikose. Bin J Cancer 24:56-64.

Maclure, M. 1985. Poppersche Widerlegung in der Epidemiologie. Am J. Epidemiol 121:343-350.

—. 1988. Widerlegung in der Epidemiologie: Warum sonst nicht? In Causal Inference, herausgegeben von KJ Rothman. Chestnut Hill, Mass.: Ressourcen zur Epidemiologie.

Martin, SW, AH Meek und P. Willeberg. 1987. Veterinär-Epidemiologie. Des Moines: Iowa State Univ. Drücken Sie.

McMichael, AJ. 1994. Eingeladener Kommentar - "Molekulare Epidemiologie": Neuer Weg oder neuer Reisebegleiter? Am J Epidemiol 140:1-11.

Merletti, F und P Comba. 1992. Berufsepidemiologie. In der Lehre der Epidemiologie. Was Sie wissen sollten und was Sie tun könnten, herausgegeben von J Olsen und D Trichopoulos. Oxford: Oxford-Univ. Drücken Sie.

Miettinen, OS. 1985. Theoretische Epidemiologie. Prinzipien der Vorkommensforschung in der Medizin. New York: John Wiley & Söhne.

Newell, KW, AD Ross und RM Renner. 1984. Phenoxy- und Picolinsäure-Herbizide und Dünndarm-Adenokarzinom bei Schafen. Lancet 2: 1301-1305.

Olsen, J, F Merletti, D Snashall und K Vuylsteek. 1991. Auf der Suche nach Ursachen arbeitsbedingter Erkrankungen. Eine Einführung in die Epidemiologie am Arbeitsplatz. Oxford: Oxford Medical Publications, Oxford Univ. Drücken Sie.

Pearce, N. 1992. Methodologische Probleme zeitbezogener Variablen in Berufskohortenstudien. Rev Epidmiol Med Soc Santé Publ 40 Suppl: 43-54.

—. 1996. Traditionelle Epidemiologie, moderne Epidemiologie und öffentliche Gesundheit. Am J Public Health 86(5): 678-683.

Pearce, N., E. Matos, H. Vainio, P. Boffetta und M. Kogevinas. 1994. Berufsbedingter Krebs in Entwicklungsländern. Wissenschaftliche Veröffentlichungen der IARC, Nr. 129. Lyon: IARC.

Pearce, N., S. De Sanjose, P. Boffetta, M. Kogevinas, R. Saracci und D. Savitz. 1995. Beschränkungen von Biomarkern der Exposition in der Krebsepidemiologie. Epidemiologie 6:190-194.

Poole, C. 1987. Jenseits des Konfidenzintervalls. Am J Public Health 77:195-199.

Pott, S. 1775. Chirurgische Beobachtungen. London: Hawes, Clarke & Collins.

Proceedings of the Conference on Retrospective Assessment of Occupational Exposures in Epidemiology, Lyon, 13.-15. April 1994. 1995. Lyon: IARC.

Ramazzini, B. 1705. De Morbis Artificum Diatriva. Typis Antonii Capponi. Mutinae, MDCC. London: Andrew Bell und andere.

Rappaport, SM, H. Kromhout und E. Symanski. 1993. Variation der Exposition zwischen Arbeitern in homogenen Expositionsgruppen. Am Ind Hyg Assoc J 54(11):654-662.

Reif, JS, KS Lower und GK Ogilvie. 1995. Häusliche Exposition bei Magnetfeldern und das Risiko eines Hunde-Lymphoms. Am J Epidemiol 141:3-17.

Reynolds, PM, JS Reif, HS Ramsdell und JD Tessari. 1994. Hundeexposition gegenüber herbizidbehandelten Rasenflächen und Urinausscheidung von 2,4-Dichlorphenoxyessigsäure. Canc Epidem, Biomark and Prevention 3:233-237.

Robins, JM, D. Blevins, G. Ritter und M. Wulfsohn. 1992. G-Schätzung der Wirkung einer Prophylaxetherapie bei Pneumocystis-carinii-Pneumonie auf das Überleben von Aids-Patienten. Epidemiologie 3:319-336.

Rothman, KJ. 1986. Moderne Epidemiologie. Boston: Klein, Braun & Co.

Saracci, R. 1995. Epidemiologie: Gestern, heute, morgen. In Vorlesungen und aktuelle Themen der Epidemiologie. Florenz: Europäisches Bildungsprogramm für Epidemiologie.

Schaffner, KF. 1993. Entdeckung und Erklärung in Biologie und Medizin. Chicago: Univ. von Chicago Press.

Schlüsselmann, JJ. 1987. „Beweis“ von Ursache und Wirkung in epidemiologischen Studien: Kriterien für die Beurteilung. Med 16:195-210 verhindern.

Schulte, P. 1989. Interpretation und Vermittlung der Ergebnisse medizinischer Felduntersuchungen. J Occup Med 31:5889–5894.

Schulte, PA, WL Boal, JM Friedland, JT Walker, LB Connally, LF Mazzuckelli und LJ Fine. 1993. Methodologische Probleme bei der Risikokommunikation mit Arbeitnehmern. Am J Ind Med 23:3-9.

Schwabe, CW. 1993. Die aktuelle epidemiologische Revolution in der Veterinärmedizin. Teil II. Verhindern Sie Vet Med 18: 3-16.

Seidman, H, IJ Selikoff und EC Hammond. 1979. Kurzfristige Asbest-Arbeitsexposition und Langzeitbeobachtung. Ann NY Acad Sci 330:61-89.

Selikoff, IJ, EC Hammond und J. Churg. 1968. Asbestexposition, Rauchen und Neoplasien. JAMA 204:106-112.

—. 1964. Asbestexposition und Neoplasien. JAMA 188, 22-26.

Siemiatycki, J., L. Richardson, M. Gérin, M. Goldberg, R. Dewar, M. Désy, S. Campbell und S. Wacholder. 1986. Assoziationen zwischen mehreren Krebsherden und neun organischen Stäuben: Ergebnisse einer hypothesengenerierenden Fall-Kontroll-Studie in Montreal, 1979-1983. Am J. Epidemiol 123:235-249.

Simonato, L. 1986. Berufsbedingtes Krebsrisiko in Entwicklungsländern und Prioritäten für die epidemiologische Forschung. Präsentiert auf dem International Symposium on Health and Environment in Developing Countries, Haicco.

Schmied, TJ. 1987. Expositionsabschätzung für die Berufsepidemiologie. Am J Ind Med 12:249-268.

Soskolne, CL. 1985. Epidemiologische Forschung, Interessengruppen und der Überprüfungsprozess. J Public Health Policy 6(2):173-184.

—. 1989. Epidemiologie: Fragen der Wissenschaft, Ethik, Moral und des Rechts. Am J Epidemiol 129(1):1-18.

—. 1993. Einführung in das Fehlverhalten in der Wissenschaft und wissenschaftliche Pflichten. J Expos Anal Environ Epidemiol 3 Suppl. 1:245-251.

Soskolne, CL, D. Lilienfeld und B. Black. 1994. Epidemiologie in Gerichtsverfahren in den Vereinigten Staaten. In der Identifizierung und Kontrolle von Umwelt- und Berufskrankheiten. Fortschritte in der modernen Umwelttoxikologie: Teil 1, herausgegeben von MA Mellman und A Upton. Princeton: Princeton Scientific Publishing.

Stellmann, SD. 1987. Verwirrung. Med 16:165-182 verhindern.

Suarez-Almazor, ME, CL Soskolne, K Fung und GS Jhangri. 1992. Empirische Bewertung der Wirkung verschiedener zusammenfassender Expositionsmessungen während des Berufslebens auf die Risikoabschätzung in fallbezogenen Studien zu berufsbedingtem Krebs. Scand J Work Environ Health 18:233-241.

Thrusfield, MV. 1986. Veterinär-Epidemiologie. London: Butterworth Heinemann.

Trichopoulos, D. 1995. Erfolge und Aussichten der Epidemiologie. In Vorlesungen und aktuelle Themen der Epidemiologie. Florenz: Europäisches Bildungsprogramm für Epidemiologie.

Van Damme, K., L. Cateleyn, E. Heseltine, A. Huici, M. Sorsa, N. van Larebeke und P. Vineis. 1995. Individuelle Anfälligkeit und Prävention von Berufskrankheiten: wissenschaftliche und ethische Fragen. J Exp Med 37: 91–99.

Vineis, P. 1991. Kausalitätsbewertung in der Epidemiologie. Theor Med 12:171-181.

Vineis, P. 1992. Verwendung biochemischer und biologischer Marker in der Berufsepidemiologie. Rev Epidmiol Med Soc Santé Publ 40 Suppl 1: 63-69.

Vineis, P und T Martone. 1995. Genetisch-Umwelt-Wechselwirkungen und geringe Exposition gegenüber Karzinogenen. Epidemiologie 6:455-457.

Vineis, P und L Simonato. 1991. Anteil der berufsbedingten Lungen- und Blasenkrebserkrankungen bei Männern: Ein systematischer Ansatz. Arch Environ Health 46:6-15.

Vineis, P und CL Soskolne. 1993. Krebsrisikobewertung und -management: Eine ethische Perspektive. J Occup Med 35(9):902-908.

Vineis, P, H Bartsch, N Caporaso, AM Harrington, FF Kadlubar, MT Landi, C Malaveille, PG Shields, P Skipper, G Talaska und SR Tannenbaum. 1994. Genetisch begründeter metabolischer Polymorphismus der N-Acetyltransferase und geringe Umweltexposition gegenüber Karzinogenen. Natur 369: 154-156.

Vineis, P, K Cantor, C Gonzales, E Lynge und V Vallyathan. 1995. Berufsbedingter Krebs in Industrie- und Entwicklungsländern. Int. J. Cancer 62: 655–660.

Von Volkmann, R. 1874. Über Theer-und Russkrebs. Klinische Wochenschrift 11:218.

Walker, AM und M Blettner. 1985. Vergleich unvollkommener Expositionsmaße. Am J Epidemiol 121: 783–790.

Wang, JD. 1991. Von Vermutungen und Widerlegungen zur Dokumentation von Berufskrankheiten in Taiwan. Am J Ind Med 20:557-565.

—. 1993. Verwendung epidemiologischer Methoden bei der Untersuchung von Krankheiten, die durch toxische Chemikalien verursacht werden. J Natl Publ Health Assoc 12:326-334.

Wang, JD, WM Li, FC Hu und KH Fu. 1987. Arbeitsrisiko und die Entwicklung prämaligner Hautläsionen bei Paraquat-Herstellern. Brit J Ind Med 44: 196-200.

Unkraut, DL. 1986. Zur Logik des Kausalschlusses. Am J Epidemiol 123: 965–979.

—. 1988. Kausale Kriterien und Poppersche Widerlegung. In Causal Inference, herausgegeben von KJ Rothman. Chestnut Hill, Mass.: Ressourcen zur Epidemiologie.

Holz, WB und SR Gloyne. 1930. Lungenasbestose. Lancet 1:445-448.

Wyers, H. 1949. Asbestose. Postgraduierten Med J 25: 631-638.