27. Biologische Überwachung
Kapitelherausgeber: Robert Lauwerys
Inhaltsverzeichnis
Allgemeine Grundsätze
Vito Foà und Lorenzo Alessio
Qualitätssicherung
D. Gompertz
Metalle und metallorganische Verbindungen
P. Hoet und Robert Lauwerys
Organische Lösungsmittel
Masayuki Ikeda
Genotoxische Chemikalien
Marja Sorsa
Pestizide
Marco Maroni und Adalberto Ferioli
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. ACGIH, DFG & andere Grenzwerte für Metalle
2. Beispiele für Chemikalien- und biologisches Monitoring
3. Biologische Überwachung auf organische Lösungsmittel
4. Genotoxizität von Chemikalien, bewertet von IARC
5. Biomarker und einige Zell-/Gewebeproben und Genotoxizität
6. Menschliche Karzinogene, berufliche Exposition und zytogenetische Endpunkte
8. Exposition durch Produktion und Verwendung von Pestiziden
9. Akute OP-Toxizität bei verschiedenen Graden der ACHE-Hemmung
10 Variationen von ACHE & PCHE & ausgewählten Gesundheitszuständen
11 Cholinesterase-Aktivitäten von nicht exponierten gesunden Menschen
12 Alkylphosphate im Urin und OP-Pestizide
13 Alkylphosphatmessungen im Urin & OP
14 Carbamat-Metaboliten im Urin
15 Dithiocarbamat-Metaboliten im Urin
16 Vorgeschlagene Indizes für die biologische Überwachung von Pestiziden
17 Empfohlene biologische Grenzwerte (Stand 1996)
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
28. Epidemiologie und Statistik
Kapitel-Editoren: Franco Merletti, Colin L. Soskolne und Paolo Vineis
Epidemiologische Methode für Arbeitssicherheit und Gesundheitsschutz
Franco Merletti, Colin L. Soskolne und Paolo Vineis
Expositionsbewertung
M. Gerald Ott
Zusammenfassung der Expositionsmaßnahmen im Arbeitsleben
Colin L. Soskolne
Messung der Auswirkungen von Expositionen
Shelia Hoar Zahm
Fallbeispiel: Maßnahmen
Franco Merletti, Colin L. Soskolne und Paola Vineis
Optionen im Studiendesign
Sven Herberg
Validitätsprobleme im Studiendesign
Annie J. Sasco
Einfluss zufälliger Messfehler
Paolo Vineis und Colin L. Soskolne
Statistische Methoden
Annibale Biggeri und Mario Braga
Kausalitätsbewertung und Ethik in der epidemiologischen Forschung
Paolo Vineis
Fallstudien zur Veranschaulichung methodischer Probleme bei der Überwachung von Berufskrankheiten
Jung-Der Wang
Fragebögen in der epidemiologischen Forschung
Steven D. Stellman und Colin L. Soskolne
Asbest Historische Perspektive
Laurent Garfinkel
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Fünf ausgewählte zusammenfassende Maßnahmen zur Exposition im Berufsleben
2. Maße für das Auftreten von Krankheiten
3. Assoziationsmaße für eine Kohortenstudie
4. Assoziationsmaße für Fall-Kontroll-Studien
5. Allgemeines Häufigkeitstabellenlayout für Kohortendaten
6. Musterlayout von Fallkontrolldaten
7. Layout-Fallkontrolldaten – eine Kontrolle pro Fall
8. Hypothetische Kohorte von 1950 Individuen zu T2
9. Indizes der zentralen Tendenz und Streuung
10 Ein binomiales Experiment & Wahrscheinlichkeiten
11 Mögliche Ergebnisse eines binomialen Experiments
12 Binomialverteilung, 15 Erfolge/30 Versuche
13 Binomialverteilung, p = 0.25; 30 Versuche
14 Fehler XNUMX. Art & Leistung; x = 12, n = 30, a = 0.05
15 Fehler XNUMX. Art & Leistung; x = 12, n = 40, a = 0.05
16 632 Arbeitnehmer, die 20 Jahre oder länger Asbest ausgesetzt waren
17 O/E Zahl der Todesfälle unter 632 Asbestarbeitern
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
29. Ergonomie
Kapitel-Editoren: Wolfgang Laurig und Joachim Vedder
Inhaltsverzeichnis
Überblick
Wolfgang Laurig und Joachim Vedder
Wesen und Ziele der Ergonomie
William T. Singleton
Analyse von Aktivitäten, Aufgaben und Arbeitssystemen
Véronique De Keyser
Ergonomie und Standardisierung
Friedhelm Nachreiner
Prüflisten
Pranab Kumar Nag
Anthropometrie
Melchiorre Masali
Muskelarbeit
Juhani Smolander und Veikko Louhevaara
Körperhaltungen bei der Arbeit
Ilkka Kurinka
Biomechanik
Frank Darby
Allgemeine Müdigkeit
Etienne Grandjean
Müdigkeit und Erholung
Rolf Helbig und Walter Rohmert
Geistige Arbeitsbelastung
Winfried Hacker
Wachsamkeit
Herbert Heuer
Geistige Müdigkeit
Peter Richter
Arbeitsorganisation
Eberhard Ulich und Gudela Grote
Schlafentzug
Kazutaka Kogi
Workstations
Roland Kadefors
Tools
TM Fraser
Bedienelemente, Anzeigen und Bedienfelder
Karl HE Kroemer
Informationsverarbeitung und Design
Andries F. Sanders
Entwerfen für bestimmte Gruppen
Witz H. Grady-van den Nieuwboer
Fallstudie: Die internationale Klassifikation der Funktionseinschränkung beim Menschen
Kulturelle Unterschiede
Houshang Shahnavaz
Ältere Arbeitnehmer
Antoine Laville und Serge Volkoff
Arbeitnehmer mit besonderen Bedürfnissen
Witz H. Grady-van den Nieuwboer
Systemdesign in der Diamantherstellung
Issachar Gilad
Missachtung ergonomischer Gestaltungsprinzipien: Tschernobyl
Wladimir M. Munipov
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Grundlegende anthropometrische Kernliste
2. Ermüdung und Erholung abhängig vom Aktivitätsniveau
3. Regeln der Kombinationswirkung zweier Stressfaktoren auf die Belastung
4. Es wird zwischen mehreren negativen Folgen psychischer Belastung unterschieden
5. Arbeitsorientierte Prinzipien zur Produktionsgestaltung
6. Partizipation im organisatorischen Kontext
7. Benutzerbeteiligung am Technologieprozess
8. Unregelmäßige Arbeitszeiten und Schlafentzug
9. Aspekte von Früh-, Anker- und Verzögerungsschlaf
10 Kontrollieren Sie Bewegungen und erwartete Effekte
11 Steuerungs-Wirkungs-Beziehungen gängiger Handsteuerungen
12 Regeln für die Anordnung von Kontrollen
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
30. Arbeitshygiene
Kapitel-Editor: Robert F. Herrick
Inhaltsverzeichnis
Ziele, Definitionen und allgemeine Informationen
Berenice I. Ferrari Goelzer
Gefahren erkennen
Linnea Lillienberg
Bewertung der Arbeitsumgebung
Lori A. Todd
Arbeitshygiene: Expositionskontrolle durch Intervention
James Stewart
Die biologische Grundlage für die Expositionsbewertung
Dick Heederik
Arbeitsplatzgrenzwerte
Dennis J. Pausenbach
1. Gefahren durch Chemikalien; biologische und physikalische Wirkstoffe
2. Arbeitsplatzgrenzwerte (OELs) – verschiedene Länder
31. Persönlicher Schutz
Kapitel-Editor: Robert F. Herrick
Inhaltsverzeichnis
Überblick und Philosophie des Personenschutzes
Robert F. Herrick
Augen- und Gesichtsschutz
Kikuzi Kimura
Fuß- und Beinschutz
Toyohiko Miura
Kopfschutz
Isabelle Balty und Alain Mayer
Gehörschutz
John R. Franks und Elliott H. Berger
Schutzkleidung
S.Zack Mansdorf
Atemschutz
Thomas J. Nelson
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Transmissionsanforderungen (ISO 4850-1979)
2. Schutzmaßstäbe - Gasschweißen & Lötschweißen
3. Schutzwaage - Sauerstoffschneiden
4. Schutzmaßstäbe - Plasmalichtbogenschneiden
5. Schutzwaagen - Lichtbogenschweißen oder Fugenhobeln
6. Schutzmaßstäbe - Plasma-Lichtbogen-Direktschweißen
7. Schutzhelm: ISO-Norm 3873-1977
8. Geräuschreduzierungsbewertung eines Gehörschutzes
9. Berechnung der A-bewerteten Rauschunterdrückung
10 Beispiele für Hautgefahrenkategorien
11 Physikalische, chemische und biologische Leistungsanforderungen
12 Sachgefahren im Zusammenhang mit bestimmten Tätigkeiten
13 Zugewiesene Schutzfaktoren aus ANSI Z88 2 (1992)
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
32. Aufzeichnungssysteme und Überwachung
Kapitel-Editor: Steven D. Stellman
Inhaltsverzeichnis
Überwachungs- und Meldesysteme für Berufskrankheiten
Steven B. Markowitz
Überwachung von Arbeitsgefahren
David H. Wegman und Steven D. Stellman
Überwachung in Entwicklungsländern
David Koh und Kee-Seng Chia
Entwicklung und Anwendung eines Klassifizierungssystems für Arbeitsunfälle und Berufskrankheiten
Elyce Biddle
Risikoanalyse von nicht tödlichen Verletzungen und Krankheiten am Arbeitsplatz
John W. Ruser
Fallstudie: Arbeitnehmerschutz und Statistiken zu Unfällen und Berufskrankheiten - HVBG, Deutschland
Martin Butz und Burkhard Hoffmann
Fallstudie: Wismut – Eine Neuauflage der Uranexposition
Heinz Otten und Horst Schulz
Messstrategien und -techniken für die berufsbedingte Expositionsabschätzung in der Epidemiologie
Frank Bochmann und Helmut Blome
Fallstudie: Arbeitsmedizinische Erhebungen in China
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
1. Angiosarkom der Leber - Weltregister
2. Berufskrankheit, USA, 1986 versus 1992
3. US-Todesfälle durch Pneumokoniose und Pleuramesotheliom
4. Musterliste meldepflichtiger Berufskrankheiten
5. Codestruktur für die Meldung von Krankheiten und Verletzungen, USA
6. Nichttödliche Arbeitsunfälle und Berufskrankheiten, USA 1993
7. Risiko von Arbeitsunfällen und Berufskrankheiten
8. Relatives Risiko für sich wiederholende Bewegungszustände
9. Arbeitsunfälle, Deutschland, 1981-93
10 Schleifmaschinen bei Unfällen in der Metallverarbeitung, Deutschland, 1984-93
11 Berufskrankheit, Deutschland, 1980-93
12 Infektionskrankheiten, Deutschland, 1980-93
13 Strahlenbelastung in den Wismut-Bergwerken
14 Berufskrankheiten im Wismuter Uranbergwerk 1952-90
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
33. Toxikologie
Kapitelherausgeberin: Ellen K. Silbergeld
Einleitung
Ellen K. Silbergeld, Kapitelredakteurin
Definitionen und Konzepte
Bo Holmberg, Johan Hogberg und Gunnar Johanson
Toxikokinetik
Dušan Djuric
Zielorgan und kritische Wirkungen
Marek Jakubowski
Auswirkungen von Alter, Geschlecht und anderen Faktoren
Spomenka Telisman
Genetische Determinanten der toxischen Reaktion
Daniel W. Nebert und Ross A. McKinnon
Einführung und Konzepte
Philip G. Watanabe
Zellschädigung und Zelltod
Benjamin F. Trump und Irene K. Berezesky
Genetische Toxikologie
R. Rita Misra und Michael P. Waalkes
Immuntoxikologie
Joseph G. Vos und Henk van Loveren
Zielorgan-Toxikologie
Ellen K. Silbergeld
Biomarker
Philipp Grandjean
Bewertung der genetischen Toxizität
David M. DeMarini und James Huff
In-vitro-Toxizitätstest
Joanne Zürlo
Aktivitätsbeziehungen strukturieren
Ellen K. Silbergeld
Toxikologie in der Gesundheits- und Sicherheitsverordnung
Ellen K. Silbergeld
Prinzipien der Gefahrenidentifizierung - Der japanische Ansatz
Masayuki Ikeda
Der Ansatz der Vereinigten Staaten zur Risikobewertung von reproduktionstoxischen und neurotoxischen Wirkstoffen
Ellen K. Silbergeld
Ansätze zur Gefahrenidentifizierung - IARC
Harri Vainio und Julian Wilbourn
Anhang – Gesamtbewertungen der Karzinogenität beim Menschen: IARC-Monographien, Bände 1–69 (836)
Karzinogen-Risikobewertung: Andere Ansätze
Cees A. van der Heijden
Klicken Sie unten auf einen Link, um die Tabelle im Artikelkontext anzuzeigen.
Zeigen Sie auf eine Miniaturansicht, um die Bildunterschrift anzuzeigen, klicken Sie, um die Abbildung im Artikelkontext anzuzeigen.
Grundlegende Konzepte und Definitionen
Auf der Baustelle können industrielle Hygienemethoden nur Chemikalien in der Luft messen und kontrollieren, während andere Aspekte des Problems möglicher schädlicher Stoffe in der Umgebung von Arbeitern, wie Hautabsorption, Verschlucken und nicht arbeitsbedingte Exposition, unentdeckt bleiben und daher unkontrolliert. Biologisches Monitoring hilft, diese Lücke zu schließen.
Biologische Überwachung wurde 1980 in einem Seminar definiert, das gemeinsam von der Europäischen Wirtschaftsgemeinschaft (EWG), dem National Institute for Occupational Safety and Health (NIOSH) und der Occupational Safety and Health Association (OSHA) (Berlin, Yodaiken und Henman 1984) in Luxemburg als „the Messung und Bewertung von Wirkstoffen oder ihren Metaboliten entweder in Geweben, Sekreten, Exkrementen, Ausatemluft oder einer Kombination davon, um die Exposition und das Gesundheitsrisiko im Vergleich zu einer geeigneten Referenz zu bewerten“. Überwachung ist eine sich wiederholende, regelmäßige und präventive Aktivität, die dazu bestimmt ist, erforderlichenfalls zu Korrekturmaßnahmen zu führen; es sollte nicht mit diagnostischen Verfahren verwechselt werden.
Die biologische Überwachung ist eines der drei wichtigen Instrumente zur Verhütung von Krankheiten durch toxische Stoffe im allgemeinen oder beruflichen Umfeld, die anderen beiden sind die Umweltüberwachung und die Gesundheitsüberwachung.
Die Reihenfolge in der möglichen Entwicklung einer solchen Krankheit kann wie folgt schematisch dargestellt werden: Quelle-exponierter chemischer Wirkstoff – innere Dosis – biochemische oder zelluläre Wirkung (reversibel) – gesundheitliche Auswirkungen – Krankheit. Die Beziehungen zwischen Umwelt-, biologischer und Expositionsüberwachung sowie Gesundheitsüberwachung sind in Abbildung 1 dargestellt.
Abbildung 1. Die Beziehung zwischen Umwelt-, biologischer und Expositionsüberwachung und Gesundheitsüberwachung
Wenn eine giftige Substanz (z. B. eine Industriechemikalie) in der Umwelt vorhanden ist, kontaminiert sie Luft, Wasser, Lebensmittel oder Oberflächen, die mit der Haut in Kontakt kommen; die Menge an toxischem Agens in diesen Medien wird über bewertet Umweltüberwachung.
Durch Aufnahme, Verteilung, Stoffwechsel und Ausscheidung eine gewisse interne Dosis des toxischen Agens (die Nettomenge eines Schadstoffs, die in einem bestimmten Zeitintervall in den Organismus aufgenommen oder durch den Organismus geleitet wird) effektiv an den Körper abgegeben und in Körperflüssigkeiten nachweisbar wird. Als Ergebnis seiner Wechselwirkung mit einem Rezeptor in der kritisches Organ (das Organ, das unter bestimmten Expositionsbedingungen die erste oder wichtigste nachteilige Wirkung zeigt), treten biochemische und zelluläre Ereignisse auf. Sowohl die interne Dosis als auch die hervorgerufenen biochemischen und zellulären Wirkungen können durch biologisches Monitoring gemessen werden.
Gesundheitsüberwachung wurde auf dem oben erwähnten EEC/NIOSH/OSHA-Seminar von 1980 definiert als „die periodische medizinisch-physiologische Untersuchung exponierter Arbeiter mit dem Ziel, die Gesundheit zu schützen und Krankheiten vorzubeugen“.
Biologisches Monitoring und Gesundheitsüberwachung sind Teile eines Kontinuums, das von der Messung von Wirkstoffen oder ihren Metaboliten im Körper über die Bewertung biochemischer und zellulärer Wirkungen bis hin zur Erkennung von Anzeichen einer frühen reversiblen Beeinträchtigung des kritischen Organs reichen kann. Die Erkennung einer festgestellten Krankheit liegt außerhalb des Umfangs dieser Bewertungen.
Ziele des Biologischen Monitorings
Biologisches Monitoring kann unterteilt werden in (a) Expositionsmonitoring und (b) Wirkungsmonitoring, wofür Indikatoren der inneren Dosis bzw. der Wirkung verwendet werden.
Der Zweck der biologischen Expositionsüberwachung besteht darin, das Gesundheitsrisiko durch die Bewertung der internen Dosis abzuschätzen und eine Schätzung der biologisch aktiven Belastung des Körpers durch die betreffende Chemikalie zu erhalten. Sein Grundprinzip besteht darin, sicherzustellen, dass die Exposition der Arbeitnehmer keine Werte erreicht, die schädliche Wirkungen hervorrufen können. Als „advers“ wird eine Wirkung bezeichnet, wenn eine Beeinträchtigung der Funktionsfähigkeit, eine verminderte Fähigkeit zur Kompensation zusätzlicher Belastungen, eine verminderte Fähigkeit zur Aufrechterhaltung der Homöostase (stabiler Gleichgewichtszustand) oder eine erhöhte Anfälligkeit für andere Umwelteinflüsse vorliegt.
Abhängig von der Chemikalie und dem analysierten biologischen Parameter kann der Begriff interne Dosis unterschiedliche Bedeutungen haben (Bernard und Lauwerys 1987). Erstens kann es die Menge einer Chemikalie bedeuten, die kürzlich aufgenommen wurde, beispielsweise während einer einzigen Arbeitsschicht. Eine Bestimmung der Schadstoffkonzentration in der Alveolarluft oder im Blut kann während der Arbeitsschicht selbst oder erst am nächsten Tag erfolgen (Blut- oder Alveolarluftproben können bis zu 16 Stunden nach Ende der Expositionszeit entnommen werden) . Zweitens könnte in dem Fall, dass die Chemikalie eine lange biologische Halbwertszeit hat – beispielsweise Metalle im Blutkreislauf – die interne Dosis die über einen Zeitraum von einigen Monaten absorbierte Menge widerspiegeln.
Drittens kann der Begriff auch die Menge der gelagerten Chemikalie bedeuten. In diesem Fall stellt er einen Akkumulationsindikator dar, der eine Abschätzung der Konzentration der Chemikalie in Organen und/oder Geweben liefern kann, aus denen sie nach der Ablagerung nur langsam freigesetzt wird. Beispielsweise könnten Messungen von DDT oder PCB im Blut eine solche Schätzung liefern.
Schließlich kann ein interner Dosiswert die Menge der Chemikalie am Wirkungsort angeben und somit Aufschluss über die biologisch wirksame Dosis geben. Eine der vielversprechendsten und wichtigsten Anwendungen dieser Fähigkeit ist beispielsweise die Bestimmung von Addukten, die durch toxische Chemikalien mit Proteinen in Hämoglobin oder mit DNA gebildet werden.
Die biologische Wirkungsüberwachung zielt darauf ab, frühe und reversible Veränderungen zu erkennen, die sich im kritischen Organ entwickeln, und die gleichzeitig Personen mit Anzeichen von gesundheitlichen Beeinträchtigungen identifizieren können. In diesem Sinne stellt die biologische Wirkungsüberwachung das wichtigste Instrument für die Gesundheitsüberwachung von Arbeitnehmern dar.
Hauptüberwachungsmethoden
Die biologische Überwachung der Exposition basiert auf der Bestimmung von Indikatoren der inneren Dosis durch Messung von:
Faktoren, die die Konzentration der Chemikalie und ihrer Metaboliten im Blut oder Urin beeinflussen, werden unten diskutiert.
Für die Konzentration in der Alveolarluft sind neben der Höhe der Umweltexposition vor allem die Löslichkeit und der Metabolismus der eingeatmeten Substanz, die alveoläre Ventilation, das Herzzeitvolumen und die Expositionsdauer entscheidend (Brugnone et al. 1980).
Die Verwendung von DNA- und Hämoglobin-Addukten zur Überwachung der menschlichen Exposition gegenüber Stoffen mit karzinogenem Potenzial ist eine sehr vielversprechende Technik zur Messung geringer Expositionen. (Allerdings ist zu beachten, dass nicht alle Chemikalien, die im menschlichen Organismus an Makromoleküle binden, genotoxisch, dh potenziell krebserregend, sind.) Die Adduktbildung ist nur ein Schritt im komplexen Prozess der Krebsentstehung. Andere zelluläre Ereignisse wie die Förderung und das Fortschreiten der DNA-Reparatur verändern zweifellos das Risiko, an einer Krankheit wie Krebs zu erkranken. Daher ist die Messung von Addukten zum jetzigen Zeitpunkt nur als Überwachung der Chemikalienexposition zu sehen. Dies wird ausführlicher im Artikel „Genotoxische Chemikalien“ weiter unten in diesem Kapitel diskutiert.
Die biologische Überwachung der Wirkungen erfolgt durch die Bestimmung von Wirkungsindikatoren, d. h. von solchen, die frühe und reversible Veränderungen erkennen können. Dieser Ansatz kann eine indirekte Abschätzung der an den Wirkorten gebundenen Chemikalienmenge liefern und bietet die Möglichkeit, funktionelle Veränderungen im kritischen Organ in einer frühen Phase zu beurteilen.
Leider können wir nur einige Beispiele für die Anwendung dieses Ansatzes auflisten, nämlich (1) die Hemmung der Pseudocholinesterase durch Organophosphat-Insektizide, (2) die Hemmung der D-Aminolävulinsäure-Dehydratase (ALA-D) durch anorganisches Blei und (3) die erhöhte Ausscheidung über den Urin d-Glucarsäure und Porphyrine bei Personen, die Chemikalien ausgesetzt waren, die mikrosomale Enzyme induzieren, und/oder Porphyrogene (z. B. chlorierte Kohlenwasserstoffe).
Vorteile und Grenzen des biologischen Monitorings
Bei Stoffen, die ihre Toxizität erst nach dem Eintritt in den menschlichen Organismus entfalten, ermöglicht das biologische Monitoring eine fokussiertere und gezieltere Einschätzung des Gesundheitsrisikos als das Umweltmonitoring. Ein biologischer Parameter, der die interne Dosis widerspiegelt, bringt uns dem Verständnis systemischer Nebenwirkungen einen Schritt näher als jede Umweltmessung.
Das biologische Monitoring bietet gegenüber dem Umweltmonitoring zahlreiche Vorteile und ermöglicht insbesondere die Bewertung von:
Trotz dieser Vorteile leidet das biologische Monitoring auch heute noch unter erheblichen Einschränkungen, von denen die wichtigsten die folgenden sind:
Erforderliche Informationen für die Entwicklung von Methoden und Kriterien zur Auswahl biologischer Tests
Die Programmierung des biologischen Monitorings erfordert folgende Grundvoraussetzungen:
In diesem Zusammenhang ist die Validität eines Tests der Grad, in dem der betrachtete Parameter die Situation so vorhersagt, wie sie wirklich ist (dh wie genauere Messgeräte sie anzeigen würden). Die Gültigkeit wird durch die Kombination zweier Eigenschaften bestimmt: Sensitivität und Spezifität. Wenn ein Test eine hohe Sensitivität besitzt, bedeutet dies, dass er wenige falsch negative Ergebnisse liefert; wenn es eine hohe Spezifität besitzt, wird es wenige falsch positive Ergebnisse liefern (CEC 1985-1989).
Zusammenhang zwischen Exposition, innerer Dosis und Wirkungen
Die Untersuchung der Konzentration eines Stoffes in der Arbeitsumgebung und die gleichzeitige Bestimmung der Dosis- und Wirkungsindikatoren bei exponierten Personen ermöglicht Aussagen über den Zusammenhang zwischen beruflicher Exposition und der Konzentration des Stoffes in biologischen Proben sowie zwischen der Letzteres und die frühen Auswirkungen der Exposition.
Die Kenntnis der Zusammenhänge zwischen der Dosis eines Stoffes und seiner Wirkung ist eine wesentliche Voraussetzung für die Durchführung eines Programms zur biologischen Überwachung. Die Auswertung dazu Dosis-Wirkungs-Beziehung basiert auf der Analyse des Grades der zwischen dem Dosisindikator und dem Wirkungsindikator bestehenden Assoziation und auf der Untersuchung der quantitativen Variationen des Wirkungsindikators bei jeder Variation des Dosisindikators. (Siehe auch das Kapitel Toxikologie, für weitere Diskussionen über dosisabhängige Beziehungen).
Mit der Untersuchung der Dosis-Wirkungs-Beziehung ist es möglich, die Konzentration des toxischen Stoffes zu ermitteln, bei der der Wirkungsindikator die derzeit als unbedenklich geltenden Werte überschreitet. Darüber hinaus kann auf diese Weise möglicherweise auch untersucht werden, wie hoch die No-Effect-Ebene sein könnte.
Da nicht alle Individuen einer Gruppe gleich reagieren, ist es notwendig, dies zu untersuchen Dosis-Wirkungs-Beziehung, mit anderen Worten, um zu untersuchen, wie die Gruppe auf die Exposition reagiert, indem das Auftreten des Effekts im Vergleich zur internen Dosis bewertet wird. Der Begriff Antwort bezeichnet den Prozentsatz der Probanden in der Gruppe, die bei jeder Dosisstufe eine spezifische quantitative Variation eines Wirkungsindikators zeigen.
Praktische Anwendungen der biologischen Überwachung
Die praktische Anwendung eines biologischen Überwachungsprogramms erfordert Informationen über (1) das Verhalten der verwendeten Indikatoren in Bezug auf die Exposition, insbesondere über Grad, Kontinuität und Dauer der Exposition, (2) das Zeitintervall zwischen Expositionsende und Messung von die Indikatoren und (3) alle anderen physiologischen und pathologischen Faktoren außer der Exposition, die die Indikatorwerte verändern können.
In den folgenden Artikeln wird das Verhalten einiger biologischer Dosis- und Wirkungsindikatoren vorgestellt, die zur Überwachung der beruflichen Exposition gegenüber in der Industrie weit verbreiteten Stoffen verwendet werden. Der praktische Nutzen und die Grenzen werden für jeden Stoff bewertet, mit besonderem Augenmerk auf den Zeitpunkt der Probenahme und Störfaktoren. Solche Überlegungen sind hilfreich bei der Festlegung von Kriterien für die Auswahl eines biologischen Tests.
Zeitpunkt der Probenahme
Bei der Wahl des Probenahmezeitpunktes sind die unterschiedlichen kinetischen Aspekte der Chemikalie zu berücksichtigen; insbesondere ist es wichtig zu wissen, wie die Substanz über die Lunge, den Magen-Darm-Trakt und die Haut aufgenommen, anschließend auf die verschiedenen Körperkompartimente verteilt, biotransformiert und schließlich ausgeschieden wird. Es ist auch wichtig zu wissen, ob sich die Chemikalie im Körper anreichern kann.
Bei der Exposition gegenüber organischen Stoffen kommt dem Entnahmezeitpunkt biologischer Proben eine umso größere Bedeutung zu, als die Stoffwechselvorgänge unterschiedlich schnell ablaufen und die aufgenommene Dosis somit mehr oder weniger schnell ausgeschieden wird.
Störfaktoren
Die korrekte Verwendung biologischer Indikatoren erfordert eine gründliche Kenntnis jener Faktoren, die, obwohl unabhängig von der Exposition, dennoch die Konzentration biologischer Indikatoren beeinflussen können. Im Folgenden sind die wichtigsten Arten von Störfaktoren aufgeführt (Alessio, Berlin und Foà 1987).
Physiologische Faktoren wie beispielsweise Ernährung, Geschlecht und Alter können die Ergebnisse beeinflussen. Der Verzehr von Fisch und Krustentieren kann die Arsen- und Blutquecksilberwerte im Urin erhöhen. Bei weiblichen Probanden mit den gleichen Bleiblutwerten wie bei Männern sind die Erythrozyten-Protoporphyrin-Werte signifikant höher als bei männlichen Probanden. Die Konzentration von Cadmium im Urin steigt mit dem Alter an.
Unter den persönlichen Gewohnheiten, die die Indikatorwerte verfälschen können, sind Rauchen und Alkoholkonsum besonders wichtig. Rauchen kann eine direkte Absorption von Substanzen verursachen, die natürlicherweise in Tabakblättern vorhanden sind (z. B. Cadmium), oder von Schadstoffen, die in der Arbeitsumgebung vorhanden sind und sich auf den Zigaretten abgelagert haben (z. B. Blei), oder von Verbrennungsprodukten (z. B. Kohlenmonoxid).
Alkoholkonsum kann die Konzentration biologischer Indikatoren beeinflussen, da Substanzen wie Blei von Natur aus in alkoholischen Getränken enthalten sind. Starke Trinker beispielsweise weisen höhere Bleiwerte im Blut auf als Kontrollpersonen. Die Einnahme von Alkohol kann die Biotransformation und die Ausscheidung toxischer industrieller Verbindungen beeinträchtigen: Mit einer einzigen Dosis kann Alkohol den Metabolismus vieler Lösungsmittel hemmen, beispielsweise Trichlorethylen, Xylol, Styrol und Toluol, da sie mit Ethylalkohol um Enzyme konkurrieren, die sind für den Abbau von Ethanol und Lösungsmitteln unerlässlich. Die regelmäßige Einnahme von Alkohol kann auch den Metabolismus von Lösungsmitteln auf völlig andere Weise beeinflussen, indem sie den Lösungsmittelmetabolismus beschleunigt, vermutlich aufgrund der Induktion des Mikrosomen-Oxidationssystems. Da Ethanol die wichtigste stoffwechselstörende Substanz ist, empfiehlt es sich, Expositionsindikatoren für Lösungsmittel nur an alkoholfreien Tagen zu ermitteln.
Es liegen weniger Informationen über die möglichen Wirkungen von Arzneimitteln auf die Konzentration biologischer Indikatoren vor. Es wurde gezeigt, dass Aspirin die biologische Umwandlung von Xylol zu Methylhippursäure stören kann, und Phenylsalicylat, ein weithin als Analgetikum verwendetes Medikament, kann die Konzentration von Harnphenolen signifikant erhöhen. Die Einnahme von Antazida auf Aluminiumbasis kann zu erhöhten Aluminiumspiegeln in Plasma und Urin führen.
Bei verschiedenen ethnischen Gruppen wurden deutliche Unterschiede im Metabolismus weit verbreiteter Lösungsmittel wie Toluol, Xylol, Trichlorethylen, Tetrachlorethylen und Methylchloroform beobachtet.
Erworbene pathologische Zustände können die Werte biologischer Indikatoren beeinflussen. Das kritische Organ kann sich aufgrund der spezifischen Wirkung des toxischen Agens, aber auch aus anderen Gründen gegenüber biologischen Überwachungstests anormal verhalten. Ein Beispiel für Situationen der ersten Art ist das Verhalten der Cadmiumspiegel im Urin: Wenn eine tubuläre Erkrankung aufgrund von Cadmium einsetzt, steigt die Urinausscheidung deutlich an und die Testwerte spiegeln nicht mehr den Grad der Exposition wider. Ein Beispiel für den zweiten Situationstyp ist der Anstieg der Erythrozyten-Protoporphyrinspiegel, der bei Personen mit Eisenmangel beobachtet wird, die keine anormale Bleiabsorption zeigen.
Physiologische Veränderungen der biologischen Medien, beispielsweise Urin, die den Bestimmungen der biologischen Indikatoren zugrunde liegen, können die Testwerte beeinflussen. Aus praktischen Gründen können von Einzelpersonen während der Arbeit nur punktuelle Urinproben entnommen werden, und die unterschiedliche Dichte dieser Proben bedeutet, dass die Konzentrationen des Indikators im Laufe eines einzelnen Tages stark schwanken können.
Um diese Schwierigkeit zu überwinden, ist es ratsam, überverdünnte oder überkonzentrierte Proben gemäß ausgewählten spezifischen Gewichts- oder Kreatininwerten zu beseitigen. Insbesondere sollte Urin mit einem spezifischen Gewicht unter 1010 oder über 1030 oder mit einer Kreatininkonzentration unter 0.5 g/l oder über 3.0 g/l verworfen werden. Mehrere Autoren schlagen auch vor, die Werte der Indikatoren nach spezifischem Gewicht anzupassen oder die Werte nach dem Kreatiningehalt im Urin auszudrücken.
Auch pathologische Veränderungen der biologischen Medien können die Werte der biologischen Indikatoren erheblich beeinflussen. Beispielsweise können bei anämischen Personen, die Metallen (Quecksilber, Kadmium, Blei usw.) ausgesetzt sind, die Blutspiegel des Metalls niedriger sein, als aufgrund der Exposition zu erwarten wäre; dies liegt an der geringen Menge an roten Blutkörperchen, die das giftige Metall im Blutkreislauf transportieren.
Bei der Bestimmung von toxischen Substanzen oder an Erythrozyten gebundenen Metaboliten im Vollblut ist es daher immer ratsam, den Hämatokrit zu bestimmen, der ein Maß für den Anteil der Blutkörperchen im Vollblut ist.
Mehrfache Exposition gegenüber toxischen Stoffen, die am Arbeitsplatz vorhanden sind
Bei kombinierter Exposition gegenüber mehr als einem am Arbeitsplatz vorhandenen toxischen Stoff können Stoffwechselstörungen auftreten, die das Verhalten der biologischen Indikatoren verändern und damit ernsthafte Interpretationsprobleme bereiten können. In Humanstudien wurden Interferenzen beispielsweise bei kombinierter Exposition gegenüber Toluol und Xylol, Xylol und Ethylbenzol, Toluol und Benzol, Hexan und Methylethylketon, Tetrachlorethylen und Trichlorethylen nachgewiesen.
Insbesondere ist zu beachten, dass bei Hemmung der Biotransformation eines Lösungsmittels die Ausscheidung seines Metaboliten im Urin reduziert wird (mögliche Risikounterschätzung), während die Konzentrationen des Lösungsmittels im Blut und in der ausgeatmeten Luft ansteigen (mögliche Risikoüberschätzung).
In Situationen, in denen es möglich ist, die Substanzen und ihre Metaboliten gleichzeitig zu messen, um den Grad der inhibitorischen Interferenz zu interpretieren, wäre es daher sinnvoll zu prüfen, ob die Konzentrationen der Metaboliten im Urin niedriger als erwartet sind und gleichzeitig, ob die Konzentration der Lösungsmittel im Blut und/oder der ausgeatmeten Luft ist höher.
Stoffwechselstörungen wurden für Expositionen beschrieben, bei denen die einzelnen Substanzen in Konzentrationen nahe und manchmal unter den derzeit akzeptierten Grenzwerten vorhanden sind. Interferenzen treten jedoch normalerweise nicht auf, wenn die Exposition gegenüber allen am Arbeitsplatz vorhandenen Stoffen gering ist.
Praktische Anwendung biologischer Indikatoren
Biologische Indikatoren können für verschiedene Zwecke in der arbeitsmedizinischen Praxis verwendet werden, insbesondere für (1) regelmäßige Kontrollen einzelner Arbeitnehmer, (2) Analysen der Exposition einer Gruppe von Arbeitnehmern und (3) epidemiologische Bewertungen. Die verwendeten Tests sollten die Merkmale Präzision, Genauigkeit, gute Sensitivität und Spezifität besitzen, um die mögliche Anzahl falscher Einstufungen zu minimieren.
Referenzwerte und Referenzgruppen
Ein Referenzwert ist die Konzentration eines biologischen Indikators in der Allgemeinbevölkerung, die beruflich nicht der untersuchten toxischen Substanz ausgesetzt ist. Es ist notwendig, auf diese Werte Bezug zu nehmen, um die Daten zu vergleichen, die durch biologische Überwachungsprogramme in einer mutmaßlich exponierten Bevölkerung gewonnen wurden. Referenzwerte sollten nicht mit Grenzwerten verwechselt werden, die im Allgemeinen die gesetzlichen Grenzwerte oder Richtlinien für die Exposition am Arbeitsplatz und in der Umwelt sind (Alessio et al. 1992).
Wenn Ergebnisse von Gruppenanalysen verglichen werden müssen, muss die Verteilung der Werte in der Referenzgruppe und in der untersuchten Gruppe bekannt sein, da nur dann ein statistischer Vergleich möglich ist. In diesen Fällen ist es wichtig zu versuchen, die allgemeine Bevölkerung (Referenzgruppe) mit der exponierten Gruppe für ähnliche Merkmale wie Geschlecht, Alter, Lebensstil und Essgewohnheiten abzugleichen.
Um verlässliche Referenzwerte zu erhalten, muss sichergestellt werden, dass die Probanden der Referenzgruppe weder beruflich noch durch besondere Umweltbelastungen den toxischen Stoffen ausgesetzt waren.
Bei der Bewertung der Exposition gegenüber toxischen Stoffen muss darauf geachtet werden, keine Personen einzubeziehen, die, obwohl sie der betreffenden toxischen Substanz nicht direkt ausgesetzt sind, am selben Arbeitsplatz arbeiten, denn wenn diese Personen tatsächlich indirekt exponiert sind, handelt es sich um die Exposition der Gruppe kann folglich unterschätzt werden.
Eine weitere zu vermeidende Praxis, obwohl sie immer noch weit verbreitet ist, ist die Verwendung von in der Literatur angegebenen Werten zu Referenzzwecken, die aus Falllisten aus anderen Ländern stammen und möglicherweise häufig in Regionen mit unterschiedlichen Umweltverschmutzungssituationen gesammelt wurden.
Regelmäßige Überwachung einzelner Arbeitnehmer
Die regelmäßige Überwachung einzelner Arbeitnehmer ist obligatorisch, wenn sich die Schadstoffkonzentrationen in der Atmosphäre der Arbeitsumgebung dem Grenzwert nähern. Wenn möglich, ist es ratsam, gleichzeitig einen Expositionsindikator und einen Wirkungsindikator zu überprüfen. Die so gewonnenen Daten sollten mit den Referenzwerten und den für den untersuchten Stoff vorgeschlagenen Grenzwerten verglichen werden (ACGIH 1993).
Analyse einer Gruppe von Arbeitern
Die Analyse einer Gruppe wird obligatorisch, wenn die Ergebnisse der verwendeten biologischen Indikatoren durch expositionsunabhängige Faktoren (Ernährung, Konzentration oder Verdünnung des Urins usw.) deutlich beeinflusst werden können und für die eine große Bandbreite von „normalen“ Werten existiert.
Um sicherzustellen, dass die Gruppenstudie nützliche Ergebnisse liefert, muss die Gruppe ausreichend zahlreich und homogen in Bezug auf Exposition, Geschlecht und, im Fall einiger toxischer Arbeitsstoffe, Dienstalter sein. Je konstanter die Expositionsniveaus über die Zeit sind, desto zuverlässiger sind die Daten. Eine Untersuchung, die an einem Arbeitsplatz durchgeführt wird, an dem die Arbeitnehmer häufig die Abteilung oder den Arbeitsplatz wechseln, hat wenig Wert. Für eine korrekte Bewertung einer Gruppenstudie reicht es nicht aus, die Daten nur als Mittelwerte und Spannweite auszudrücken. Auch die Häufigkeitsverteilung der Werte des jeweiligen biologischen Indikators muss berücksichtigt werden.
Epidemiologische Bewertungen
Daten aus der biologischen Überwachung von Arbeitnehmergruppen können auch in Querschnitts- oder prospektiven epidemiologischen Studien verwendet werden.
Querschnittsstudien können verwendet werden, um die Situationen in verschiedenen Abteilungen der Fabrik oder in verschiedenen Branchen zu vergleichen, um Risikokarten für Herstellungsprozesse zu erstellen. Eine Schwierigkeit, die bei dieser Art von Anwendung auftreten kann, hängt damit zusammen, dass laborübergreifende Qualitätskontrollen noch nicht weit genug verbreitet sind; daher kann nicht garantiert werden, dass verschiedene Labors vergleichbare Ergebnisse liefern.
Prospektive Studien dienen der Beurteilung des zeitlichen Verhaltens der Expositionswerte, um beispielsweise die Wirksamkeit von Umweltverbesserungen zu überprüfen oder das Verhalten biologischer Indikatoren über die Jahre mit dem Gesundheitszustand der überwachten Personen zu korrelieren. Die Ergebnisse solcher Langzeitstudien sind sehr nützlich, um Probleme zu lösen, die sich im Laufe der Zeit ändern. Als geeignetes Verfahren zur Beurteilung, ob eine aktuelle Exposition als „sicher“ einzuschätzen ist, wird derzeit vor allem Biologisches Monitoring eingesetzt, für die Beurteilung von Situationen im Zeitverlauf ist es jedoch noch nicht gültig. Ein bestimmtes Expositionsniveau, das heute als sicher gilt, kann irgendwann in der Zukunft nicht mehr als solches angesehen werden.
Ethische Aspekte
Im Zusammenhang mit der Verwendung biologischer Überwachung als Instrument zur Bewertung potenzieller Toxizität ergeben sich einige ethische Erwägungen. Ein Ziel einer solchen Überwachung besteht darin, genügend Informationen zu sammeln, um zu entscheiden, welcher Grad einer bestimmten Wirkung eine unerwünschte Wirkung darstellt; in Ermangelung ausreichender Daten wird jede Störung als unerwünscht angesehen. Die regulatorischen und rechtlichen Implikationen dieser Art von Informationen müssen bewertet werden. Daher sollten wir eine gesellschaftliche Diskussion und einen Konsens darüber anstreben, wie biologische Indikatoren am besten verwendet werden sollten. Mit anderen Worten, Arbeitnehmer, Arbeitgeber, Kommunen und Aufsichtsbehörden müssen über die Bedeutung der Ergebnisse der biologischen Überwachung aufgeklärt werden, damit niemand übermäßig beunruhigt oder selbstzufrieden ist.
Es muss eine angemessene Kommunikation mit der Person, an der der Test durchgeführt wurde, über die Ergebnisse und deren Interpretation stattfinden. Darüber hinaus sollte allen Teilnehmern klar vermittelt werden, ob die Verwendung einiger Indikatoren experimentell ist oder nicht.
Der International Code of Ethics for Occupational Health Professionals, herausgegeben von der International Commission on Occupational Health im Jahr 1992, besagt, dass „biologische Tests und andere Untersuchungen unter dem Gesichtspunkt ihrer Aussagekraft zum Schutz der Gesundheit des betreffenden Arbeitnehmers ausgewählt werden müssen, unter gebührender Berücksichtigung ihrer Sensitivität, ihrer Spezifität und ihres Vorhersagewerts“. Es dürfen keine Tests verwendet werden, „die nicht zuverlässig sind oder keinen ausreichenden Vorhersagewert in Bezug auf die Anforderungen des Arbeitsauftrags haben“. (Siehe Kapitel Ethische Fragen für weitere Diskussionen und den Text des Kodex.)
Trends in Regulierung und Anwendung
Aufgrund der begrenzten Verfügbarkeit geeigneter Referenzdaten kann ein biologisches Monitoring nur für eine begrenzte Anzahl von Umweltschadstoffen durchgeführt werden. Dies erlegt dem Einsatz des biologischen Monitorings bei der Bewertung der Exposition erhebliche Einschränkungen auf.
Die Weltgesundheitsorganisation (WHO) beispielsweise hat gesundheitsbasierte Referenzwerte nur für Blei, Quecksilber und Cadmium vorgeschlagen. Diese Werte sind definiert als Werte in Blut und Urin, die nicht mit nachweisbaren Nebenwirkungen verbunden sind. Die American Conference of Governmental Industrial Hygienists (ACGIH) hat biologische Expositionsindizes (BEIs) für etwa 26 Verbindungen festgelegt; BEIs sind definiert als „Werte für Determinanten, die Indikatoren für den Grad der integrierten Exposition gegenüber Industriechemikalien sind“ (ACGIH 1995).
Definition und Geltungsbereich
Ergonomie bedeutet wörtlich das Studium oder die Messung der Arbeit. In diesem Zusammenhang bedeutet der Begriff Arbeit eine zweckmäßige menschliche Funktion; es erstreckt sich über das engere Konzept der Arbeit als Arbeit für Geldgewinn hinaus und umfasst alle Aktivitäten, mit denen ein rationaler menschlicher Bediener systematisch ein Ziel verfolgt. So umfasst es Sport- und andere Freizeitaktivitäten, Hausarbeit wie Kinderbetreuung und Haushaltsführung, Aus- und Weiterbildung, Gesundheits- und Sozialdienste und entweder die Steuerung technischer Systeme oder die Anpassung an sie, beispielsweise als Beifahrer in einem Fahrzeug.
Der menschliche Bediener, der Schwerpunkt der Studie, kann ein qualifizierter Fachmann sein, der eine komplexe Maschine in einer künstlichen Umgebung bedient, ein Kunde, der zufällig ein neues Gerät für den persönlichen Gebrauch gekauft hat, ein Kind, das in einem Klassenzimmer sitzt, oder eine behinderte Person in einem Rollstuhl. Der Mensch ist sehr anpassungsfähig, aber nicht unendlich. Es gibt Bereiche optimaler Bedingungen für jede Aktivität. Eine der Aufgaben der Ergonomie ist es, diese Bereiche zu definieren und die unerwünschten Wirkungen zu untersuchen, die auftreten, wenn die Grenzen überschritten werden – zum Beispiel, wenn eine Person unter Bedingungen übermäßiger Hitze, Lärm oder Vibrationen arbeiten muss, oder wenn die körperliche oder die geistige Belastung ist zu hoch oder zu niedrig.
Die Ergonomie untersucht nicht nur die passive Umgebungssituation, sondern auch die einzigartigen Vorteile des Menschen und die Beiträge, die geleistet werden können, wenn eine Arbeitssituation so gestaltet ist, dass der Mensch seine Fähigkeiten optimal einsetzen und fördern kann. Menschliche Fähigkeiten können nicht nur in Bezug auf den allgemeinen menschlichen Operator charakterisiert werden, sondern auch in Bezug auf jene spezielleren Fähigkeiten, die in spezifischen Situationen gefordert werden, in denen eine hohe Leistung wesentlich ist. Zum Beispiel wird ein Automobilhersteller den Bereich der körperlichen Größe und Stärke der Bevölkerung von Fahrern berücksichtigen, von denen erwartet wird, dass sie ein bestimmtes Modell verwenden, um sicherzustellen, dass die Sitze bequem sind, dass die Bedienelemente leicht erkennbar und in Reichweite sind, dass es klar ist Sicht nach vorne und hinten und dass die Inneninstrumente gut ablesbar sind. Auch der einfache Ein- und Ausstieg wird berücksichtigt. Der Konstrukteur eines Rennwagens hingegen geht davon aus, dass der Fahrer sportlich ist, so dass es beispielsweise nicht auf den bequemen Ein- und Ausstieg ankommt, sondern auf Designmerkmale insgesamt in Bezug auf den Fahrer zugeschnitten auf die Maße und Vorlieben eines bestimmten Fahrers, um sicherzustellen, dass er oder sie sein oder ihr volles Potenzial und Können als Fahrer entfalten kann.
Bei allen Situationen, Tätigkeiten und Aufgaben steht der oder die beteiligten Personen im Mittelpunkt. Es wird davon ausgegangen, dass die Struktur, die Technik und alle anderen Technologien dem Betreiber dienen und nicht umgekehrt.
Geschichte und Status
Vor etwa einem Jahrhundert wurde erkannt, dass die Arbeitszeiten und -bedingungen in einigen Bergwerken und Fabriken in Bezug auf Sicherheit und Gesundheit nicht tolerierbar waren, und es war offensichtlich, dass Gesetze erlassen werden mussten, um diesbezüglich zulässige Grenzwerte festzulegen. Die Bestimmung und Festlegung dieser Grenzen kann als Beginn der Ergonomie angesehen werden. Sie waren übrigens der Beginn aller Aktivitäten, die heute ihren Ausdruck in der Arbeit der Internationalen Arbeitsorganisation (ILO) finden.
Forschung, Entwicklung und Anwendung gingen bis zum Zweiten Weltkrieg langsam voran. Dies löste eine stark beschleunigte Entwicklung von Maschinen und Instrumenten wie Fahrzeugen, Flugzeugen, Panzern, Kanonen und stark verbesserten Sensor- und Navigationsgeräten aus. Mit fortschreitender Technologie stand eine größere Flexibilität zur Verfügung, um eine Anpassung an den Bediener zu ermöglichen, eine Anpassung, die umso notwendiger wurde, als die menschliche Leistung die Leistung des Systems begrenzte. Wenn ein angetriebenes Fahrzeug mit einer Geschwindigkeit von nur wenigen Kilometern pro Stunde fahren kann, muss man sich um die Leistung des Fahrers keine Sorgen machen, aber wenn die Höchstgeschwindigkeit des Fahrzeugs um den Faktor zehn oder hundert erhöht wird, dann hat der Fahrer es getan schneller reagieren und es bleibt keine Zeit, Fehler zu korrigieren, um eine Katastrophe abzuwenden. In ähnlicher Weise müssen Sie sich mit verbesserter Technologie weniger Gedanken über mechanische oder elektrische Fehler (z. B.) machen und die Aufmerksamkeit wird frei, um über die Bedürfnisse des Fahrers nachzudenken.
So wird Ergonomie im Sinne der Anpassung der Technik an die Bedürfnisse des Bedieners mit fortschreitender Technik gleichzeitig notwendiger und machbarer.
Der Begriff Ergonomie wurde um 1950 verwendet, als die Prioritäten der sich entwickelnden Industrie die Prioritäten des Militärs verdrängten. Die Entwicklung von Forschung und Anwendung für die folgenden dreißig Jahre ist ausführlich in Singleton (1982) beschrieben. Die Organisationen der Vereinten Nationen, insbesondere die ILO und die Weltgesundheitsorganisation (WHO), wurden in den 1960er Jahren auf diesem Gebiet aktiv.
In der unmittelbaren Nachkriegsindustrie war das übergeordnete Ziel, das von der Ergonomie geteilt wurde, eine höhere Produktivität. Dies war ein erreichbares Ziel für die Ergonomie, weil so viel industrielle Produktivität direkt von der körperlichen Anstrengung der beteiligten Arbeiter bestimmt wurde – die Montagegeschwindigkeit und die Hub- und Bewegungsgeschwindigkeit bestimmten das Ausmaß der Leistung. Allmählich ersetzte die mechanische Kraft die menschliche Muskelkraft. Mehr Leistung führt jedoch zu mehr Unfällen nach dem einfachen Prinzip, dass ein Unfall die Folge von Leistung am falschen Ort zur falschen Zeit ist. Wenn es schneller geht, erhöht sich das Unfallpotenzial weiter. So verlagerten sich die Sorge der Industrie und das Ziel der Ergonomie allmählich von der Produktivität zur Sicherheit. Dies geschah in den 1960er und frühen 1970er Jahren. Ungefähr und nach dieser Zeit verlagerte sich ein Großteil der Fertigungsindustrie von der Chargenproduktion auf die Fließ- und Prozessproduktion. Die Rolle des Betreibers verschob sich entsprechend von der direkten Beteiligung hin zur Überwachung und Kontrolle. Dies führte zu einer geringeren Unfallhäufigkeit, da der Bediener weiter vom Einsatzort entfernt war, aber manchmal zu einer größeren Unfallschwere aufgrund der Geschwindigkeit und Kraft, die dem Prozess innewohnen.
Wenn die Leistung von der Geschwindigkeit bestimmt wird, mit der Maschinen arbeiten, dann wird die Produktivität zu einer Frage der Aufrechterhaltung des Systems: Mit anderen Worten, Zuverlässigkeit ist das Ziel. Somit wird der Bediener eher zu einem Überwacher, einem Problemlöser und einem Instandhalter als zu einem direkten Manipulator.
Diese historische Skizze der Veränderungen in der Fertigungsindustrie der Nachkriegszeit könnte darauf hindeuten, dass der Ergonom regelmäßig eine Reihe von Problemen fallen gelassen und eine andere aufgegriffen hat, aber das ist aus mehreren Gründen nicht der Fall. Wie bereits erläutert, sind die Anliegen der Ergonomie viel umfassender als die der Fertigungsindustrie. Neben der Produktionsergonomie gibt es die Produkt- oder Designergonomie, also die Anpassung der Maschine oder des Produkts an den Benutzer. In der Automobilindustrie beispielsweise ist Ergonomie nicht nur für die Komponentenfertigung und die Produktionslinien wichtig, sondern auch für den späteren Fahrer, Beifahrer und Wartungspersonal. Bei der Vermarktung von Autos und bei deren kritischer Bewertung durch andere ist es heute Routine, die Qualität der Ergonomie zu überprüfen, unter Berücksichtigung von Fahrverhalten, Sitzkomfort, Handling, Geräusch- und Vibrationspegel, Benutzerfreundlichkeit der Bedienelemente, Sicht nach innen und außen und so weiter an.
Es wurde oben angedeutet, dass die menschliche Leistung normalerweise innerhalb eines Toleranzbereichs einer relevanten Variablen optimiert wird. Ein Großteil der frühen Ergonomie versuchte, sowohl die Muskelleistung als auch das Ausmaß und die Vielfalt der Bewegung zu reduzieren, indem sichergestellt wurde, dass solche Toleranzen nicht überschritten wurden. Die größte Veränderung in der Arbeitssituation, das Aufkommen von Computern, hat das gegenteilige Problem geschaffen. Ein Computerarbeitsplatz kann, wenn er nicht ergonomisch gut gestaltet ist, zu einer zu starren Körperhaltung, zu wenig Körperbewegung und zu vielen Wiederholungen bestimmter Kombinationen von Gelenkbewegungen führen.
Dieser kurze historische Rückblick soll darauf hinweisen, dass die Ergonomie zwar kontinuierlich weiterentwickelt wurde, jedoch eher die Form des Hinzufügens von immer mehr Problemen als der Änderung der Probleme angenommen hat. Der Wissensschatz wächst jedoch und wird zuverlässiger und gültiger, Energieverbrauchsnormen hängen nicht davon ab, wie oder warum die Energie verbraucht wird, Haltungsprobleme sind in Flugzeugsitzen und vor Computerbildschirmen gleich, viele menschliche Aktivitäten beinhalten jetzt den Konsum Videobildschirme und es gibt etablierte Prinzipien, die auf einer Mischung aus Laborbefunden und Feldstudien basieren.
Ergonomie und verwandte Disziplinen
Die Entwicklung einer wissenschaftsbasierten Anwendung, die zwischen den etablierten Technologien der Ingenieurwissenschaften und der Medizin angesiedelt ist, überschneidet sich zwangsläufig mit vielen verwandten Disziplinen. Was die wissenschaftliche Grundlage anbelangt, stammt ein Großteil des ergonomischen Wissens aus den Geisteswissenschaften: Anatomie, Physiologie und Psychologie. Die Naturwissenschaften leisten beispielsweise auch einen Beitrag zur Lösung von Beleuchtungs-, Heizungs-, Lärm- und Vibrationsproblemen.
Die meisten europäischen Pioniere der Ergonomie waren Mitarbeiter der Humanwissenschaften, und aus diesem Grund ist die Ergonomie gut ausbalanciert zwischen Physiologie und Psychologie. Als Hintergrund zu Problemen wie Energieverbrauch, Körperhaltung und Kraftaufbringung einschließlich Heben ist eine physiologische Orientierung erforderlich. Eine psychologische Orientierung ist erforderlich, um Probleme wie Informationspräsentation und Arbeitszufriedenheit zu untersuchen. Natürlich gibt es viele Probleme, die einen gemischten humanwissenschaftlichen Ansatz erfordern, wie Stress, Müdigkeit und Schichtarbeit.
Die meisten amerikanischen Pioniere auf diesem Gebiet waren entweder in der experimentellen Psychologie oder im Ingenieurwesen tätig, und aus diesem Grund sind ihre typischen Berufsbezeichnungen –Human Engineering und menschliche Faktoren— einen Unterschied in der Betonung (aber nicht in den Kerninteressen) von der europäischen Ergonomie widerspiegeln. Dies erklärt auch, warum die Arbeitshygiene aufgrund ihrer engen Verwandtschaft mit der Medizin, insbesondere der Arbeitsmedizin, in den Vereinigten Staaten als ganz anders angesehen wird als Human Factors oder Ergonomie. Der Unterschied in anderen Teilen der Welt ist weniger ausgeprägt. Die Ergonomie konzentriert sich auf den menschlichen Bediener in Aktion, die Arbeitshygiene konzentriert sich auf die Gefahren für den menschlichen Bediener in der Umgebung. Daher gilt das zentrale Interesse des Arbeitshygienikers toxischen Gefahren, die außerhalb des Aufgabenbereichs des Ergonomen liegen. Der Arbeitshygieniker ist besorgt über die Auswirkungen auf die Gesundheit, entweder lang- oder kurzfristig; Der Ergonom macht sich natürlich Sorgen um die Gesundheit, aber er oder sie macht sich auch Sorgen um andere Folgen wie Produktivität, Arbeitsgestaltung und Arbeitsplatzgestaltung. Sicherheit und Gesundheit sind die übergreifenden Themen, die sich durch Ergonomie, Arbeitshygiene, Arbeitsmedizin und Arbeitsmedizin ziehen. Es ist daher nicht verwunderlich, dass diese Themen in einer großen Forschungs-, Design- oder Produktionsinstitution oft zusammen gruppiert werden. Dies ermöglicht einen Ansatz, der auf einem Team von Experten in diesen getrennten Themen basiert, von denen jedes einen fachlichen Beitrag zum allgemeinen Gesundheitsproblem nicht nur der Beschäftigten in der Einrichtung, sondern auch derjenigen leistet, die von ihren Aktivitäten und Produkten betroffen sind. Im Gegensatz dazu steht der Ergonom in Institutionen, die sich mit Design oder der Erbringung von Dienstleistungen befassen, möglicherweise näher an den Ingenieuren und anderen Technologen.
Aus dieser Diskussion wird deutlich, dass, da die Ergonomie interdisziplinär und noch ziemlich neu ist, ein wichtiges Problem besteht, wie sie am besten in eine bestehende Organisation integriert werden sollte. Es überschneidet sich mit so vielen anderen Bereichen, weil es um Menschen geht und Menschen die grundlegende und alles durchdringende Ressource jeder Organisation sind. Es gibt viele Möglichkeiten, wie es eingefügt werden kann, abhängig von der Geschichte und den Zielen der jeweiligen Organisation. Die Hauptkriterien sind, dass ergonomische Ziele verstanden und geschätzt werden und dass Mechanismen zur Umsetzung von Empfehlungen in die Organisation eingebaut sind.
Ziele der Ergonomie
Es wird bereits klar sein, dass die Vorteile der Ergonomie in vielen verschiedenen Formen auftreten können, in Produktivität und Qualität, in Sicherheit und Gesundheit, in Zuverlässigkeit, in Arbeitszufriedenheit und in der persönlichen Entwicklung.
Der Grund für diese Weite liegt darin, dass ihr grundlegendes Ziel Effizienz in zielgerichtetem Handeln ist – Effizienz im weitesten Sinne, das gewünschte Ergebnis ohne verschwenderischen Aufwand, ohne Fehler und ohne Schaden für die beteiligte Person oder andere zu erreichen. Es ist nicht effizient, unnötig Energie oder Zeit aufzuwenden, weil die Gestaltung des Arbeitsplatzes, des Arbeitsplatzes, der Arbeitsumgebung und der Arbeitsbedingungen nicht ausreichend berücksichtigt wurden. Es ist nicht effizient, das gewünschte Ergebnis trotz des Situationsdesigns zu erreichen, anstatt durch dieses unterstützt zu werden.
Ziel der Ergonomie ist es, dafür zu sorgen, dass die Arbeitssituation im Einklang mit den Tätigkeiten des Arbeiters steht. Dieses Ziel ist selbstverständlich gültig, aber es zu erreichen ist aus verschiedenen Gründen alles andere als einfach. Der menschliche Bediener ist flexibel und anpassungsfähig und es gibt kontinuierliches Lernen, aber es gibt ziemlich große individuelle Unterschiede. Einige Unterschiede, wie körperliche Größe und Kraft, sind offensichtlich, aber andere, wie kulturelle Unterschiede und Unterschiede im Stil und im Niveau der Fähigkeiten, sind weniger leicht zu erkennen.
Angesichts dieser Komplexität scheint die Lösung darin zu bestehen, eine flexible Situation bereitzustellen, in der der menschliche Bediener eine spezifisch geeignete Vorgehensweise optimieren kann. Leider ist ein solcher Ansatz manchmal nicht praktikabel, da der effizientere Weg oft nicht offensichtlich ist, mit dem Ergebnis, dass ein Arbeiter jahrelang etwas falsch oder unter den falschen Bedingungen tun kann.
Daher ist es notwendig, systematisch vorzugehen: von einer fundierten Theorie auszugehen, messbare Ziele zu setzen und den Erfolg an diesen Zielen zu überprüfen. Im Folgenden werden die verschiedenen möglichen Ziele betrachtet.
Sicherheit und Gesundheit
Über die Wünschbarkeit von Sicherheits- und Gesundheitsschutzzielen besteht kein Zweifel. Die Schwierigkeit ergibt sich aus der Tatsache, dass beide nicht direkt messbar sind: Ihre Leistung wird eher an ihrer Abwesenheit als an ihrer Anwesenheit gemessen. Die betreffenden Daten beziehen sich immer auf Abweichungen von Sicherheit und Gesundheitsschutz.
Im Gesundheitsbereich sind viele Beweise langfristig, da sie eher auf Populationen als auf Einzelpersonen beruhen. Es ist daher notwendig, sorgfältige Aufzeichnungen über lange Zeiträume zu führen und einen epidemiologischen Ansatz zu verfolgen, durch den Risikofaktoren identifiziert und gemessen werden können. Wie viele Stunden pro Tag oder Jahr sollten beispielsweise maximal für einen Arbeitnehmer an einem Computerarbeitsplatz erforderlich sein? Sie hängt von der Gestaltung des Arbeitsplatzes, der Art der Arbeit und der Person (Alter, Sehvermögen, Fähigkeiten usw.) ab. Die Auswirkungen auf die Gesundheit können vielfältig sein, von Handgelenksproblemen bis hin zu geistiger Apathie, daher ist es notwendig, umfassende Studien durchzuführen, die ziemlich große Populationen abdecken und gleichzeitig die Unterschiede innerhalb der Populationen im Auge behalten.
Direkter messbar ist Sicherheit im negativen Sinne in Art und Häufigkeit von Unfällen und Schäden. Es gibt Probleme, verschiedene Arten von Unfällen zu definieren und die oft multiplen kausalen Faktoren zu identifizieren, und es besteht oft ein weit entfernter Zusammenhang zwischen der Art des Unfalls und dem Ausmaß des Schadens, von keinem bis zu einem Todesfall.
Nichtsdestotrotz wurde in den letzten fünfzig Jahren eine enorme Menge an Beweisen für Sicherheit und Gesundheitsschutz angesammelt und Übereinstimmungen entdeckt, die auf Theorie, Gesetze und Normen und Prinzipien zurückgeführt werden können, die in bestimmten Situationen wirksam sind.
Produktivität und Effizienz
Produktivität wird normalerweise als Output pro Zeiteinheit definiert, während Effizienz andere Variablen umfasst, insbesondere das Verhältnis von Output zu Input. Effizienz umfasst die Kosten dessen, was getan wird, im Verhältnis zur Leistung, und in menschlicher Hinsicht erfordert dies die Berücksichtigung der Strafen für den menschlichen Bediener.
In industriellen Situationen ist die Produktivität relativ einfach zu messen: Die produzierte Menge kann gezählt und die Produktionszeit einfach erfasst werden. Produktivitätsdaten werden häufig in Vorher/Nachher-Vergleichen von Arbeitsmethoden, Situationen oder Bedingungen verwendet. Es beinhaltet Annahmen über die Äquivalenz von Aufwand und anderen Kosten, da es auf dem Prinzip basiert, dass der menschliche Bediener so gut wie möglich unter den gegebenen Umständen arbeitet. Wenn die Produktivität höher ist, müssen die Umstände besser sein. Dieser einfache Ansatz ist sehr zu empfehlen, vorausgesetzt, er wird unter gebührender Berücksichtigung der vielen möglichen erschwerenden Faktoren verwendet, die verschleiern können, was wirklich passiert. Der beste Schutz besteht darin, sicherzustellen, dass sich zwischen der Vorher- und Nachher-Situation nichts geändert hat, außer den untersuchten Aspekten.
Effizienz ist eine umfassendere, aber immer schwierigere Messgröße. Sie muss in der Regel für eine bestimmte Situation spezifisch definiert werden, und bei der Bewertung der Ergebnisse von Studien sollte die Definition auf ihre Relevanz und Gültigkeit im Hinblick auf die gezogenen Schlussfolgerungen überprüft werden. Ist Radfahren beispielsweise effizienter als zu Fuß? Radfahren ist viel produktiver in Bezug auf die Entfernung, die auf einer Straße in einer bestimmten Zeit zurückgelegt werden kann, und es ist effizienter in Bezug auf den Energieverbrauch pro Entfernungseinheit oder für Indoor-Übungen, da die erforderlichen Geräte billiger und einfacher sind . Andererseits kann der Zweck der Übung der Energieverbrauch aus gesundheitlichen Gründen oder das Besteigen eines Berges in schwierigem Gelände sein; Unter diesen Umständen ist das Gehen effizienter. Somit hat ein Effizienzmaß nur in einem wohldefinierten Kontext Bedeutung.
Zuverlässigkeit und Qualität
Wie oben erläutert, wird bei Hochtechnologiesystemen (z. B. Transportflugzeuge, Ölraffination und Energieerzeugung) eher Zuverlässigkeit als Produktivität zum Schlüsselmaß. Die Steuerungen solcher Systeme überwachen die Leistung und leisten ihren Beitrag zur Produktivität und Sicherheit, indem sie Anpassungen vornehmen, um sicherzustellen, dass die automatischen Maschinen online bleiben und innerhalb der Grenzen funktionieren. Alle diese Systeme befinden sich in ihrem sichersten Zustand, entweder wenn sie sich im Ruhezustand befinden oder wenn sie stetig innerhalb des ausgelegten Leistungsbereichs arbeiten. Sie werden gefährlicher, wenn sie sich zwischen Gleichgewichtszuständen bewegen oder bewegt werden, beispielsweise wenn ein Flugzeug abhebt oder ein Prozesssystem heruntergefahren wird. Hohe Zuverlässigkeit ist nicht nur aus Sicherheitsgründen das entscheidende Merkmal, sondern auch, weil ungeplante Abschaltungen oder Stillstände extrem teuer sind. Die Zuverlässigkeit lässt sich einfach nach der Leistung messen, ist jedoch äußerst schwierig vorherzusagen, außer durch Bezugnahme auf die frühere Leistung ähnlicher Systeme. Wenn oder wenn etwas schief geht, trägt menschliches Versagen immer dazu bei, aber es ist nicht unbedingt ein Fehler des Controllers: Menschliches Versagen kann in der Entwurfsphase und während der Einrichtung und Wartung entstehen. Es ist heute anerkannt, dass solche komplexen High-Tech-Systeme einen beträchtlichen und kontinuierlichen ergonomischen Input vom Design bis zur Bewertung auftretender Fehler erfordern.
Qualität hängt mit Zuverlässigkeit zusammen, ist aber sehr schwierig, wenn nicht unmöglich, zu messen. Traditionell wurde in Chargen- und Fließproduktionssystemen die Qualität nach der Ausgabe durch Inspektion überprüft, aber das derzeit etablierte Prinzip besteht darin, Produktion und Qualitätssicherung zu kombinieren. Somit hat jeder Betreiber eine parallele Verantwortung als Inspektor. Dies erweist sich in der Regel als effektiver, kann aber bedeuten, Arbeitsanreize aufzugeben, die lediglich auf der Produktionsrate basieren. Aus ergonomischer Sicht ist es sinnvoll, den Bediener als verantwortliche Person zu behandeln und nicht als eine Art Roboter, der auf sich wiederholende Leistung programmiert ist.
Arbeitszufriedenheit und Persönlichkeitsentwicklung
Aus dem Grundsatz, dass der Arbeiter oder menschliche Bediener als Person und nicht als Roboter anerkannt werden sollte, folgt, dass Verantwortlichkeiten, Einstellungen, Überzeugungen und Werte berücksichtigt werden sollten. Dies ist nicht einfach, da es viele Variablen gibt, die meist nachweisbar, aber nicht quantifizierbar sind, und es große individuelle und kulturelle Unterschiede gibt. Nichtsdestotrotz wird jetzt viel Aufwand in die Gestaltung und Verwaltung der Arbeit gesteckt, um sicherzustellen, dass die Situation so zufriedenstellend ist, wie es aus Sicht des Bedieners vernünftigerweise praktikabel ist. Einige Messungen sind durch den Einsatz von Erhebungstechniken möglich, und einige Prinzipien sind auf der Grundlage von Arbeitsmerkmalen wie Autonomie und Ermächtigung verfügbar.
Selbst wenn man akzeptiert, dass diese Bemühungen Zeit und Geld kosten, kann es dennoch beträchtliche Vorteile bringen, wenn man sich die Vorschläge, Meinungen und Einstellungen der Menschen anhört, die die eigentliche Arbeit leisten. Ihr Ansatz ist möglicherweise nicht derselbe wie der des externen Arbeitsdesigners und nicht derselbe wie die Annahmen des Arbeitsdesigners oder Managers. Diese Meinungsverschiedenheiten sind wichtig und können bei allen Beteiligten für einen erfrischenden Strategiewechsel sorgen.
Es ist allgemein bekannt, dass der Mensch ein kontinuierlich Lernender ist oder sein kann, wenn die entsprechenden Bedingungen gegeben sind. Die wichtigste Bedingung ist die Bereitstellung von Feedback über vergangene und gegenwärtige Leistungen, die zur Verbesserung zukünftiger Leistungen verwendet werden können. Darüber hinaus wirkt ein solches Feedback selbst als Leistungsanreiz. So gewinnen alle, der Performer und die Verantwortlichen im weiteren Sinne für die Performance. Daraus folgt, dass aus der Leistungssteigerung, einschließlich der Selbstentwicklung, viel gewonnen werden kann. Das Prinzip, dass die persönliche Entwicklung ein Aspekt der Anwendung der Ergonomie sein sollte, erfordert größere Designer- und Managerfähigkeiten, kann aber, wenn es erfolgreich angewendet werden kann, alle oben diskutierten Aspekte der menschlichen Leistungsfähigkeit verbessern.
Eine erfolgreiche Anwendung der Ergonomie folgt oft aus der Entwicklung der entsprechenden Einstellung oder Sichtweise. Die beteiligten Menschen sind zwangsläufig der zentrale Faktor jeder menschlichen Anstrengung, und die systematische Berücksichtigung ihrer Vorteile, Einschränkungen, Bedürfnisse und Wünsche ist von Natur aus wichtig.
Fazit
Ergonomie ist die systematische Untersuchung des Menschen bei der Arbeit mit dem Ziel, die Arbeitssituation, die Arbeitsbedingungen und die ausgeführten Aufgaben zu verbessern. Der Schwerpunkt liegt auf dem Erwerb relevanter und zuverlässiger Beweise, auf denen Empfehlungen für Änderungen in spezifischen Situationen basieren können, und auf der Entwicklung allgemeinerer Theorien, Konzepte, Richtlinien und Verfahren, die zu dem sich ständig weiterentwickelnden Fachwissen aus der Ergonomie beitragen.
Exposition, Dosis und Reaktion
Toxizität ist die intrinsische Fähigkeit eines chemischen Agens, einen Organismus nachteilig zu beeinflussen.
Xenobiotika ist ein Begriff für „fremde Stoffe“, also dem Organismus fremd. Sein Gegenteil sind endogene Verbindungen. Xenobiotika umfassen Medikamente, Industriechemikalien, natürlich vorkommende Gifte und Umweltschadstoffe.
Gefahr ist das Potenzial für die Toxizität, die in einer bestimmten Umgebung oder Situation realisiert wird.
Risiko ist die Wahrscheinlichkeit, dass eine bestimmte nachteilige Wirkung auftritt. Sie wird oft als Prozentsatz der Fälle in einer bestimmten Population und während eines bestimmten Zeitraums ausgedrückt. Eine Risikoschätzung kann auf tatsächlichen Fällen oder einer Hochrechnung zukünftiger Fälle basieren.
Toxizitätsbewertung und Toxizitätsklassifizierung kann für regulatorische Zwecke verwendet werden. Die Toxizitätsbewertung ist eine willkürliche Einstufung von Dosen oder Expositionsniveaus, die toxische Wirkungen verursachen. Die Einstufung kann „supertoxisch“, „sehr giftig“, „mäßig giftig“ und so weiter sein. Die häufigsten Bewertungen betreffen die akute Toxizität. Die Toxizitätseinstufung betrifft die Gruppierung von Chemikalien in allgemeine Kategorien nach ihrer wichtigsten toxischen Wirkung. Solche Kategorien können allergene, neurotoxische, karzinogene und so weiter umfassen. Diese Einstufung kann als Warnung und als Information von administrativem Wert sein.
Das Dosis-Wirkungs-Beziehung ist das Verhältnis zwischen Dosis und Wirkung auf individueller Ebene. Eine Erhöhung der Dosis kann die Intensität einer Wirkung erhöhen oder eine stärkere Wirkung zur Folge haben. Eine Dosis-Wirkungs-Kurve kann auf der Ebene des gesamten Organismus, der Zelle oder des Zielmoleküls erhalten werden. Einige toxische Wirkungen, wie z. B. Tod oder Krebs, werden nicht abgestuft, sondern sind „Alles-oder-Nichts“-Wirkungen.
Das Dosis-Wirkungs-Beziehung ist die Beziehung zwischen der Dosis und dem Prozentsatz der Personen, die eine spezifische Wirkung zeigen. Mit zunehmender Dosis wird in der Regel eine größere Anzahl von Personen in der exponierten Population betroffen sein.
Für die Toxikologie ist es wesentlich, Dosis-Wirkungs- und Dosis-Wirkungs-Beziehungen herzustellen. In medizinischen (epidemiologischen) Studien wird häufig als Kriterium für die Annahme eines kausalen Zusammenhangs zwischen einem Wirkstoff und einer Krankheit verwendet, dass die Wirkung oder Reaktion proportional zur Dosis ist.
Für eine Chemikalie können mehrere Dosis-Wirkungs-Kurven gezeichnet werden – eine für jede Wirkungsart. Die Dosis-Wirkungs-Kurve für die meisten toxischen Wirkungen (bei Untersuchung in großen Populationen) hat eine sigmoide Form. Normalerweise gibt es einen Niedrigdosisbereich, in dem keine Reaktion festgestellt wird; Mit zunehmender Dosis folgt die Reaktion einer ansteigenden Kurve, die normalerweise bei einer 100%igen Reaktion ein Plateau erreicht. Die Dosis-Wirkungs-Kurve spiegelt die Variationen zwischen Individuen in einer Population wider. Die Steigung der Kurve variiert von Chemikalie zu Chemikalie und zwischen verschiedenen Arten von Effekten. Bei einigen Chemikalien mit spezifischen Wirkungen (Karzinogene, Initiatoren, Mutagene) kann die Dosis-Wirkungs-Kurve innerhalb eines bestimmten Dosisbereichs ab Dosis Null linear sein. Das bedeutet, dass es keinen Schwellenwert gibt und dass bereits kleine Dosen ein Risiko darstellen. Oberhalb dieses Dosisbereichs kann das Risiko stärker als linear ansteigen.
Schwankungen der Exposition während des Tages und der Gesamtdauer der Exposition während des Lebens können für das Ergebnis (Reaktion) ebenso wichtig sein wie die mittlere oder durchschnittliche oder sogar integrierte Dosis. Hohe Expositionsspitzen können schädlicher sein als ein gleichmäßigerer Expositionspegel. Dies ist bei einigen organischen Lösungsmitteln der Fall. Andererseits wurde für einige Karzinogene experimentell gezeigt, dass die Fraktionierung einer Einzeldosis in mehrere Expositionen mit derselben Gesamtdosis wirksamer bei der Entstehung von Tumoren sein kann.
A empfohlen wird oft als die Menge eines Xenobiotikums ausgedrückt, die in einen Organismus gelangt (in Einheiten wie mg/kg Körpergewicht). Die Dosis kann auf verschiedene (mehr oder weniger informative) Weise ausgedrückt werden: Belichtungsdosis, das ist die während eines bestimmten Zeitraums (in der Arbeitshygiene üblicherweise acht Stunden) eingeatmete Schadstoffkonzentration in der Luft, oder die behielt or absorbierte Dosis (in der Betriebshygiene auch als die Körperbelastung), also die Menge, die zu einem bestimmten Zeitpunkt während oder nach der Exposition im Körper vorhanden ist. Das Gewebedosis ist die Menge an Substanz in einem bestimmten Gewebe und die Zieldosis ist die Menge an Substanz (normalerweise ein Metabolit), die an das kritische Molekül gebunden ist. Die Zieldosis kann als mg gebundene Chemikalie pro mg eines spezifischen Makromoleküls im Gewebe ausgedrückt werden. Um dieses Konzept anwenden zu können, werden Informationen über den Mechanismus der toxischen Wirkung auf molekularer Ebene benötigt. Die Zieldosis wird genauer mit der toxischen Wirkung in Verbindung gebracht. Die Expositionsdosis oder die Körperbelastung sind möglicherweise leichter verfügbar, aber diese beziehen sich weniger genau auf die Wirkung.
Im Dosiskonzept ist oft ein Zeitaspekt enthalten, auch wenn dieser nicht immer zum Ausdruck kommt. Die theoretische Dosis nach dem Gesetz von Haber ist D = ct, woher D ist Dosis, c ist die Konzentration des Fremdstoffs in der Luft und t die Dauer der Exposition gegenüber der Chemikalie. Wenn dieses Konzept auf Zielorgan- oder molekularer Ebene verwendet wird, kann die Menge pro mg Gewebe oder Molekül über einen bestimmten Zeitraum verwendet werden. Der Zeitaspekt ist für das Verständnis wiederholter Expositionen und chronischer Wirkungen in der Regel wichtiger als für einmalige Expositionen und akute Wirkungen.
Additive Effekte entstehen durch die Exposition gegenüber einer Chemikalienkombination, bei der die einzelnen Toxizitäten einfach addiert werden (1+1=2). Wenn Chemikalien über den gleichen Mechanismus wirken, wird eine Additivität ihrer Wirkungen angenommen, obwohl dies in der Realität nicht immer der Fall ist. Wechselwirkungen zwischen Chemikalien können zu einer Hemmung führen (Antagonismus), mit einem geringeren Effekt als aus der Addition der Effekte der einzelnen Chemikalien zu erwarten (1+1 2). Alternativ kann eine Kombination von Chemikalien eine ausgeprägtere Wirkung hervorrufen, als durch die Zugabe zu erwarten wäre (verstärktes Ansprechen bei Einzelpersonen oder eine Zunahme der Ansprechhäufigkeit in einer Bevölkerung), dies wird als „Reaktionshäufigkeit“ bezeichnet Synergie (1+1 >2).
Latenz zeit ist die Zeit zwischen der ersten Exposition und dem Auftreten einer nachweisbaren Wirkung oder Reaktion. Der Begriff wird häufig für krebserzeugende Wirkungen verwendet, bei denen Tumore lange Zeit nach Beginn der Exposition und manchmal lange nach Beendigung der Exposition auftreten können.
A Dosisschwelle ist ein Dosisniveau, unterhalb dessen keine beobachtbare Wirkung auftritt. Es wird angenommen, dass es Schwellenwerte für bestimmte Wirkungen gibt, wie z. B. akute toxische Wirkungen; aber nicht für andere, wie krebserzeugende Wirkungen (durch DNA-Addukt-bildende Initiatoren). Das bloße Fehlen einer Reaktion in einer bestimmten Population sollte jedoch nicht als Beweis für das Bestehen eines Schwellenwerts gewertet werden. Das Ausbleiben des Ansprechens könnte auf einfache statistische Phänomene zurückzuführen sein: Eine Nebenwirkung, die mit geringer Häufigkeit auftritt, ist in einer kleinen Population möglicherweise nicht nachweisbar.
LD50 (effektive Dosis) ist die Dosis, die 50 % Letalität in einer Tierpopulation verursacht. Die LD50 wird in der älteren Literatur oft als Maß für die akute Toxizität von Chemikalien angegeben. Je höher die LD50, desto geringer ist die akute Toxizität. Eine hochgiftige Chemikalie (mit einem niedrigen LD50) wird gesagt, dass potent. Es besteht keine notwendige Korrelation zwischen akuter und chronischer Toxizität. Ed50 (effektive Dosis) ist die Dosis, die bei 50 % der Tiere eine andere spezifische Wirkung als die Letalität verursacht.
NÖL (NÖL) bezeichnet die Konzentration ohne beobachtete (nachteilige) Wirkung oder die höchste Dosis, die keine toxische Wirkung verursacht. Um einen NOEL zu ermitteln, sind mehrere Dosen, eine große Population und zusätzliche Informationen erforderlich, um sicherzustellen, dass das Ausbleiben einer Reaktion nicht nur ein statistisches Phänomen ist. LÖL ist die niedrigste beobachtete effektive Dosis auf einer Dosis-Wirkungs-Kurve oder die niedrigste Dosis, die eine Wirkung hervorruft.
A Sicherheitsfaktor ist eine formale, willkürliche Zahl, durch die man den aus Tierversuchen abgeleiteten NOEL oder LOEL dividiert, um eine ungefähr zulässige Dosis für den Menschen zu erhalten. Dies wird häufig im Bereich der Lebensmitteltoxikologie verwendet, kann aber auch in der Arbeitstoxikologie verwendet werden. Ein Sicherheitsfaktor kann auch für die Extrapolation von Daten von kleinen Populationen auf größere Populationen verwendet werden. Sicherheitsfaktoren reichen von 100 zu 103. Ein Sicherheitsfaktor von zwei kann in der Regel ausreichend sein, um vor einer weniger schwerwiegenden Wirkung (z. B. Reizung) zu schützen, und ein Faktor von bis zu 1,000 kann für sehr schwerwiegende Wirkungen (z. B. Krebs) verwendet werden. Der Begriff Sicherheitsfaktor könnte besser durch den Begriff ersetzt werden Sicherheit Faktor oder auch, Unsicherheitsfaktor. Die Verwendung des letztgenannten Begriffs spiegelt wissenschaftliche Unsicherheiten wider, z. B. ob genaue Dosis-Wirkungs-Daten für die jeweilige chemische, toxische Wirkung oder Expositionssituation von Tieren auf Menschen übertragen werden können.
Hochrechnungen sind theoretische qualitative oder quantitative Schätzungen der Toxizität (Risikoextrapolationen), die aus der Übertragung von Daten von einer Spezies auf eine andere oder aus einem Satz von Dosis-Wirkungs-Daten (typischerweise im Hochdosisbereich) in Dosis-Wirkungs-Regionen abgeleitet werden, in denen keine Daten vorhanden sind. Normalerweise müssen Extrapolationen vorgenommen werden, um toxische Reaktionen außerhalb des Beobachtungsbereichs vorherzusagen. Mathematische Modellierung wird für Extrapolationen auf der Grundlage eines Verständnisses des Verhaltens der Chemikalie im Organismus (toxikokinetische Modellierung) oder auf der Grundlage des Verständnisses statistischer Wahrscheinlichkeiten, dass bestimmte biologische Ereignisse auftreten werden (biologisch oder mechanistisch basierte Modelle), verwendet. Einige nationale Behörden haben ausgefeilte Extrapolationsmodelle als formalisierte Methode zur Vorhersage von Risiken für Regulierungszwecke entwickelt. (Siehe Diskussion der Risikobewertung später in diesem Kapitel.)
Systemische Wirkungen sind toxische Wirkungen in Geweben, die vom Aufnahmeweg entfernt sind.
Zielorgan ist das primäre oder empfindlichste Organ, das nach der Exposition betroffen ist. Dieselbe Chemikalie, die über unterschiedliche Expositionswege in Dosis, Dosisrate, Geschlecht und Spezies in den Körper gelangt, kann verschiedene Zielorgane beeinflussen. Wechselwirkungen zwischen Chemikalien oder zwischen Chemikalien und anderen Faktoren können sich auch auf verschiedene Zielorgane auswirken.
Akute Effekte treten nach begrenzter Exposition und kurz (Stunden, Tage) nach der Exposition auf und können reversibel oder irreversibel sein.
Chronische Effekte nach längerer Exposition (Monate, Jahre, Jahrzehnte) auftreten und/oder nach Beendigung der Exposition bestehen bleiben.
Akut Belichtung ist eine Exposition von kurzer Dauer, während chronische Exposition ist eine langfristige (manchmal lebenslange) Exposition.
Toleranz gegenüber einer Chemikalie kann auftreten, wenn wiederholte Expositionen zu einer geringeren Reaktion führen als ohne Vorbehandlung zu erwarten gewesen wäre.
Aufnahme und Disposition
Transportprozesse
Rundfunk. Um in den Organismus einzudringen und einen Ort zu erreichen, an dem Schäden entstehen, muss ein Fremdstoff mehrere Barrieren überwinden, darunter Zellen und ihre Membranen. Die meisten toxischen Substanzen passieren Membranen passiv durch Diffusion. Dies kann für kleine wasserlösliche Moleküle durch Durchgang durch wässrige Kanäle oder für fettlösliche durch Auflösung in und Diffusion durch den Lipidteil der Membran erfolgen. Ethanol, ein kleines Molekül, das sowohl wasser- als auch fettlöslich ist, diffundiert schnell durch Zellmembranen.
Diffusion von schwachen Säuren und Basen. Schwache Säuren und Basen können Membranen in ihrer nichtionisierten, fettlöslichen Form leicht passieren, während ionisierte Formen zu polar sind, um sie zu passieren. Der Ionisierungsgrad dieser Substanzen hängt vom pH-Wert ab. Wenn über einer Membran ein pH-Gradient besteht, reichern sie sich daher auf einer Seite an. Die Urinausscheidung von schwachen Säuren und Basen hängt stark vom pH-Wert des Urins ab. Der fötale oder embryonale pH-Wert ist etwas höher als der mütterliche pH-Wert, was zu einer leichten Ansammlung schwacher Säuren im Fötus oder Embryo führt.
Erleichterte Diffusion. Der Durchgang einer Substanz kann durch Träger in der Membran erleichtert werden. Erleichterte Diffusion ähnelt enzymatischen Prozessen darin, dass sie proteinvermittelt, hochselektiv und sättigbar ist. Andere Substanzen können den erleichterten Transport von Fremdstoffen hemmen.
Aktiven Transport. Einige Substanzen werden aktiv über Zellmembranen transportiert. Dieser Transport wird analog zu Enzymen durch Trägerproteine vermittelt. Der aktive Transport ähnelt der erleichterten Diffusion, kann jedoch gegen einen Konzentrationsgradienten erfolgen. Es erfordert Energiezufuhr und ein Stoffwechselhemmer kann den Prozess blockieren. Die meisten Umweltschadstoffe werden nicht aktiv transportiert. Eine Ausnahme bildet die aktive tubuläre Sekretion und Rückresorption von Säuremetaboliten in den Nieren.
Phagozytose ist ein Prozess, bei dem spezialisierte Zellen wie Makrophagen Partikel für die anschließende Verdauung verschlingen. Dieser Transportvorgang ist beispielsweise für den Abtransport von Partikeln in den Lungenbläschen wichtig.
Massenstrom. Zusammen mit der Luftbewegung in den Atemwegen beim Atmen und den Bewegungen von Blut, Lymphe oder Urin werden auch Stoffe im Körper transportiert.
Filtrieren. Aufgrund von hydrostatischem oder osmotischem Druck fließt Wasser in großen Mengen durch Poren im Endothel. Jeder gelöste Stoff, der klein genug ist, wird zusammen mit dem Wasser gefiltert. Die Filtration findet bis zu einem gewissen Grad im Kapillarbett in allen Geweben statt, ist aber besonders wichtig bei der Bildung von Primärharn in den Nierenglomeruli.
Absorption
Absorption ist die Aufnahme eines Stoffes aus der Umwelt in den Organismus. Der Begriff umfasst in der Regel nicht nur den Eintritt in das Barrieregewebe, sondern auch den Weitertransport in das zirkulierende Blut.
Lungenabsorption. Die Lunge ist der Hauptweg für die Ablagerung und Absorption von kleinen luftgetragenen Partikeln, Gasen, Dämpfen und Aerosolen. Bei gut wasserlöslichen Gasen und Dämpfen findet ein erheblicher Teil der Aufnahme in der Nase und im Atmungstrakt statt, bei weniger löslichen Stoffen jedoch hauptsächlich in den Lungenbläschen. Die Alveolen haben eine sehr große Oberfläche (etwa 100 m2 in Menschen). Außerdem ist die Diffusionsbarriere extrem klein, mit nur zwei dünnen Zellschichten und einem Abstand in der Größenordnung von Mikrometern von der Alveolarluft zum systemischen Blutkreislauf. Dadurch ist die Lunge nicht nur beim Austausch von Sauerstoff und Kohlendioxid, sondern auch von anderen Gasen und Dämpfen sehr effizient. Im Allgemeinen ist die Diffusion durch die Alveolarwand so schnell, dass sie die Aufnahme nicht einschränkt. Die Resorptionsrate ist vielmehr abhängig von Fluss (Lungenventilation, Herzzeitvolumen) und Löslichkeit (Blut:Luft-Verteilungskoeffizient). Ein weiterer wichtiger Faktor ist die metabolische Elimination. Die relative Bedeutung dieser Faktoren für die pulmonale Resorption variiert stark für verschiedene Substanzen. Körperliche Aktivität führt zu einer erhöhten Lungenventilation und einem erhöhten Herzzeitvolumen sowie zu einer verringerten Durchblutung der Leber (und damit zu einer Verringerung der Biotransformationsrate). Dies führt bei vielen eingeatmeten Substanzen zu einer deutlichen Erhöhung der pulmonalen Resorption.
Perkutane Absorption. Die Haut ist eine sehr effiziente Barriere. Abgesehen von seiner thermoregulierenden Funktion soll es den Organismus vor Mikroorganismen, UV-Strahlung und anderen schädlichen Stoffen sowie vor übermäßigem Wasserverlust schützen. Die Diffusionsstrecke in der Dermis liegt in der Größenordnung von Zehntel Millimetern. Zudem weist die Keratinschicht für die meisten Substanzen einen sehr hohen Diffusionswiderstand auf. Dennoch kann es bei manchen Substanzen zu einer erheblichen dermalen Resorption kommen, die zu Toxizität führt – beispielsweise bei hochgiftigen, fettlöslichen Substanzen wie phosphororganischen Insektiziden und organischen Lösungsmitteln. Nach Kontakt mit flüssigen Stoffen ist mit einer erheblichen Resorption zu rechnen. Die perkutane Absorption von Dampf kann für Lösungsmittel mit sehr niedrigem Dampfdruck und hoher Affinität zu Wasser und Haut wichtig sein.
Magen-Darm-Resorption tritt nach versehentlicher oder absichtlicher Einnahme auf. Größere Partikel, die ursprünglich eingeatmet und in den Atemwegen abgelagert wurden, können nach mukoziliärem Transport in den Pharynx verschluckt werden. Praktisch alle löslichen Substanzen werden im Magen-Darm-Trakt effizient resorbiert. Der niedrige pH-Wert des Darms kann beispielsweise die Aufnahme von Metallen erleichtern.
Andere Strecken. Bei Toxizitätstests und anderen Experimenten werden der Einfachheit halber oft spezielle Verabreichungswege verwendet, obwohl diese selten und im beruflichen Umfeld normalerweise nicht relevant sind. Diese Wege umfassen intravenöse (IV), subkutane (sc), intraperitoneale (ip) und intramuskuläre (im) Injektionen. Im Allgemeinen werden Substanzen auf diesen Wegen schneller und vollständiger resorbiert, insbesondere nach intravenöser Injektion. Dies führt zu kurz anhaltenden, aber hohen Konzentrationsspitzen, die die Toxizität einer Dosis erhöhen können.
Vertrieb
Die Verteilung einer Substanz innerhalb des Organismus ist ein dynamischer Prozess, der von Aufnahme- und Ausscheidungsraten sowie der Durchblutung der verschiedenen Gewebe und deren Affinität zu der Substanz abhängt. Wasserlösliche, kleine, ungeladene Moleküle, einwertige Kationen und die meisten Anionen diffundieren leicht und erreichen schließlich eine relativ gleichmäßige Verteilung im Körper.
Verteilungsvolumen ist die Menge einer Substanz im Körper zu einem bestimmten Zeitpunkt, dividiert durch die Konzentration im Blut, Plasma oder Serum zu diesem Zeitpunkt. Als physikalisches Volumen hat der Wert keine Bedeutung, da viele Stoffe nicht gleichmäßig im Organismus verteilt sind. Ein Verteilungsvolumen von weniger als einem Liter/kg Körpergewicht weist auf eine bevorzugte Verteilung im Blut (bzw. Serum oder Plasma) hin, während ein Wert über eins auf eine Bevorzugung peripherer Gewebe wie Fettgewebe gegenüber fettlöslichen Substanzen hinweist.
Akkumulation ist die Anreicherung einer Substanz in einem Gewebe oder Organ zu höheren Konzentrationen als in Blut oder Plasma. Es kann sich auch auf eine allmähliche Anhäufung im Laufe der Zeit im Organismus beziehen. Viele Xenobiotika sind stark fettlöslich und neigen dazu, sich im Fettgewebe anzureichern, während andere eine besondere Affinität zu Knochen haben. Beispielsweise kann Calcium im Knochen gegen Kationen von Blei, Strontium, Barium und Radium ausgetauscht werden, und Hydroxylgruppen im Knochen können gegen Fluorid ausgetauscht werden.
Barriers. Die Blutgefäße im Gehirn, in den Hoden und in der Plazenta haben besondere anatomische Merkmale, die den Durchgang großer Moleküle wie Proteine hemmen. Diese Merkmale, die oft als Blut-Hirn-, Blut-Hoden- und Blut-Plazenta-Schranken bezeichnet werden, können den falschen Eindruck erwecken, dass sie den Durchgang jeglicher Substanzen verhindern. Diese Barrieren sind für Xenobiotika, die durch Zellmembranen diffundieren können, von geringer oder keiner Bedeutung.
Blutbindung. Substanzen können an rote Blutkörperchen oder Plasmabestandteile gebunden sein oder ungebunden im Blut vorkommen. Kohlenmonoxid, Arsen, organisches Quecksilber und sechswertiges Chrom haben eine hohe Affinität zu roten Blutkörperchen, während anorganisches Quecksilber und dreiwertiges Chrom eine Präferenz für Plasmaproteine zeigen. Eine Reihe anderer Substanzen binden ebenfalls an Plasmaproteine. Nur die ungebundene Fraktion steht zur Filtration oder Diffusion in Ausscheidungsorgane zur Verfügung. Die Blutbindung kann daher die Verweilzeit im Organismus erhöhen, aber die Aufnahme durch die Zielorgane verringern.
Beseitigung
Beseitigung ist das Verschwinden einer Substanz im Körper. Die Elimination kann die Ausscheidung aus dem Körper oder die Umwandlung in andere Substanzen umfassen, die nicht durch eine bestimmte Messmethode erfasst werden. Die Geschwindigkeit des Verschwindens kann durch die Eliminationsgeschwindigkeitskonstante, die biologische Halbwertszeit oder die Clearance ausgedrückt werden.
Konzentrations-Zeit-Kurve. Die Kurve der Konzentration im Blut (oder Plasma) gegen die Zeit ist ein bequemer Weg, um die Aufnahme und Disposition eines Xenobiotikums zu beschreiben.
Fläche unter der Kurve (AUC) ist das Integral der Konzentration im Blut (Plasma) über die Zeit. Wenn die metabolische Sättigung und andere nichtlineare Prozesse fehlen, ist die AUC proportional zur absorbierten Substanzmenge.
Biologische Halbzeit (oder Halbwertszeit) ist die Zeit, die nach Expositionsende benötigt wird, um die Menge im Organismus auf die Hälfte zu reduzieren. Da es oft schwierig ist, die Gesamtmenge einer Substanz zu bestimmen, werden Messungen wie die Konzentration im Blut (Plasma) verwendet. Die Halbwertszeit sollte mit Vorsicht verwendet werden, da sie sich beispielsweise mit Dosis und Expositionsdauer ändern kann. Außerdem haben viele Substanzen komplexe Zerfallskurven mit mehreren Halbwertszeiten.
Bioverfügbarkeit ist der Bruchteil einer verabreichten Dosis, der in den systemischen Kreislauf gelangt. In Ermangelung einer präsystemischen Clearance oder First-Pass-Metabolismus, der Bruch ist eins. Bei oraler Exposition kann die präsystemische Clearance auf den Metabolismus im Magen-Darm-Inhalt, in der Darmwand oder in der Leber zurückzuführen sein. Der First-Pass-Metabolismus reduziert die systemische Resorption der Substanz und erhöht stattdessen die Resorption von Metaboliten. Dies kann zu einem anderen Toxizitätsmuster führen.
Angebote ist das Blutvolumen (Plasma) pro Zeiteinheit, das vollständig von einer Substanz befreit ist. Zur Unterscheidung von der renalen Clearance wird beispielsweise häufig das Präfix total, metabolisch oder Blut (Plasma) angehängt.
Eigene Freigabe ist die Fähigkeit körpereigener Enzyme, einen Stoff umzuwandeln, und wird ebenfalls in Volumen pro Zeiteinheit ausgedrückt. Ist die intrinsische Clearance in einem Organ deutlich geringer als der Blutfluss, spricht man von einer Kapazitätslimitierung des Stoffwechsels. Umgekehrt, wenn die intrinsische Clearance viel höher ist als der Blutfluss, ist der Stoffwechsel flussbegrenzt.
Ausscheidung
Ausscheidung ist der Austritt eines Stoffes und seiner Biotransformationsprodukte aus dem Organismus.
Ausscheidung in Urin und Galle. Die Nieren sind die wichtigsten Ausscheidungsorgane. Einige Substanzen, insbesondere Säuren mit hohem Molekulargewicht, werden mit der Galle ausgeschieden. Ein Teil der biliär ausgeschiedenen Substanzen kann im Darm resorbiert werden. Dieser Prozess, enterohepatischer Kreislauf, ist für konjugierte Substanzen nach Darmhydrolyse des Konjugats üblich.
Andere Ausscheidungswege. Manche Stoffe, wie organische Lösungsmittel und Abbauprodukte wie Aceton, sind so flüchtig, dass nach dem Einatmen ein erheblicher Anteil ausgeatmet werden kann. Sowohl kleine wasserlösliche als auch fettlösliche Moleküle werden leicht über die Plazenta an den Fötus und bei Säugetieren in die Milch ausgeschieden. Für die Mutter kann die Laktation ein quantitativ wichtiger Ausscheidungsweg für persistente fettlösliche Chemikalien sein. Die Nachkommen können sowohl während der Trächtigkeit als auch während der Laktation über die Mutter sekundär exponiert werden. Wasserlösliche Verbindungen können teilweise in Schweiß und Speichel ausgeschieden werden. Diese Routen sind im Allgemeinen von untergeordneter Bedeutung. Da jedoch eine große Menge Speichel produziert und geschluckt wird, kann die Speichelausscheidung zur Reabsorption der Verbindung beitragen. Einige Metalle wie Quecksilber werden durch dauerhafte Bindung an die Sulfhydrylgruppen des Keratins im Haar ausgeschieden.
Toxikokinetische Modelle
Mathematische Modelle sind wichtige Werkzeuge, um die Aufnahme und Disposition von Fremdstoffen zu verstehen und zu beschreiben. Die meisten Modelle sind kompartimentiert, dh der Organismus wird durch ein oder mehrere Kompartimente dargestellt. Ein Kompartiment ist ein chemisch und physikalisch theoretisches Volumen, in dem angenommen wird, dass sich der Stoff homogen und augenblicklich verteilt. Einfache Modelle können als Summe von Exponentialgliedern ausgedrückt werden, während kompliziertere zu ihrer Lösung numerische Verfahren auf einem Computer erfordern. Modelle können in zwei Kategorien unterteilt werden, beschreibende und physiologische.
In beschreibend fürerfolgt die Anpassung an gemessene Daten durch Änderung der numerischen Werte der Modellparameter oder sogar der Modellstruktur selbst. Die Modellstruktur hat normalerweise wenig mit der Struktur des Organismus zu tun. Vorteile des deskriptiven Ansatzes sind, dass wenige Annahmen getroffen werden und keine zusätzlichen Daten benötigt werden. Ein Nachteil von deskriptiven Modellen ist ihre begrenzte Brauchbarkeit für Extrapolationen.
Physiologische Modelle werden aus physiologischen, anatomischen und anderen unabhängigen Daten konstruiert. Das Modell wird dann verfeinert und durch Vergleich mit experimentellen Daten validiert. Ein Vorteil physiologischer Modelle besteht darin, dass sie für Extrapolationszwecke verwendet werden können. Beispielsweise kann der Einfluss körperlicher Aktivität auf die Aufnahme und Disposition eingeatmeter Substanzen aus bekannten physiologischen Anpassungen der Ventilation und des Herzzeitvolumens vorhergesagt werden. Ein Nachteil physiologischer Modelle besteht darin, dass sie eine große Menge unabhängiger Daten benötigen.
Biotransformation
Biotransformation ist ein Prozess, der zu einer metabolischen Umwandlung von Fremdstoffen (Xenobiotika) im Körper führt. Der Prozess wird oft als Metabolismus von Xenobiotika bezeichnet. Im Allgemeinen wandelt der Stoffwechsel fettlösliche Xenobiotika in große, wasserlösliche Metaboliten um, die effektiv ausgeschieden werden können.
Die Leber ist der Hauptort der Biotransformation. Alle aus dem Darm aufgenommenen Fremdstoffe werden über ein einziges Blutgefäß (Vena porta). Bei Aufnahme geringer Mengen kann ein Fremdstoff in der Leber vollständig verstoffwechselt werden, bevor er den allgemeinen Kreislauf und andere Organe erreicht (First-Pass-Effekt). Inhalierte Fremdstoffe werden über den allgemeinen Kreislauf in die Leber verteilt. In diesem Fall wird nur ein Bruchteil der Dosis in der Leber metabolisiert, bevor sie andere Organe erreicht.
Leberzellen enthalten mehrere Enzyme, die Fremdstoffe oxidieren. Diese Oxidation aktiviert im Allgemeinen die Verbindung – sie wird reaktiver als das Ausgangsmolekül. In den meisten Fällen wird der oxidierte Metabolit in einer zweiten Phase durch andere Enzyme weiter verstoffwechselt. Diese Enzyme konjugieren den Metaboliten mit einem körpereigenen Substrat, sodass das Molekül größer und polarer wird. Dies erleichtert die Ausscheidung.
Enzyme, die Fremdstoffe metabolisieren, sind auch in anderen Organen wie der Lunge und den Nieren vorhanden. In diesen Organen können sie spezifische und qualitativ wichtige Rollen im Metabolismus bestimmter Xenobiotika spielen. Metaboliten, die in einem Organ gebildet werden, können in einem zweiten Organ weiter metabolisiert werden. Bakterien im Darm können ebenfalls an der Biotransformation teilnehmen.
Metaboliten von Fremdstoffen können über die Nieren oder über die Galle ausgeschieden werden. Sie können auch über die Lunge ausgeatmet oder an körpereigene Moleküle gebunden werden.
Die Beziehung zwischen Biotransformation und Toxizität ist komplex. Biotransformation kann als notwendiger Prozess zum Überleben angesehen werden. Es schützt den Organismus vor Toxizität, indem es die Ansammlung von Schadstoffen im Körper verhindert. Bei der Biotransformation können jedoch reaktive intermediäre Metaboliten gebildet werden, die potenziell schädlich sind. Dies wird als metabolische Aktivierung bezeichnet. Daher kann die Biotransformation auch Toxizität induzieren. Oxidierte, intermediäre Metaboliten, die nicht konjugiert sind, können an Zellstrukturen binden und diese schädigen. Bindet beispielsweise ein xenobiotischer Metabolit an DNA, kann eine Mutation induziert werden (siehe „Gentoxikologie“). Bei Überlastung des Biotransformationssystems kann es zu einer massiven Zerstörung essentieller Proteine oder Lipidmembranen kommen. Dies kann zum Zelltod führen (siehe „Zellschädigung und Zelltod“).
Stoffwechsel ist ein Wort, das oft synonym mit Biotransformation verwendet wird. Es bezeichnet chemische Abbau- oder Synthesereaktionen, die durch Enzyme im Körper katalysiert werden. Nährstoffe aus der Nahrung, endogene Verbindungen und Xenobiotika werden alle im Körper verstoffwechselt.
Stoffwechselaktivierung bedeutet, dass eine weniger reaktive Verbindung in ein reaktiveres Molekül umgewandelt wird. Dies tritt normalerweise während Phase-1-Reaktionen auf.
Stoffwechselinaktivierung bedeutet, dass ein aktives oder toxisches Molekül in einen weniger aktiven Metaboliten umgewandelt wird. Dies tritt normalerweise während Phase-2-Reaktionen auf. In bestimmten Fällen kann ein inaktivierter Metabolit reaktiviert werden, beispielsweise durch enzymatische Spaltung.
Phase-1-Reaktion bezieht sich auf den ersten Schritt im Fremdstoffstoffwechsel. Es bedeutet normalerweise, dass die Verbindung oxidiert wird. Die Oxidation macht die Verbindung normalerweise wasserlöslicher und erleichtert weitere Reaktionen.
Cytochrom P450-Enzyme sind eine Gruppe von Enzymen, die Xenobiotika bevorzugt in Phase-1-Reaktionen oxidieren. Die verschiedenen Enzyme sind darauf spezialisiert, bestimmte Gruppen von Xenobiotika mit bestimmten Eigenschaften zu handhaben. Auch körpereigene Moleküle sind Substrate. Cytochrom-P450-Enzyme werden durch Xenobiotika auf spezifische Weise induziert. Die Erhebung von Induktionsdaten zu Cytochrom P450 kann Aufschluss über die Art früherer Expositionen geben (siehe „Genetische Determinanten der toxischen Reaktion“).
Phase-2-Reaktion bezieht sich auf den zweiten Schritt im Fremdstoffstoffwechsel. Es bedeutet normalerweise, dass die oxidierte Verbindung mit einem endogenen Molekül konjugiert (gekoppelt) ist. Diese Reaktion erhöht die Wasserlöslichkeit weiter. Viele konjugierte Metaboliten werden aktiv über die Nieren ausgeschieden.
Transferasen sind eine Gruppe von Enzymen, die Phase-2-Reaktionen katalysieren. Sie konjugieren Fremdstoffe mit körpereigenen Verbindungen wie Glutathion, Aminosäuren, Glucuronsäure oder Sulfat.
Glutathion ist ein endogenes Molekül, ein Tripeptid, das in Phase-2-Reaktionen mit Xenobiotika konjugiert wird. Es ist in allen Zellen vorhanden (und in Leberzellen in hohen Konzentrationen) und schützt normalerweise vor aktivierten Xenobiotika. Wenn Glutathion erschöpft ist, können toxische Reaktionen zwischen aktivierten xenobiotischen Metaboliten und Proteinen, Lipiden oder DNA auftreten.
Induktion bedeutet, dass an der Biotransformation beteiligte Enzyme (in Aktivität oder Menge) als Reaktion auf eine Xenobiotika-Exposition erhöht werden. In einigen Fällen kann die Enzymaktivität innerhalb weniger Tage um ein Vielfaches gesteigert werden. Die Induktion ist oft so ausbalanciert, dass die Reaktionen sowohl der Phase 1 als auch der Phase 2 gleichzeitig gesteigert werden. Dies kann zu einer schnelleren Biotransformation führen und die Toleranz erklären. Im Gegensatz dazu kann eine unausgeglichene Induktion die Toxizität erhöhen.
Hemmung Biotransformation kann auftreten, wenn zwei Xenobiotika durch dasselbe Enzym metabolisiert werden. Die beiden Substrate müssen konkurrieren, und gewöhnlich wird eines der Substrate bevorzugt. In diesem Fall wird das zweite Substrat nicht oder nur langsam metabolisiert. Wie bei der Induktion kann die Hemmung sowohl die Toxizität erhöhen als auch verringern.
Sauerstoffaktivierung kann durch Metaboliten bestimmter Xenobiotika ausgelöst werden. Sie können unter der Produktion von aktivierten Sauerstoffspezies autooxidieren. Diese von Sauerstoff abgeleiteten Spezies, zu denen Superoxid, Wasserstoffperoxid und das Hydroxylradikal gehören, können DNA, Lipide und Proteine in Zellen schädigen. Die Sauerstoffaktivierung ist auch an Entzündungsprozessen beteiligt.
Genetische Variabilität zwischen Individuen wird in vielen Genen gesehen, die für Phase-1- und Phase-2-Enzyme kodieren. Genetische Variabilität kann erklären, warum bestimmte Personen anfälliger für toxische Wirkungen von Xenobiotika sind als andere.
Entscheidungen, die sich auf die Gesundheit, das Wohlbefinden und die Beschäftigungsfähigkeit einzelner Arbeitnehmer oder die Herangehensweise eines Arbeitgebers an Gesundheits- und Sicherheitsfragen auswirken, müssen auf qualitativ hochwertigen Daten beruhen. Dies gilt insbesondere für biologische Überwachungsdaten, und daher liegt es in der Verantwortung jedes Labors, das analytische Arbeiten an biologischen Proben von arbeitenden Bevölkerungsgruppen durchführt, um die Zuverlässigkeit, Genauigkeit und Präzision seiner Ergebnisse sicherzustellen. Diese Verantwortung erstreckt sich von der Bereitstellung geeigneter Methoden und Anleitungen für die Probenentnahme bis hin zur Sicherstellung, dass die Ergebnisse in geeigneter Form an das für die Betreuung des einzelnen Arbeitnehmers zuständige medizinische Fachpersonal zurückgegeben werden. All diese Aktivitäten fallen unter den Ausdruck Qualitätssicherung.
Die zentrale Aktivität in einem Qualitätssicherungsprogramm ist die Kontrolle und Aufrechterhaltung der analytischen Genauigkeit und Präzision. Biologische Überwachungslabors haben sich oft in einem klinischen Umfeld entwickelt und Qualitätssicherungstechniken und -philosophien aus der Disziplin der klinischen Chemie übernommen. Tatsächlich unterscheiden sich Messungen toxischer Chemikalien und biologischer Wirkungsindikatoren in Blut und Urin im Wesentlichen nicht von denen, die in klinischen Chemie- und klinisch-pharmakologischen Servicelabors in größeren Krankenhäusern durchgeführt werden.
Ein Qualitätssicherungsprogramm für einen einzelnen Analytiker beginnt mit der Auswahl und Etablierung einer geeigneten Methode. Die nächste Stufe ist die Entwicklung eines internen Qualitätskontrollverfahrens zur Aufrechterhaltung der Präzision; Das Labor muss sich dann von der Genauigkeit der Analyse überzeugen, was durchaus eine externe Qualitätsbewertung beinhalten kann (siehe unten). Es ist jedoch wichtig zu erkennen, dass die Qualitätssicherung mehr umfasst als diese Aspekte der analytischen Qualitätskontrolle.
Methodenauswahl
Es gibt mehrere Texte, die Analysemethoden im biologischen Monitoring vorstellen. Obwohl diese nützliche Hinweise geben, muss der einzelne Analyst viel tun, bevor Daten von angemessener Qualität produziert werden können. Von zentraler Bedeutung für jedes Qualitätssicherungsprogramm ist die Erstellung eines Laborprotokolls, in dem die Teile der Methode, die den größten Einfluss auf ihre Zuverlässigkeit, Genauigkeit und Präzision haben, detailliert angegeben werden müssen. Tatsächlich hängt die nationale Akkreditierung von Laboratorien in den Bereichen klinische Chemie, Toxikologie und Forensik normalerweise von der Qualität der Protokolle des Labors ab. Die Entwicklung eines geeigneten Protokolls ist in der Regel ein zeitaufwändiger Prozess. Wenn ein Labor eine neue Methode etablieren möchte, ist es oft am kostengünstigsten, von einem bestehenden Labor ein Protokoll zu erhalten, das seine Leistungsfähigkeit beispielsweise durch Validierung in einem etablierten internationalen Qualitätssicherungsprogramm bewiesen hat. Sollte sich das neue Labor auf eine bestimmte Analysetechnik festlegen, z. B. Gaschromatographie statt Hochleistungsflüssigkeitschromatographie, ist es oft möglich, ein Labor zu identifizieren, das über eine gute Leistungsbilanz verfügt und denselben analytischen Ansatz verwendet. Labore können oft durch Zeitschriftenartikel oder durch Organisatoren verschiedener nationaler Qualitätsbewertungssysteme identifiziert werden.
Interne Qualitätskontrolle
Die Qualität analytischer Ergebnisse hängt von der in der Praxis erreichten Präzision der Methode ab, die wiederum von der genauen Einhaltung eines definierten Protokolls abhängt. Die Präzision lässt sich am besten durch die Einbeziehung von „Qualitätskontrollproben“ in regelmäßigen Abständen während eines Analyselaufs beurteilen. Zum Beispiel werden zur Kontrolle von Blutbleianalysen nach jeweils sechs oder acht tatsächlichen Arbeiterproben Qualitätskontrollproben in den Durchlauf eingeführt. Stabilere Analysemethoden können mit weniger Qualitätskontrollproben pro Lauf überwacht werden. Die Qualitätskontrollproben für die Blutbleianalyse werden aus 500 ml Blut (Mensch oder Rind) hergestellt, dem anorganisches Blei zugesetzt wird; einzelne Aliquots werden bei niedriger Temperatur gelagert (Bullock, Smith und Whitehead 1986). Vor der Verwendung jeder neuen Charge werden 20 Aliquots in getrennten Läufen bei verschiedenen Gelegenheiten analysiert, um das mittlere Ergebnis für diese Charge von Qualitätskontrollproben sowie ihre Standardabweichung zu ermitteln (Whitehead 1977). Diese beiden Abbildungen werden verwendet, um eine Shewhart-Regelkarte zu erstellen (Abbildung 27.2). Die Ergebnisse aus der Analyse der Qualitätskontrollproben, die in nachfolgenden Läufen enthalten sind, werden in das Diagramm eingetragen. Der Analytiker wendet dann Regeln für die Annahme oder Ablehnung eines Analyselaufs an, je nachdem, ob die Ergebnisse dieser Proben innerhalb von zwei oder drei Standardabweichungen (SD) des Mittelwerts liegen. Eine Abfolge von Regeln, validiert durch Computermodellierung, wurde von Westgard et al. (1981) zur Anwendung auf Kontrollproben. Dieser Ansatz zur Qualitätskontrolle ist in Lehrbüchern der klinischen Chemie beschrieben, und ein einfacher Ansatz zur Einführung der Qualitätssicherung ist in Whitehead (1977) dargelegt. Es muss betont werden, dass diese Techniken der Qualitätskontrolle von der Vorbereitung und Analyse von Qualitätskontrollproben abhängig sind, getrennt von den Kalibrierungsproben, die bei jeder analytischen Gelegenheit verwendet werden.
Abbildung 27.2 Shewhart-Kontrollkarte für Qualitätskontrollproben
Dieser Ansatz kann an eine Reihe von Assays zur biologischen Überwachung oder biologischen Wirkungsüberwachung angepasst werden. Chargen von Blut- oder Urinproben können durch Zugabe entweder des toxischen Materials oder des zu messenden Metaboliten hergestellt werden. Ebenso können Blut, Serum, Plasma oder Urin aliquotiert und zur Messung von Enzymen oder Proteinen tiefgefroren oder gefriergetrocknet gelagert werden. Es muss jedoch darauf geachtet werden, ein Infektionsrisiko für den Analytiker durch auf menschlichem Blut basierende Proben zu vermeiden.
Die sorgfältige Einhaltung eines klar definierten Protokolls und von Regeln für die Akzeptanz ist eine wesentliche erste Stufe in einem Qualitätssicherungsprogramm. Jedes Labor muss bereit sein, seine Qualitätskontrolle und Qualitätsbewertungsleistung mit den medizinischen Fachkräften, die es verwenden, zu besprechen und überraschende oder ungewöhnliche Ergebnisse zu untersuchen.
Externe Qualitätsbewertung
Nachdem ein Labor festgestellt hat, dass es Ergebnisse mit ausreichender Genauigkeit liefern kann, besteht der nächste Schritt darin, die Genauigkeit („Wahrheit“) der gemessenen Werte zu bestätigen, dh das Verhältnis der durchgeführten Messungen zur tatsächlich vorhandenen Menge. Dies ist für ein Labor allein eine schwierige Aufgabe, die jedoch durch die Teilnahme an einem regelmäßigen externen Qualitätsbewertungsprogramm erreicht werden kann. Diese sind seit einiger Zeit ein wesentlicher Bestandteil der klinisch-chemischen Praxis, waren jedoch für die biologische Überwachung nicht allgemein verfügbar. Die Ausnahme ist die Blutbleianalyse, für die seit den 1970er Jahren Schemata verfügbar sind (z. B. Bullock, Smith und Whitehead 1986). Der Vergleich von Analyseergebnissen mit denen anderer Labors, die Proben derselben Charge analysieren, ermöglicht die Bewertung der Leistung eines Labors im Vergleich zu anderen sowie ein Maß für seine Genauigkeit. Es stehen mehrere nationale und internationale Qualitätsbewertungssysteme zur Verfügung. Viele dieser Programme begrüßen neue Labore, da die Gültigkeit des Mittelwerts der Ergebnisse eines Analyten aller teilnehmenden Labore (als Maß für die tatsächliche Konzentration genommen) mit der Anzahl der Teilnehmer zunimmt. Programme mit vielen Teilnehmern sind auch besser in der Lage, die Laborleistung nach Analysemethode zu analysieren und somit zu Alternativen zu Methoden mit schlechten Leistungsmerkmalen zu beraten. In einigen Ländern ist die Teilnahme an einem solchen Programm ein wesentlicher Bestandteil der Laborakkreditierung. Richtlinien für die Gestaltung und Durchführung externer Qualitätsbewertungssysteme wurden von der WHO (1981) veröffentlicht.
In Ermangelung etablierter externer Qualitätsbewertungssysteme kann die Genauigkeit anhand von zertifizierten Referenzmaterialien überprüft werden, die auf kommerzieller Basis für eine begrenzte Auswahl an Analyten erhältlich sind. Die Vorteile von Proben, die von externen Qualitätsbewertungsprogrammen in Umlauf gebracht werden, bestehen darin, dass (1) der Analytiker keine Vorkenntnisse über das Ergebnis hat, (2) ein Bereich von Konzentrationen präsentiert wird und (3) die endgültigen Analysemethoden nicht sein müssen verwendet werden, sind die beteiligten Materialien billiger.
Präanalytische Qualitätskontrolle
Der Aufwand für das Erreichen einer guten Laborgenauigkeit und -präzision ist vergeblich, wenn die dem Labor vorgelegten Proben nicht zur richtigen Zeit entnommen wurden, wenn sie kontaminiert wurden, sich während des Transports verschlechtert haben oder unzureichend oder falsch etikettiert wurden. Es ist auch eine schlechte professionelle Praxis, Personen einer invasiven Probenahme zu unterziehen, ohne sich angemessen um das Probenmaterial zu kümmern. Obwohl die Probenahme häufig nicht unter der direkten Kontrolle des Laboranalytikers steht, muss ein umfassendes Qualitätsprogramm der biologischen Überwachung diese Faktoren berücksichtigen, und das Labor sollte sicherstellen, dass die bereitgestellten Spritzen und Probenbehälter frei von Kontaminationen sind, mit klaren Anweisungen zur Probenahmetechnik und Probenlagerung und -transport. Die Bedeutung des korrekten Probenahmezeitpunktes innerhalb der Schicht oder Arbeitswoche und dessen Abhängigkeit von der Toxikokinetik des Probenmaterials sind mittlerweile anerkannt (ACGIH 1993; HSE 1992), und diese Information sollte den für die Probennahme verantwortlichen Gesundheitsfachkräften zur Verfügung gestellt werden .
Postanalytische Qualitätskontrolle
Qualitativ hochwertige Analyseergebnisse können für den Einzelnen oder das medizinische Fachpersonal von geringem Nutzen sein, wenn sie dem Fachpersonal nicht in interpretierbarer Form und zum richtigen Zeitpunkt mitgeteilt werden. Jedes biologische Überwachungslabor sollte Meldeverfahren entwickeln, um das medizinische Fachpersonal, das die Proben einreicht, rechtzeitig auf anormale, unerwartete oder rätselhafte Ergebnisse aufmerksam zu machen, damit geeignete Maßnahmen ergriffen werden können. Die Interpretation von Laborergebnissen, insbesondere von Konzentrationsänderungen zwischen aufeinanderfolgenden Proben, hängt häufig von der Kenntnis der Genauigkeit des Assays ab. Als Teil des umfassenden Qualitätsmanagements von der Probenentnahme bis zur Rückgabe der Ergebnisse sollten Angehörige der Gesundheitsberufe Informationen über die Präzision und Genauigkeit des biologischen Überwachungslabors sowie über Referenzbereiche und empfohlene und gesetzliche Grenzwerte erhalten, um ihnen bei der Interpretation der Ergebnisse zu helfen.
Es ist schwierig, von Arbeitsanalyse zu sprechen, ohne sie in die Perspektive der jüngsten Veränderungen in der industriellen Welt zu stellen, da sich die Art der Tätigkeiten und die Bedingungen, unter denen sie ausgeführt werden, in den letzten Jahren erheblich weiterentwickelt haben. Die Faktoren, die zu diesen Veränderungen geführt haben, waren zahlreich, aber es gibt zwei, deren Einfluss sich als entscheidend erwiesen hat. Einerseits haben der technologische Fortschritt mit seinem immer schneller werdenden Tempo und die Umwälzungen durch die Informationstechnologien die Arbeitsplätze revolutioniert (De Keyser 1986). Andererseits erfordert die Unsicherheit des Wirtschaftsmarktes mehr Flexibilität in der Personalführung und Arbeitsorganisation. Wenn die Arbeiter einen weiteren, weniger routinierten und zweifellos systematischeren Blick auf den Produktionsprozess gewonnen haben, haben sie gleichzeitig die exklusive Bindung an eine Umgebung, ein Team, ein Produktionswerkzeug verloren. Es ist schwierig, diese Veränderungen mit Gelassenheit zu betrachten, aber wir müssen der Tatsache ins Auge sehen, dass eine neue Industrielandschaft geschaffen wurde, die manchmal bereichernder für diejenigen Arbeitnehmer ist, die ihren Platz darin finden können, aber auch voller Fallstricke und Sorgen für diejenigen, die es tun können werden ausgegrenzt oder ausgegrenzt. Eine Idee wird jedoch in Unternehmen aufgegriffen und durch Pilotversuche in vielen Ländern bestätigt: Es sollte möglich sein, Veränderungen zu steuern und ihre negativen Auswirkungen abzumildern, indem entsprechende Analysen verwendet werden und alle Ressourcen für Verhandlungen zwischen den verschiedenen Arbeiten genutzt werden Schauspieler. In diesen Kontext müssen wir heute Arbeitsanalysen stellen – als Werkzeuge, die es uns ermöglichen, Aufgaben und Aktivitäten besser zu beschreiben, um Interventionen unterschiedlicher Art zu steuern, wie z. B. Schulungen, die Einrichtung neuer Organisationsformen oder die Gestaltung von Werkzeugen und Arbeit Systeme. Wir sprechen von Analysen und nicht nur von einer Analyse, da es eine große Anzahl davon gibt, abhängig von den theoretischen und kulturellen Kontexten, in denen sie entwickelt werden, den besonderen Zielen, die sie verfolgen, den gesammelten Beweisen oder dem Interesse des Analysators an beiden Spezifität oder Allgemeinheit. In diesem Artikel beschränken wir uns darauf, einige Merkmale von Arbeitsanalysen vorzustellen und die Bedeutung kollektiver Arbeit zu betonen. Unsere Schlussfolgerungen werden andere Wege aufzeigen, die wir aufgrund der Grenzen dieses Textes nicht weiter vertiefen können.
Einige Merkmale von Arbeitsanalysen
Der Kontext
Wenn das primäre Ziel jeder Arbeitsanalyse darin besteht, zu beschreiben, was der Bediener tut die, oder sollte tun, es genauer in seinen Kontext einzuordnen, erschien Forschern oft unabdingbar. Sie erwähnen nach ihren eigenen Ansichten, aber in weitgehend ähnlicher Weise, die Konzepte von Kontext, Situation, Umwelt, Arbeitsdomäne, Arbeitswelt or Arbeitsumgebung. Das Problem liegt weniger in den Nuancen zwischen diesen Begriffen als in der Auswahl der Variablen, die beschrieben werden müssen, um ihnen eine sinnvolle Bedeutung zu geben. Tatsächlich ist die Welt riesig und die Branche komplex, und die Merkmale, auf die man sich beziehen könnte, sind unzählig. Unter Autoren auf diesem Gebiet lassen sich zwei Tendenzen feststellen. Die erste sieht in der Kontextbeschreibung ein Mittel, um das Interesse des Lesers zu wecken und ihm einen adäquaten semantischen Rahmen zu geben. Die zweite hat eine andere theoretische Perspektive: Sie versucht, sowohl Kontext als auch Aktivität zu umfassen, indem sie nur diejenigen Elemente des Kontexts beschreibt, die in der Lage sind, das Verhalten von Bedienern zu beeinflussen.
Der semantische Rahmen
Kontext hat evokative Kraft. Für einen informierten Leser reicht es aus, von einem Bediener in einer Leitwarte zu lesen, der sich in einem kontinuierlichen Prozess befindet, um sich durch Befehle und Überwachung aus der Ferne ein Bild von der Arbeit zu machen, wo die Aufgaben der Erkennung, Diagnose und Regelung vorherrschen. Welche Variablen müssen beschrieben werden, um einen ausreichend aussagekräftigen Zusammenhang herzustellen? Es hängt alles vom Leser ab. Dennoch gibt es in der Literatur einen Konsens über einige Schlüsselvariablen. Das Natur des Wirtschaftszweigs, der Art der Produktion oder Dienstleistung, der Größe und der geografischen Lage des Standorts sinnvoll.
Die Produktionsprozesse, die Werkzeuge oder Maschinen und ihre Grad der Automatisierung gewisse Einschränkungen und gewisse notwendige Qualifikationen erahnen lassen. Das Personalstruktur, zusammen mit Alter, Qualifikationsniveau und Erfahrung sind entscheidende Daten, wenn es um Aspekte der Ausbildung oder der organisatorischen Flexibilität geht. Das Arbeitsorganisation etabliert, hängt mehr von der Firmenphilosophie als von der Technologie ab. Seine Beschreibung umfasst insbesondere Arbeitszeitpläne, den Grad der Zentralisierung von Entscheidungen und die Art der Kontrolle, die über die Arbeitnehmer ausgeübt wird. Andere Elemente können in anderen Fällen hinzugefügt werden. Sie sind mit der Geschichte und Kultur des Unternehmens, seiner wirtschaftlichen Situation, den Arbeitsbedingungen und etwaigen Umstrukturierungen, Fusionen und Investitionen verbunden. Es gibt mindestens so viele Klassifikationssysteme wie Autoren, und es sind zahlreiche deskriptive Listen im Umlauf. In Frankreich wurden besondere Anstrengungen unternommen, um einfache beschreibende Methoden zu verallgemeinern, insbesondere um eine Rangfolge bestimmter Faktoren danach zu ermöglichen, ob sie für den Bediener zufriedenstellend sind oder nicht (RNUR 1976; Guelaud et al. 1977).
Die Beschreibung relevanter Faktoren in Bezug auf die Aktivität
Die von Rasmussen, Pejtersen und Schmidts (1990) beschriebene Taxonomie komplexer Systeme stellt einen der ehrgeizigsten Versuche dar, gleichzeitig den Kontext und seinen Einfluss auf den Bediener zu erfassen. Seine Hauptidee besteht darin, die verschiedenen Elemente, aus denen es besteht, systematisch zu integrieren und die Freiheitsgrade und Zwänge herauszustellen, innerhalb derer individuelle Strategien entwickelt werden können. Sein erschöpfendes Ziel macht es schwierig, es zu manipulieren, aber die Verwendung mehrerer Darstellungsweisen, einschließlich Graphen, zur Veranschaulichung der Beschränkungen hat einen heuristischen Wert, der für viele Leser sicherlich attraktiv sein wird. Andere Ansätze sind gezielter. Was die Autoren suchen, ist die Auswahl von Faktoren, die eine bestimmte Aktivität beeinflussen können. Daher schlägt Brehmer (1990) mit seinem Interesse an der Steuerung von Prozessen in einer sich ändernden Umgebung eine Reihe von zeitlichen Merkmalen des Kontexts vor, die die Steuerung und Antizipation des Bedieners beeinflussen (siehe Abbildung 1). Die Typologie dieses Autors wurde aus „Mikrowelten“ entwickelt, computerisierten Simulationen dynamischer Situationen, aber der Autor selbst hat sie zusammen mit vielen anderen seitdem für die kontinuierliche Prozessindustrie verwendet (Van Daele 1992). Bei bestimmten Aktivitäten ist der Einfluss der Umgebung bekannt, und die Auswahl der Faktoren ist nicht allzu schwierig. Wenn wir uns also für die Herzfrequenz im Arbeitsumfeld interessieren, beschränken wir uns oft darauf, die Lufttemperaturen, die körperlichen Einschränkungen der Aufgabe oder das Alter und die Ausbildung des Probanden zu beschreiben – obwohl wir wissen, dass wir damit vielleicht abbrechen relevante Elemente heraus. Anderen fällt die Wahl schwerer. Studien über menschliches Versagen zeigen zum Beispiel, dass die Faktoren, die dazu in der Lage sind, sie hervorzurufen, zahlreich sind (Reason 1989). Manchmal, wenn das theoretische Wissen nicht ausreicht, erlaubt uns nur eine statistische Verarbeitung, die Kontext- und Aktivitätsanalyse kombiniert, die relevanten kontextuellen Faktoren herauszuarbeiten (Fadier 1990).
Abbildung 1. Die Kriterien und Unterkriterien der von Brehmer (1990) vorgeschlagenen Taxonomie von Mikrowelten
Die Aufgabe oder die Aktivität?
Die Aufgabe
Die Aufgabe wird durch ihre Ziele, ihre Beschränkungen und die Mittel, die sie zu ihrer Erfüllung erfordert, definiert. Eine Funktion im Unternehmen ist in der Regel durch eine Reihe von Aufgaben gekennzeichnet. Die realisierte Aufgabe weicht aus einer Vielzahl von Gründen von der vom Unternehmen geplanten Aufgabe ab: Die Strategien der Bediener variieren innerhalb und zwischen den Individuen, die Umgebung schwankt und zufällige Ereignisse erfordern Antworten, die oft außerhalb des vorgeschriebenen Rahmens liegen. Endlich, das Auftrag wird nicht immer mit der richtigen Kenntnis seiner Ausführungsbedingungen geplant, daher die Notwendigkeit von Anpassungen in Echtzeit. Aber auch wenn die Aufgabe während der Aktivität aktualisiert wird, manchmal bis hin zur Transformation, bleibt sie dennoch die zentrale Referenz.
Fragebögen, Bestandsverzeichnisse und Taxonomien von Aufgaben sind zahlreich, insbesondere in der englischsprachigen Literatur – hervorragende Übersichten findet der Leser bei Fleishman und Quaintance (1984) sowie bei Greuter und Algera (1989). Einige dieser Instrumente sind lediglich Listen von Elementen – zum Beispiel die Aktionsverben zur Veranschaulichung von Aufgaben –, die entsprechend der untersuchten Funktion abgehakt werden. Andere haben ein hierarchisches Prinzip angenommen, das eine Aufgabe als ineinandergreifende Elemente charakterisiert, die vom Globalen zum Besonderen geordnet sind. Diese Methoden sind standardisiert und können auf eine Vielzahl von Funktionen angewendet werden; sie sind einfach anzuwenden und die Analysephase wird erheblich verkürzt. Aber wo es darum geht, spezifische Arbeit zu definieren, sind sie zu statisch und zu allgemein, um nützlich zu sein.
Als nächstes gibt es jene Instrumente, die mehr Geschick seitens des Forschers erfordern; Da die Elemente der Analyse nicht vordefiniert sind, ist es Sache des Forschers, sie zu charakterisieren. Zu dieser Gruppe gehört die bereits überholte Critical-Incident-Technik von Flanagan (1954), bei der der Beobachter eine Funktion anhand ihrer Schwierigkeiten beschreibt und die Vorfälle identifiziert, denen das Individuum ausgesetzt sein wird.
Dies ist auch der Weg der kognitiven Aufgabenanalyse (Roth und Woods 1988). Diese Technik zielt darauf ab, die kognitiven Anforderungen eines Jobs ans Licht zu bringen. Eine Möglichkeit, dies zu tun, besteht darin, die Aufgabe in Ziele, Einschränkungen und Mittel zu unterteilen. Abbildung 2 zeigt, wie die zunächst durch ein sehr globales Ziel des Überlebens des Patienten gekennzeichnete Aufgabe eines Anästhesisten in eine Reihe von Unterzielen zerlegt werden kann, die ihrerseits als einzusetzende Maßnahmen und Mittel klassifiziert werden können. Mehr als 100 Stunden Beobachtung im Operationssaal und anschließende Gespräche mit Anästhesisten waren notwendig, um dieses zusammenfassende „Foto“ der Anforderungen der Funktion zu erhalten. Obwohl diese Technik ziemlich mühsam ist, ist sie in der Ergonomie dennoch nützlich, um festzustellen, ob alle Ziele einer Aufgabe mit den Mitteln zu ihrer Erreichung versehen sind. Es ermöglicht auch ein Verständnis für die Komplexität einer Aufgabe (z. B. ihre besonderen Schwierigkeiten und widersprüchlichen Ziele) und erleichtert die Interpretation bestimmter menschlicher Fehler. Aber sie leidet, wie auch andere Methoden, unter dem Fehlen einer beschreibenden Sprache (Grant und Mayes 1991). Außerdem erlaubt es keine Hypothesen über die Art der kognitiven Prozesse, die zum Erreichen der fraglichen Ziele eingesetzt werden.
Abbildung 2. Kognitive Analyse der Aufgabe: Vollnarkose
Andere Ansätze haben die mit gegebenen Aufgaben verbundenen kognitiven Prozesse analysiert, indem sie Hypothesen über die Informationsverarbeitung aufstellten, die zu ihrer Bewältigung erforderlich ist. Ein häufig verwendetes kognitives Modell dieser Art ist das von Rasmussen (1986), das je nach Art der Aufgabe und Vertrautheit mit dem Subjekt drei mögliche Aktivitätsebenen vorsieht, die entweder auf fähigkeitsbasierten Gewohnheiten und Reflexen oder auf erlernten Regeln basieren -basierten Verfahren oder auf wissensbasierten Verfahren. Aber andere Modelle oder Theorien, die in den 1970er Jahren den Höhepunkt ihrer Popularität erreichten, werden weiterhin verwendet. Daher wird die Theorie der optimalen Kontrolle, die den Menschen als Kontrolleur von Diskrepanzen zwischen zugewiesenen und beobachteten Zielen betrachtet, manchmal immer noch auf kognitive Prozesse angewendet. Und die Modellierung mittels Netzwerken miteinander verbundener Aufgaben und Flussdiagrammen inspiriert weiterhin die Autoren der kognitiven Aufgabenanalyse; Abbildung 3 bietet eine vereinfachte Beschreibung der Verhaltenssequenzen in einer Energiekontrollaufgabe, wobei eine Hypothese über bestimmte mentale Operationen aufgestellt wird. All diese Versuche spiegeln das Anliegen der Forscher wider, nicht nur Elemente des Kontexts, sondern auch die Aufgabe selbst und die ihr zugrunde liegenden kognitiven Prozesse in derselben Beschreibung zusammenzuführen – und auch den dynamischen Charakter der Arbeit widerzuspiegeln.
Abbildung 3. Eine vereinfachte Beschreibung der Determinanten eines Verhaltensablaufs bei Energiesteuerungsaufgaben: ein Fall von inakzeptablem Energieverbrauch
Seit dem Aufkommen der wissenschaftlichen Arbeitsorganisation ist das Konzept der vorgeschriebenen Aufgabe negativ kritisiert worden, weil es so angesehen wurde, dass es den Arbeitnehmern Aufgaben auferlegte, die nicht nur ohne Rücksprache mit ihren Bedürfnissen entworfen wurden, sondern oft mit einer bestimmten Ausführungszeit einhergingen , eine Einschränkung, die von vielen Arbeitnehmern nicht begrüßt wird. Auch wenn der Auferlegungsaspekt heute eher flexibler geworden ist und auch wenn sich die Mitarbeiter häufiger an der Gestaltung von Aufgaben beteiligen, bleibt eine Aufgabenzuweisung für die Terminplanung notwendig und bleibt ein wesentlicher Bestandteil der Arbeitsorganisation. Die Quantifizierung von Zeit sollte nicht immer negativ empfunden werden. Sie ist ein wertvoller Indikator für die Arbeitsbelastung. Eine einfache, aber gängige Methode zur Messung des Zeitdrucks, der auf einen Arbeiter ausgeübt wird, besteht darin, den Quotienten aus der für die Erledigung einer Aufgabe benötigten Zeit dividiert durch die zur Verfügung stehende Zeit zu bestimmen. Je näher dieser Quotient an Eins liegt, desto größer ist der Druck (Wickens 1992). Darüber hinaus kann die Quantifizierung in einem flexiblen, aber angemessenen Personalmanagement eingesetzt werden. Nehmen wir den Fall von Krankenschwestern, wo die Technik der prädiktiven Analyse von Aufgaben verallgemeinert wurde, beispielsweise in der kanadischen Verordnung Planung der erforderlichen Pflege (PRN 80) (Kepenne 1984) oder eine seiner europäischen Varianten. Dank solcher Aufgabenlisten, begleitet von ihrer Bearbeitungszeit, kann man jeden Morgen unter Berücksichtigung der Anzahl der Patienten und ihres Gesundheitszustands einen Pflegeplan und eine Personalverteilung erstellen. Weit davon entfernt, eine Einschränkung zu sein, hat PRN 80 in einer Reihe von Krankenhäusern gezeigt, dass ein Mangel an Pflegepersonal besteht, da die Technik es ermöglicht, einen Unterschied (siehe Abbildung 4) zwischen dem Gewünschten und dem Beobachteten, d. h. zwischen, festzustellen die Anzahl der erforderlichen und der verfügbaren Mitarbeiter und sogar zwischen den geplanten Aufgaben und den durchgeführten Aufgaben. Die berechneten Zeiten sind nur Durchschnittswerte, und die Schwankungen der Situation machen sie nicht immer anwendbar, aber dieser negative Aspekt wird durch eine flexible Organisation minimiert, die Anpassungen akzeptiert und das Personal an diesen Anpassungen beteiligen lässt.
Abbildung 4. Diskrepanzen zwischen der Anzahl vorhandener und erforderlicher Mitarbeiter auf der Grundlage von PRN80
Die Aktivität, die Beweise und die Leistung
Eine Aktivität ist definiert als eine Reihe von Verhaltensweisen und Ressourcen, die vom Bediener verwendet werden, damit Arbeit stattfindet – das heißt, die Umwandlung oder Produktion von Gütern oder die Erbringung einer Dienstleistung. Diese Aktivität kann durch Beobachtung auf unterschiedliche Weise verstanden werden. Faverge (1972) hat vier Formen der Analyse beschrieben. Die erste ist eine Analyse in Bezug auf Gesten und haltungen, wo der Beobachter innerhalb der sichtbaren Tätigkeit des Bedieners Verhaltensklassen lokalisiert, die während der Arbeit erkennbar und wiederholt werden. Diese Aktivitäten sind oft mit einer genauen Reaktion gekoppelt: zum Beispiel der Herzfrequenz, die es uns ermöglicht, die mit jeder Aktivität verbundene körperliche Belastung einzuschätzen. Die zweite Form der Analyse bezieht sich auf Informationsaufnahme. Was durch direkte Beobachtung – oder mit Hilfe von Kameras oder Augenbewegungsaufzeichnern – entdeckt wird, ist die Reihe von Signalen, die der Bediener in dem ihn umgebenden Informationsfeld aufnimmt. Diese Analyse ist in der kognitiven Ergonomie besonders nützlich, um zu versuchen, die vom Bediener durchgeführte Informationsverarbeitung besser zu verstehen. Die dritte Art der Analyse bezieht sich auf Regulierung. Die Idee besteht darin, die vom Bediener durchgeführten Anpassungen der Aktivität zu identifizieren, um entweder mit Schwankungen in der Umgebung oder mit Änderungen seines eigenen Zustands fertig zu werden. Dort finden wir das direkte Eingreifen des Kontextes in die Analyse. Eines der am häufigsten zitierten Forschungsprojekte auf diesem Gebiet ist das von Sperandio (1972). Dieser Autor untersuchte die Tätigkeit von Fluglotsen und identifizierte wichtige Strategieänderungen während einer Zunahme des Flugverkehrs. Er interpretierte sie als Versuch, die Tätigkeit zu vereinfachen, indem er darauf abzielte, ein akzeptables Belastungsniveau beizubehalten und gleichzeitig den Anforderungen der Aufgabe gerecht zu werden. Die vierte ist eine Analyse in Bezug auf Denkprozesse. Diese Art der Analyse ist in der Ergonomie von hochautomatisierten Posts weit verbreitet. Tatsächlich erfordert die Gestaltung computergestützter Hilfen und insbesondere intelligenter Hilfen für den Bediener ein gründliches Verständnis der Art und Weise, wie der Bediener argumentiert, um bestimmte Probleme zu lösen. Die Argumentation bei der Planung, Antizipation und Diagnose war Gegenstand von Analysen, von denen ein Beispiel in Abbildung 5 zu finden ist. Hinweise auf geistige Aktivität können jedoch nur gefolgert werden. Abgesehen von bestimmten beobachtbaren Verhaltensaspekten wie Augenbewegungen und Problemlösungszeit greifen die meisten dieser Analysen auf die verbale Reaktion zurück. Besonderes Augenmerk wurde in den letzten Jahren auf das Wissen gelegt, das zur Durchführung bestimmter Aktivitäten erforderlich ist, wobei die Forscher versuchten, diese nicht von vornherein zu postulieren, sondern durch die Analyse selbst sichtbar zu machen.
Abbildung 5. Analyse der geistigen Aktivität. Strategien zur Steuerung von Prozessen mit langen Reaktionszeiten: Die Notwendigkeit computergestützter Unterstützung bei der Diagnose
Solche Bemühungen haben die Tatsache ans Licht gebracht, dass nahezu identische Leistungen mit sehr unterschiedlichem Kenntnisstand erzielt werden können, solange sich die Bediener ihrer Grenzen bewusst sind und an ihre Fähigkeiten angepasste Strategien anwenden. Daher wurden in unserer Studie über die Inbetriebnahme einer thermoelektrischen Anlage (De Keyser und Housiaux 1989) die Inbetriebnahmen sowohl von Ingenieuren als auch von Bedienern durchgeführt. Das mittels Interviews und Fragebögen erhobene theoretische und prozedurale Wissen dieser beiden Gruppen war sehr unterschiedlich. Insbesondere die Bediener hatten manchmal ein falsches Verständnis der Variablen in den funktionalen Verknüpfungen des Prozesses. Trotzdem waren die Leistungen der beiden Gruppen sehr eng. Die Betreiber berücksichtigten jedoch mehr Variablen, um die Kontrolle des Starts zu überprüfen, und führten häufigere Überprüfungen durch. Zu solchen Ergebnissen kam auch Amalberti (1991), der die Existenz von Metawissen erwähnte, das es Experten ermöglicht, ihre eigenen Ressourcen zu verwalten.
Was Nachweis der Tätigkeit ist angemessen zu entlocken? Ihre Art hängt, wie wir gesehen haben, eng von der geplanten Analyseform ab. Ihre Form variiert je nach methodischer Sorgfalt des Betrachters. Provoziert Beweise werden unterschieden spontan Beweise u begleitend für Folge Beweis. Generell sind, wenn es die Art der Arbeit zulässt, Begleit- und Spontanbeweise zu bevorzugen. Sie sind frei von verschiedenen Nachteilen wie der Unzuverlässigkeit des Gedächtnisses, der Störung durch den Beobachter, dem Effekt einer rationalisierenden Rekonstruktion seitens des Subjekts und so weiter. Um diese Unterscheidungen zu veranschaulichen, nehmen wir das Beispiel von Verbalisierungen. Spontane Verbalisierungen sind verbaler Austausch oder Monologe, die spontan geäußert werden, ohne vom Beobachter aufgefordert zu werden; Provozierte Verbalisierungen sind solche, die auf ausdrücklichen Wunsch des Beobachters erfolgen, wie etwa die in der kognitiven Literatur wohlbekannte Aufforderung an das Subjekt, „laut zu denken“. Beide Arten können in Echtzeit während der Arbeit durchgeführt werden und sind somit gleichzeitig.
Sie können auch nachträglich sein, wie in Interviews, oder die Verbalisierungen der Probanden, wenn sie sich Videobänder ihrer Arbeit ansehen. Was die Gültigkeit der Verbalisierungen betrifft, so sollte der Leser die Zweifel nicht ignorieren, die in dieser Hinsicht durch die Kontroverse zwischen Nisbett und De Camp Wilson (1977) und White (1988) aufgeworfen wurden, und die Vorsichtsmaßnahmen, die von zahlreichen Autoren vorgeschlagen wurden, die sich ihrer Bedeutung für die Studie bewusst waren der geistigen Aktivität angesichts der aufgetretenen methodischen Schwierigkeiten (Ericson und Simon 1984; Savoyant und Leplat 1983; Caverni 1988; Bainbridge 1986).
Die Organisation dieser Beweise, ihre Verarbeitung und ihre Formalisierung erfordern beschreibende Sprachen und manchmal Analysen, die über die Feldbeobachtung hinausgehen. Hypothetisch bleiben beispielsweise jene geistigen Aktivitäten, die aus den Beweisen erschlossen werden. Heute werden sie oft mit Sprachen beschrieben, die von künstlicher Intelligenz abgeleitet sind, wobei Repräsentationen in Form von Schemata, Produktionsregeln und verbindenden Netzwerken verwendet werden. Darüber hinaus ist der Einsatz computergestützter Simulationen – von Mikrowelten – zur Lokalisierung bestimmter mentaler Aktivitäten weit verbreitet, auch wenn die Gültigkeit der Ergebnisse solcher computergestützter Simulationen angesichts der Komplexität der industriellen Welt umstritten ist. Schließlich müssen wir die kognitiven Modelle bestimmter mentaler Aktivitäten erwähnen, die aus dem Feld extrahiert wurden. Zu den bekanntesten gehört die in ISPRA durchgeführte Diagnose des Betreibers eines Kernkraftwerks (Decortis und Cacciabue 1990) und die darin perfektionierte Planung des Kampfpiloten Centre d'études et de recherches de médecine aérospatiale (CERMA) (Amalberti et al. 1989).
Die Messung der Diskrepanzen zwischen der Leistung dieser Modelle und der von realen, lebenden Bedienern ist ein fruchtbares Gebiet in der Aktivitätsanalyse. Leistung ist das Ergebnis der Aktivität, die endgültige Antwort des Subjekts auf die Anforderungen der Aufgabe. Sie drückt sich auf der Ebene der Produktion aus: Produktivität, Qualität, Fehler, Vorfälle, Unfälle – und sogar, auf globalerer Ebene, Fehlzeiten oder Fluktuation. Sie muss aber auch auf individueller Ebene identifiziert werden: Auch der subjektive Ausdruck von Zufriedenheit, Stress, Müdigkeit oder Arbeitsbelastung und viele physiologische Reaktionen sind Leistungsindikatoren. Nur die Gesamtheit der Daten erlaubt eine Interpretation der Aktivität, also die Beurteilung, ob sie die angestrebten Ziele fördert oder nicht, während sie innerhalb menschlicher Grenzen bleibt. Es gibt eine Reihe von Normen, die den Betrachter bis zu einem gewissen Punkt leiten. Aber diese Normen sind es nicht gelegen– sie berücksichtigen nicht den Kontext, seine Schwankungen und den Zustand des Arbeitnehmers. Deshalb wird in der Designergonomie, auch wenn es Regeln, Normen und Modelle gibt, Designern empfohlen, das Produkt so früh wie möglich anhand von Prototypen zu testen und die Aktivität und Leistung der Benutzer zu evaluieren.
Einzel- oder Kollektivarbeit?
Während Arbeit in den allermeisten Fällen ein kollektiver Akt ist, konzentrieren sich die meisten Arbeitsanalysen auf Aufgaben oder individuelle Aktivitäten. Tatsache ist jedoch, dass die technologische Entwicklung ebenso wie die Arbeitsorganisation heute auf verteilte Arbeit setzt, sei es zwischen Arbeitern und Maschinen oder einfach innerhalb einer Gruppe. Welche Wege wurden von Autoren beschritten, um dieser Verteilung Rechnung zu tragen (Rasmussen, Pejtersen und Schmidts 1990)? Sie konzentrieren sich auf drei Aspekte: Struktur, Art des Austauschs und strukturelle Labilität.
Struktur
Unabhängig davon, ob wir Strukturen als Elemente der Analyse von Personen oder von Dienstleistungen oder sogar von verschiedenen Zweigen eines Unternehmens betrachten, die in einem Netzwerk arbeiten, bleibt die Beschreibung der sie verbindenden Verbindungen ein Problem. Wir sind sehr vertraut mit den Organigrammen innerhalb von Firmen, die die Autoritätsstruktur anzeigen und deren verschiedene Formen die Organisationsphilosophie der Firma widerspiegeln – sehr hierarchisch organisiert für eine Taylor-Struktur oder abgeflacht wie ein Rechen, sogar matrixartig für a flexiblere Struktur. Andere Beschreibungen verteilter Aktivitäten sind möglich: Ein Beispiel ist in Abbildung 6 dargestellt. In jüngerer Zeit hat die Notwendigkeit für Unternehmen, ihren Informationsaustausch auf globaler Ebene darzustellen, zu einem Umdenken in Bezug auf Informationssysteme geführt. Dank bestimmter Beschreibungssprachen – zum Beispiel Designschemata oder Entity-Relations-Attribute-Matrizen – kann die Beziehungsstruktur auf kollektiver Ebene heute sehr abstrakt beschrieben werden und als Sprungbrett für die Erstellung computergestützter Managementsysteme dienen .
Abbildung 6. Integriertes Lebenszyklusdesign
Das Wesen des Austauschs
Einfach nur eine Beschreibung der Links zu haben, die die Entitäten vereinen, sagt wenig über den Inhalt des Austauschs selbst aus; Natürlich kann die Art der Beziehung spezifiziert werden – Bewegung von Ort zu Ort, Informationstransfer, hierarchische Abhängigkeit und so weiter –, aber das ist oft ziemlich unzureichend. Die Analyse der Kommunikation innerhalb von Teams ist zu einem bevorzugten Mittel geworden, um das eigentliche Wesen der kollektiven Arbeit zu erfassen, einschließlich der erwähnten Themen, der Schaffung einer gemeinsamen Sprache in einem Team, der Änderung der Kommunikation unter kritischen Umständen und so weiter (Tardieu, Nanci und Pascot 1985; Rolland 1986; Navarro 1990; Van Daele 1992; Lacoste 1983; Moray, Sanderson und Vincente 1989). Die Kenntnis dieser Wechselwirkungen ist besonders nützlich für die Erstellung von Computerwerkzeugen, insbesondere Entscheidungshilfen zum Verständnis von Fehlern. Die verschiedenen Stadien und die methodologischen Schwierigkeiten im Zusammenhang mit der Verwendung dieser Nachweise wurden von Falzon (1991) gut beschrieben.
Strukturelle Labilität
Es ist eher die Arbeit an Aktivitäten als an Aufgaben, die das Feld der strukturellen Labilität eröffnet hat – das heißt, der ständigen Neukonfigurationen kollektiver Arbeit unter dem Einfluss kontextueller Faktoren. Studien wie die von Rogalski (1991), die über einen langen Zeitraum die kollektiven Aktivitäten im Umgang mit Waldbränden in Frankreich analysierten, und Bourdon und Weill Fassina (1994), die die Organisationsstruktur untersuchten, die für den Umgang mit Eisenbahnunfällen eingerichtet wurde, sind beides sehr informativ. Sie zeigen deutlich, wie der Kontext die Struktur des Austauschs, die Anzahl und Art der beteiligten Akteure, die Art der Kommunikation und die Anzahl der für die Arbeit wesentlichen Parameter prägt. Je mehr dieser Kontext schwankt, desto weiter entfernen sich die fixierten Aufgabenbeschreibungen von der Realität. Die Kenntnis dieser Labilität und ein besseres Verständnis der darin ablaufenden Phänomene sind unerlässlich, um für das Unvorhersehbare zu planen und um diejenigen, die in einer Krise an kollektiver Arbeit beteiligt sind, besser zu schulen.
Schlussfolgerungen
Die verschiedenen beschriebenen Phasen der Arbeitsanalyse sind ein iterativer Teil jedes Human-Factors-Designzyklus (siehe Abbildung 6). Bei diesem Entwurf eines technischen Objekts, sei es ein Werkzeug, eine Arbeitsstation oder eine Fabrik, bei der menschliche Faktoren berücksichtigt werden, werden rechtzeitig bestimmte Informationen benötigt. Im Allgemeinen ist der Beginn des Entwurfszyklus durch einen Bedarf an Daten gekennzeichnet, die Umweltbeschränkungen, die Art der auszuführenden Arbeiten und die verschiedenen Merkmale der Benutzer betreffen. Diese ersten Informationen ermöglichen es, die Spezifikationen des Objekts zu erstellen, um die Arbeitsanforderungen zu berücksichtigen. Aber das ist in gewisser Weise nur ein grobes Modell im Vergleich zur realen Arbeitssituation. Dies erklärt, warum Modelle und Prototypen notwendig sind, die von Anfang an nicht die Arbeitsplätze selbst, sondern die Aktivitäten der zukünftigen Nutzer evaluieren lassen. Folglich kann die Gestaltung der Bilder auf einem Monitor in einem Kontrollraum zwar auf einer gründlichen kognitiven Analyse der zu erledigenden Arbeit basieren, aber nur eine datenbasierte Analyse der Aktivität ermöglicht eine genaue Bestimmung, ob der Prototyp tatsächlich funktioniert in der konkreten Arbeitssituation von Nutzen sein (Van Daele 1988). Ist das fertige technische Objekt in Betrieb genommen, wird mehr Wert auf die Leistungsfähigkeit der Nutzer und auf dysfunktionale Situationen wie Unfälle oder menschliches Versagen gelegt. Das Sammeln dieser Art von Informationen ermöglicht es, die letzten Korrekturen vorzunehmen, die die Zuverlässigkeit und Verwendbarkeit des fertiggestellten Objekts erhöhen. Sowohl die Nuklearindustrie als auch die Luftfahrtindustrie dienen als Beispiel: Bei der betrieblichen Rückmeldung geht es darum, jeden auftretenden Vorfall zu melden. Auf diese Weise schließt sich der Designkreislauf.
Der menschliche Organismus stellt ein komplexes biologisches System auf verschiedenen Organisationsebenen dar, von der molekular-zellulären Ebene bis zu den Geweben und Organen. Der Organismus ist ein offenes System, das durch zahlreiche biochemische Reaktionen in einem dynamischen Gleichgewicht Stoff und Energie mit der Umwelt austauscht. Die Umwelt kann verschmutzt oder mit verschiedenen Giftstoffen kontaminiert sein.
Das Eindringen von Molekülen oder Ionen von Giftstoffen aus der Arbeits- oder Lebensumgebung in ein derart stark koordiniertes biologisches System kann reversibel oder irreversibel normale zelluläre biochemische Prozesse stören oder sogar die Zelle verletzen und zerstören (siehe „Zellschädigung und Zelltod“).
Das Eindringen eines Giftstoffes aus der Umwelt zu den Orten seiner toxischen Wirkung im Organismus kann in drei Phasen eingeteilt werden:
Hier konzentrieren wir uns ausschließlich auf die toxikokinetischen Prozesse im menschlichen Organismus nach Exposition gegenüber toxischen Stoffen in der Umwelt.
Die in der Umwelt vorhandenen Moleküle oder Ionen von Giftstoffen dringen je nach Eintrittspunkt über Haut und Schleimhäute oder die Epithelzellen der Atemwege und des Magen-Darm-Traktes in den Organismus ein. Das bedeutet, dass Moleküle und Ionen von Giftstoffen die Zellmembranen dieser biologischen Systeme sowie ein kompliziertes System von Endomembranen innerhalb der Zelle durchdringen müssen.
Alle toxikokinetischen und toxikodynamischen Prozesse finden auf molekular-zellulärer Ebene statt. Zahlreiche Faktoren beeinflussen diese Prozesse und diese können in zwei grundlegende Gruppen eingeteilt werden:
Physikalisch-chemische Eigenschaften von Giftstoffen
1854 begann der russische Toxikologe EV Pelikan mit Studien über die Beziehung zwischen der chemischen Struktur einer Substanz und ihrer biologischen Aktivität – der Struktur-Aktivitäts-Beziehung (SAR). Die chemische Struktur bestimmt direkt die physikalisch-chemischen Eigenschaften, von denen einige für die biologische Aktivität verantwortlich sind.
Zur Bestimmung der chemischen Struktur können zahlreiche Parameter als Deskriptoren ausgewählt werden, die sich in verschiedene Gruppen einteilen lassen:
1. Physikalisch-chemisch:
2. Sterisch: Molekülvolumen, Form und Oberfläche, Substrukturform, molekulare Reaktivität usw.
3. Strukturell: Zahl der Bindungen Zahl der Ringe (bei polycyclischen Verbindungen), Ausmaß der Verzweigung etc.
Für jeden Giftstoff muss eine Reihe von Deskriptoren ausgewählt werden, die sich auf einen bestimmten Wirkungsmechanismus beziehen. Aus toxikokinetischer Sicht sind jedoch zwei Parameter von allgemeiner Bedeutung für alle Giftstoffe:
Bei eingeatmeten Stäuben und Aerosolen beeinflussen auch Partikelgröße, Form, Oberfläche und Dichte deren Toxikokinetik und Toxikodynamik.
Struktur und Eigenschaften von Membranen
Die eukaryotische Zelle menschlicher und tierischer Organismen ist von einer zytoplasmatischen Membran umgeben, die den Stofftransport reguliert und die Zellhomöostase aufrechterhält. Auch die Zellorganellen (Zellkern, Mitochondrien) besitzen Membranen. Das Zytoplasma der Zelle ist durch komplizierte Membranstrukturen, das endoplasmatische Retikulum und den Golgi-Komplex (Endomembranen) kompartimentiert. Alle diese Membranen sind strukturell gleich, unterscheiden sich jedoch im Gehalt an Lipiden und Proteinen.
Das strukturelle Gerüst von Membranen ist eine Doppelschicht aus Lipidmolekülen (Phospholipide, Sphingolipide, Cholesterin). Das Rückgrat eines Phospholipidmoleküls ist Glycerin, wobei zwei seiner -OH-Gruppen mit aliphatischen Fettsäuren mit 16 bis 18 Kohlenstoffatomen verestert sind und die dritte Gruppe mit einer Phosphatgruppe und einer stickstoffhaltigen Verbindung (Cholin, Ethanolamin, Serin) verestert ist. In Sphyngolipiden ist Sphyngosin die Base.
Das Lipidmolekül ist amphipatisch, weil es aus einem polaren hydrophilen „Kopf“ (Aminoalkohol, Phosphat, Glycerin) und einem unpolaren Zwillings-„Schwanz“ (Fettsäuren) besteht. Die Lipiddoppelschicht ist so angeordnet, dass die hydrophilen Köpfe die äußere und innere Oberfläche der Membran bilden und die lipophilen Schwänze in Richtung des Membraninneren gestreckt werden, das Wasser, verschiedene Ionen und Moleküle enthält.
Proteine und Glykoproteine werden in die Lipiddoppelschicht eingefügt (intrinsische Proteine) oder an die Membranoberfläche gebunden (extrinsische Proteine). Diese Proteine tragen zur strukturellen Integrität der Membran bei, können aber auch als Enzyme, Träger, Porenwände oder Rezeptoren fungieren.
Die Membran stellt ein dynamisches Gebilde dar, das je nach funktionellem Bedarf mit einem unterschiedlichen Anteil an Lipiden und Proteinen abgebaut und wieder aufgebaut werden kann.
Die Regulation des Stofftransports in die und aus der Zelle gehört zu den Grundfunktionen der äußeren und inneren Membranen.
Einige lipophile Moleküle passieren direkt die Lipiddoppelschicht. Hydrophile Moleküle und Ionen werden über Poren transportiert. Membranen reagieren auf sich ändernde Bedingungen, indem sie bestimmte Poren unterschiedlicher Größe öffnen oder verschließen.
Am Transport von Stoffen, einschließlich Giftstoffen, durch Membranen sind folgende Prozesse und Mechanismen beteiligt:
Aktive Prozesse:
Rundfunk
Dies repräsentiert die Bewegung von Molekülen und Ionen durch Lipiddoppelschichten oder Poren von einem Bereich mit hoher Konzentration oder hohem elektrischem Potential zu einem Bereich mit niedriger Konzentration oder niedrigem Potential („bergab“). Der Unterschied in der Konzentration oder der elektrischen Ladung ist die treibende Kraft, die die Intensität des Flusses in beide Richtungen beeinflusst. Im Gleichgewichtszustand ist der Zufluss gleich dem Abfluss. Die Diffusionsrate folgt dem Fick'schen Gesetz, das besagt, dass sie direkt proportional zur verfügbaren Oberfläche der Membran, dem Unterschied im Konzentrationsgradienten (Ladungsgradienten) und dem charakteristischen Diffusionskoeffizienten und umgekehrt proportional zur Membrandicke ist.
Kleine lipophile Moleküle passieren gemäß dem Nernst-Verteilungskoeffizienten leicht die Lipidschicht der Membran.
Große lipophile Moleküle, wasserlösliche Moleküle und Ionen werden wässrige Porenkanäle für ihren Durchgang verwenden. Größe und Stereokonfiguration beeinflussen den Durchgang von Molekülen. Bei Ionen ist neben der Größe auch die Ladungsart entscheidend. Die Proteinmoleküle der Porenwände können positiv oder negativ aufgeladen werden. Enge Poren neigen dazu, selektiv zu sein – negativ geladene Liganden erlauben nur den Durchgang für Kationen, und positiv geladene Liganden erlauben nur den Durchgang für Anionen. Mit der Vergrößerung des Porendurchmessers dominiert die hydrodynamische Strömung, die gemäß dem Gesetz von Poiseuille den freien Durchgang von Ionen und Molekülen ermöglicht. Diese Filtration ist eine Folge des osmotischen Gradienten. In einigen Fällen können Ionen bestimmte komplexe Moleküle durchdringen –Ionophore– die von Mikroorganismen mit antibiotischer Wirkung produziert werden können (Nonactin, Valinomycin, Gramacidin etc.).
Erleichterte oder katalysierte Diffusion
Dies erfordert das Vorhandensein eines Trägers in der Membran, normalerweise eines Proteinmoleküls (Permease). Der Träger bindet selektiv Substanzen, die einem Substrat-Enzym-Komplex ähneln. Ähnliche Moleküle (einschließlich Giftstoffe) können um den spezifischen Träger konkurrieren, bis dessen Sättigungspunkt erreicht ist. Giftstoffe können um den Träger konkurrieren, und wenn sie irreversibel daran gebunden sind, ist der Transport blockiert. Die Transportrate ist charakteristisch für jeden Trägertyp. Erfolgt der Transport in beide Richtungen, spricht man von Austauschdiffusion.
Aktiven Transport
Für den Transport einiger zelllebenswichtiger Substanzen wird ein spezieller Trägertyp verwendet, der gegen das Konzentrationsgefälle bzw. elektrische Potential („bergauf“) transportiert wird. Der Träger ist sehr stereospezifisch und kann gesättigt sein.
Für den Bergauftransport wird Energie benötigt. Die notwendige Energie wird durch katalytische Spaltung von ATP-Molekülen zu ADP durch das Enzym Adenosintriphosphatase (ATP-ase) gewonnen.
Giftstoffe können diesen Transport durch kompetitive oder nicht-kompetitive Hemmung des Trägers oder durch Hemmung der ATP-ase-Aktivität stören.
Endozytose
Endozytose ist definiert als ein Transportmechanismus, bei dem die Zellmembran Material durch Einhüllen umgibt, um ein Vesikel zu bilden, das es durch die Zelle transportiert. Wenn das Material flüssig ist, wird der Prozess bezeichnet Pinozytose. In manchen Fällen ist das Material an einen Rezeptor gebunden und dieser Komplex wird durch ein Membranvesikel transportiert. Diese Art des Transports wird insbesondere von Epithelzellen des Gastrointestinaltrakts und Zellen der Leber und der Nieren verwendet.
Aufnahme von Giftstoffen
Menschen sind im Arbeits- und Lebensumfeld zahlreichen Schadstoffen ausgesetzt, die über drei Haupteintrittspforten in den menschlichen Organismus eindringen können:
Bei Expositionen in der Industrie stellt die Inhalation den dominierenden Eintragsweg von Schadstoffen dar, gefolgt von der dermalen Penetration. In der Landwirtschaft ist die Pestizidexposition durch dermale Aufnahme fast gleich der kombinierten Inhalation und dermalen Penetration. Die allgemeine Bevölkerung wird hauptsächlich durch Aufnahme von kontaminierten Lebensmitteln, Wasser und Getränken, dann durch Inhalation und seltener durch Hautpenetration exponiert.
Aufnahme über die Atemwege
Die Resorption in der Lunge ist der Hauptaufnahmeweg für zahlreiche luftgetragene Giftstoffe (Gase, Dämpfe, Rauch, Nebel, Rauch, Stäube, Aerosole usw.).
Der Respirationstrakt (RT) stellt ein ideales Gasaustauschsystem dar, das eine Membran mit einer Oberfläche von 30 m besitzt2 (Ablauf) bis 100m2 (tiefe Inspiration), hinter der sich ein Netzwerk von etwa 2,000 km Kapillaren befindet. Das evolutionär gewachsene System ist in einem relativ kleinen, durch Rippen geschützten Raum (Brusthöhle) untergebracht.
Anatomisch und physiologisch kann der RT in drei Kompartimente unterteilt werden:
Hydrophile Giftstoffe werden vom Epithel der Nasopharyngealregion leicht absorbiert. Das gesamte Epithel der NP- und TB-Region ist von einem Wasserfilm bedeckt. Lipophile Giftstoffe werden teilweise in NP und TB absorbiert, aber hauptsächlich in den Alveolen durch Diffusion durch alveolokapillare Membranen. Die Absorptionsrate hängt von der Lungenventilation, dem Herzzeitvolumen (Blutfluss durch die Lunge), der Löslichkeit des Giftstoffs im Blut und seiner Stoffwechselrate ab.
In den Alveolen findet ein Gasaustausch statt. Die Alveolarwand besteht aus einem Epithel, einem interstitiellen Gerüst aus Basalmembran, Bindegewebe und dem Kapillarendothel. Durch diese Schichten, die eine Dicke von etwa 0.8 μm aufweisen, erfolgt die Diffusion von Schadstoffen sehr schnell. In den Lungenbläschen wird Giftstoff aus der Luftphase in die flüssige Phase (Blut) überführt. Die Absorptionsrate (Luft-Blut-Verteilung) eines Giftstoffes hängt von seiner Konzentration in der Alveolarluft und dem Nernst-Verteilungskoeffizienten für Blut (Löslichkeitskoeffizient) ab.
Im Blut kann der Giftstoff durch einfache physikalische Prozesse in der flüssigen Phase gelöst oder nach chemischer Affinität oder durch Adsorption an die Blutzellen und/oder Plasmabestandteile gebunden werden. Der Wassergehalt von Blut beträgt 75 % und daher zeigen hydrophile Gase und Dämpfe eine hohe Löslichkeit in Plasma (z. B. Alkohole). Lipophile Giftstoffe (z. B. Benzol) sind normalerweise an Zellen oder Makromoleküle wie Albumin gebunden.
Von Beginn der Exposition in der Lunge an laufen zwei gegensätzliche Prozesse ab: Absorption und Desorption. Das Gleichgewicht zwischen diesen Prozessen hängt von der Giftstoffkonzentration in der Alveolarluft und im Blut ab. Zu Beginn der Exposition beträgt die Giftstoffkonzentration im Blut 0 und die Retention im Blut nahezu 100 %. Bei fortgesetzter Exposition stellt sich ein Gleichgewicht zwischen Absorption und Desorption ein. Hydrophile Giftstoffe erreichen schnell ein Gleichgewicht, und die Absorptionsrate hängt eher von der Lungenventilation als vom Blutfluss ab. Lipophile Giftstoffe benötigen eine längere Zeit, um ein Gleichgewicht zu erreichen, und hier bestimmt der Fluss von ungesättigtem Blut die Absorptionsrate.
Die Ablagerung von Partikeln und Aerosolen im RT hängt von physikalischen und physiologischen Faktoren sowie der Partikelgröße ab. Kurz gesagt, je kleiner das Partikel ist, desto tiefer dringt es in den RT ein.
Eine relativ konstante geringe Retention von Staubpartikeln in der Lunge von hochexponierten Personen (z. B. Bergleuten) legt die Existenz eines sehr effizienten Systems zur Entfernung von Partikeln nahe. Im oberen Teil des RT (tracheo-bronchial) übernimmt eine mukoziliäre Decke die Clearance. Im pulmonalen Teil wirken drei verschiedene Mechanismen: (1) mukoziliäre Decke, (2) Phagozytose und (3) direkte Penetration von Partikeln durch die Alveolarwand.
Die ersten 17 der 23 Verzweigungen des Tracheobronchialbaums besitzen bewimperte Epithelzellen. Durch ihre Schläge bewegen diese Zilien ständig eine Schleimdecke in Richtung Mund. Auf dieser mukoziliären Decke abgelagerte Partikel werden in den Mund geschluckt (Ingestion). Eine Schleimdecke bedeckt auch die Oberfläche des Alveolarepithels und bewegt sich in Richtung der mukoziliären Decke. Zusätzlich verschlingen die spezialisierten beweglichen Zellen – Fresszellen – Partikel und Mikroorganismen in den Alveolen und wandern in zwei mögliche Richtungen:
Resorption über den Magen-Darm-Trakt
Giftstoffe können bei versehentlichem Verschlucken, Einnahme von kontaminierten Speisen und Getränken oder Verschlucken von aus dem RT entfernten Partikeln aufgenommen werden.
Der gesamte Verdauungskanal, von der Speiseröhre bis zum Anus, ist im Grunde gleich aufgebaut. Eine Schleimschicht (Epithel) wird von Bindegewebe und dann von einem Netzwerk aus Kapillaren und glatten Muskeln gestützt. Das Oberflächenepithel des Magens ist stark zerknittert, um die Absorptions-/Sekretionsoberfläche zu vergrößern. Im Darmbereich befinden sich zahlreiche kleine Vorsprünge (Zotten), die durch „Einpumpen“ Material aufnehmen können. Die aktive Absorptionsfläche im Darm beträgt etwa 100 m2.
Im Magen-Darm-Trakt (GIT) sind alle Absorptionsprozesse sehr aktiv:
Einige toxische Metallionen verwenden spezielle Transportsysteme für essentielle Elemente: Thallium, Kobalt und Mangan verwenden das Eisensystem, während Blei das Calciumsystem zu verwenden scheint.
Viele Faktoren beeinflussen die Absorptionsrate von Giftstoffen in verschiedenen Teilen des GIT:
Erwähnenswert ist auch der enterohepatische Kreislauf. Polare Giftstoffe und/oder Metaboliten (Glucuronide und andere Konjugate) werden mit der Galle in den Zwölffingerdarm ausgeschieden. Hier führen die Enzyme der Mikroflora eine Hydrolyse durch und freigesetzte Produkte können resorbiert und durch die Pfortader in die Leber transportiert werden. Dieser Mechanismus ist bei hepatotoxischen Substanzen sehr gefährlich und ermöglicht deren vorübergehende Anreicherung in der Leber.
Im Falle von Giftstoffen, die in der Leber zu weniger toxischen oder nicht toxischen Metaboliten biotransformiert werden, kann die Einnahme eine weniger gefährliche Eintrittspforte darstellen. Nach Resorption im GIT werden diese Giftstoffe über die Pfortader zur Leber transportiert und können dort durch Biotransformation teilweise entgiftet werden.
Aufnahme durch die Haut (dermal, perkutan)
Die Haut (1.8 m2 der Oberfläche bei einem erwachsenen Menschen) bedeckt zusammen mit den Schleimhäuten der Körperöffnungen die Körperoberfläche. Es stellt eine Barriere gegen physikalische, chemische und biologische Wirkstoffe dar, erhält die Integrität und Homöostase des Körpers und erfüllt viele andere physiologische Aufgaben.
Grundsätzlich besteht die Haut aus drei Schichten: Epidermis, echte Haut (Dermis) und Unterhautgewebe (Hypodermis). Aus toxikologischer Sicht ist hier vor allem die Epidermis von Interesse. Es besteht aus vielen Schichten von Zellen. Eine verhornte Oberfläche aus abgeflachten, toten Zellen (Stratum corneum) ist die oberste Schicht, unter der sich eine durchgehende Schicht aus lebenden Zellen (Stratum corneum compactum) befindet, gefolgt von einer typischen Lipidmembran, und dann von Stratum lucidum, Stratum gramulosum und Stratum Schleimhaut. Die Lipidmembran stellt eine Schutzbarriere dar, doch in behaarten Hautpartien dringen sowohl Haarfollikel als auch Schweißdrüsenkanäle durch sie hindurch. Daher kann eine dermale Absorption durch die folgenden Mechanismen erfolgen:
Die Absorptionsrate durch die Haut hängt von vielen Faktoren ab:
Transport von Giftstoffen durch Blut und Lymphe
Nach Aufnahme durch eine dieser Eintrittspforten gelangen Giftstoffe ins Blut, in die Lymphe oder in andere Körperflüssigkeiten. Das Blut stellt das Hauptvehikel für den Transport von Giftstoffen und ihren Metaboliten dar.
Das Blut ist ein zirkulierendes Flüssigkeitsorgan, das den notwendigen Sauerstoff und lebenswichtige Substanzen zu den Zellen transportiert und Abfallprodukte des Stoffwechsels abtransportiert. Blut enthält auch Zellbestandteile, Hormone und andere Moleküle, die an vielen physiologischen Funktionen beteiligt sind. Blut fließt in einem relativ gut geschlossenen Hochdruck-Kreislaufsystem aus Blutgefäßen, angetrieben durch die Aktivität des Herzens. Aufgrund des hohen Drucks tritt Flüssigkeit aus. Das Lymphsystem stellt das Abflusssystem in Form eines feinen Netzes aus kleinen, dünnwandigen Lymphkapillaren dar, die sich durch die Weichteile und Organe verzweigen.
Blut ist eine Mischung aus flüssiger Phase (Plasma, 55 %) und festen Blutkörperchen (45 %). Plasma enthält Proteine (Albumine, Globuline, Fibrinogen), organische Säuren (Milchsäure, Glutaminsäure, Zitronensäure) und viele andere Substanzen (Lipide, Lipoproteine, Glykoproteine, Enzyme, Salze, Xenobiotika usw.). Zu den Blutzellenelementen gehören Erythrozyten (Er), Leukozyten, Retikulozyten, Monozyten und Blutplättchen.
Giftstoffe werden als Moleküle und Ionen absorbiert. Einige Giftstoffe bilden bei Blut-pH Kolloidpartikel als dritte Form in dieser Flüssigkeit. Moleküle, Ionen und Kolloide von Giftstoffen haben verschiedene Transportmöglichkeiten im Blut:
Die meisten Giftstoffe im Blut liegen teilweise in freiem Zustand im Plasma und teilweise an Erythrozyten und Plasmabestandteile gebunden vor. Die Verteilung hängt von der Affinität der Giftstoffe zu diesen Bestandteilen ab. Alle Fraktionen befinden sich in einem dynamischen Gleichgewicht.
Einige Giftstoffe werden von den Blutelementen transportiert – meist von Erythrozyten, sehr selten von Leukozyten. Giftstoffe können auf der Oberfläche von Er adsorbiert werden oder können an die Liganden von Stroma binden. Wenn sie in Er eindringen, können sie an das Häm (z. B. Kohlenmonoxid und Selen) oder an das Globin (Sb111, Bisschen210). Einige Giftstoffe, die von Er transportiert werden, sind Arsen, Cäsium, Thorium, Radon, Blei und Natrium. Sechswertiges Chrom wird ausschließlich an das Er und dreiwertiges Chrom an die Proteine des Plasmas gebunden. Bei Zink tritt eine Konkurrenz zwischen Er und Plasma auf. Etwa 96 % des Bleis werden von Er transportiert. Organisches Quecksilber wird hauptsächlich an Er gebunden und anorganisches Quecksilber wird hauptsächlich von Plasmaalbumin getragen. Kleine Fraktionen von Beryllium, Kupfer, Tellur und Uran werden von Er getragen.
Die meisten Giftstoffe werden durch Plasma oder Plasmaproteine transportiert. Viele Elektrolyte liegen als Ionen in einem Gleichgewicht mit nicht-dissoziierten Molekülen vor, die frei oder an die Plasmafraktionen gebunden sind. Diese Ionenfraktion von Giftstoffen ist sehr diffundierbar und dringt durch die Kapillarwände in Gewebe und Organe ein. Gase und Dämpfe können im Plasma gelöst werden.
Plasmaproteine besitzen eine Gesamtoberfläche von etwa 600 bis 800 km2 zur Aufnahme von Giftstoffen angeboten. Albuminmoleküle besitzen etwa 109 kationische und 120 anionische Liganden, die Ionen zur Verfügung stehen. Viele Ionen werden teilweise von Albumin getragen (z. B. Kupfer, Zink und Cadmium), ebenso solche Verbindungen wie Dinitro- und ortho-Cresole, Nitro- und halogenierte Derivate aromatischer Kohlenwasserstoffe und Phenole.
Globulinmoleküle (Alpha und Beta) transportieren kleine Giftstoffmoleküle sowie einige Metallionen (Kupfer, Zink und Eisen) und Kolloidpartikel. Fibrinogen zeigt Affinität zu bestimmten kleinen Molekülen. An der Bindung von Giftstoffen an Plasmaproteine können viele Arten von Bindungen beteiligt sein: Van-der-Waals-Kräfte, Anziehung von Ladungen, Assoziation zwischen polaren und unpolaren Gruppen, Wasserstoffbrücken, kovalente Bindungen.
Plasmalipoproteine transportieren lipophile Giftstoffe wie PCBs. Auch die anderen Plasmafraktionen dienen als Transportvehikel. Die Affinität von Giftstoffen zu Plasmaproteinen legt ihre Affinität zu Proteinen in Geweben und Organen während der Verteilung nahe.
Organische Säuren (Milch-, Glutamin-, Zitronensäure) bilden mit einigen Giftstoffen Komplexe. Erdalkalien und seltene Erden sowie einige schwere Elemente in Form von Kationen werden auch mit organischen Oxy- und Aminosäuren komplexiert. Alle diese Komplexe sind normalerweise diffundierbar und verteilen sich leicht in Geweben und Organen.
Physiologische Chelatbildner im Plasma wie Transferrin und Metallothionein konkurrieren mit organischen Säuren und Aminosäuren um Kationen, um stabile Chelate zu bilden.
Diffusionsfähige freie Ionen, einige Komplexe und einige freie Moleküle werden leicht aus dem Blut in Gewebe und Organe entfernt. Der freie Anteil an Ionen und Molekülen steht in einem dynamischen Gleichgewicht mit dem gebundenen Anteil. Die Konzentration eines Giftstoffs im Blut bestimmt die Rate seiner Verteilung in Gewebe und Organe oder seine Mobilisierung aus diesen in das Blut.
Verteilung von Giftstoffen im Organismus
Der menschliche Organismus kann wie folgt unterteilt werden Abteilen. (1) innere Organe, (2) Haut und Muskeln, (3) Fettgewebe, (4) Bindegewebe und Knochen. Diese Klassifizierung basiert hauptsächlich auf dem Grad der vaskulären (Blut-) Perfusion in absteigender Reihenfolge. Beispielsweise erhalten innere Organe (einschließlich des Gehirns), die nur 12 % des gesamten Körpergewichts ausmachen, etwa 75 % des gesamten Blutvolumens. Andererseits erhalten Bindegewebe und Knochen (15 % des gesamten Körpergewichts) nur ein Prozent des gesamten Blutvolumens.
Die gut durchbluteten inneren Organe erreichen in der Regel in kürzester Zeit die höchste Schadstoffkonzentration sowie ein Gleichgewicht zwischen Blut und diesem Kompartiment. Die Aufnahme von Giftstoffen durch weniger durchblutete Gewebe ist viel langsamer, aber die Retention ist höher und die Verweildauer aufgrund der geringen Durchblutung viel länger (Akkumulation).
Drei Komponenten sind für die intrazelluläre Verteilung von Giftstoffen von großer Bedeutung: Gehalt an Wasser, Lipiden und Proteinen in den Zellen verschiedener Gewebe und Organe. Die oben erwähnte Reihenfolge der Kompartimente folgt auch eng einem abnehmenden Wassergehalt in ihren Zellen. Hydrophile Giftstoffe werden schneller in Körperflüssigkeiten und Zellen mit hohem Wassergehalt verteilt, lipophile Giftstoffe in Zellen mit höherem Lipidgehalt (Fettgewebe).
Der Organismus besitzt einige Barrieren, die das Eindringen einiger Gruppen von Giftstoffen, meist hydrophil, in bestimmte Organe und Gewebe beeinträchtigen, wie zum Beispiel:
Wie bereits erwähnt, stehen nur die freien Formen von Giftstoffen im Plasma (Moleküle, Ionen, Kolloide) für die Penetration durch die an der Verteilung beteiligten Kapillarwände zur Verfügung. Diese freie Fraktion steht in einem dynamischen Gleichgewicht mit der gebundenen Fraktion. Die Konzentration von Giftstoffen im Blut befindet sich in einem dynamischen Gleichgewicht mit ihrer Konzentration in Organen und Geweben, was die Retention (Akkumulation) oder Mobilisierung aus ihnen bestimmt.
Bei der Verteilung spielen der Zustand des Organismus, der Funktionszustand der Organe (insbesondere die neurohumorale Regulation), der Hormonhaushalt und andere Faktoren eine Rolle.
Die Retention des Giftstoffs in einem bestimmten Kompartiment ist im Allgemeinen vorübergehend und es kann zu einer Umverteilung in andere Gewebe kommen. Retention und Akkumulation basieren auf der Differenz zwischen den Absorptions- und Eliminationsraten. Die Verweildauer in einem Kompartiment wird durch die biologische Halbwertszeit ausgedrückt. Dies ist das Zeitintervall, in dem 50 % des Giftstoffs aus dem Gewebe oder Organ entfernt und neu verteilt, verlagert oder aus dem Organismus ausgeschieden werden.
Bei der Verteilung und Retention in verschiedenen Organen und Geweben finden Biotransformationsprozesse statt. Die Biotransformation erzeugt polarere, hydrophilere Metaboliten, die leichter eliminiert werden können. Eine geringe Biotransformationsrate eines lipophilen Giftstoffs führt im Allgemeinen zu dessen Akkumulation in einem Kompartiment.
Die Giftstoffe lassen sich nach ihrer Affinität, überwiegenden Retention und Akkumulation in einem bestimmten Kompartiment in vier Hauptgruppen einteilen:
Akkumulation in lipidreichen Geweben
Der „Normalmann“ mit 70 kg Körpergewicht enthält etwa 15 % des Körpergewichts in Form von Fettgewebe, das mit Übergewicht auf 50 % ansteigt. Diese Lipidfraktion ist jedoch nicht gleichmäßig verteilt. Das Gehirn (ZNS) ist ein lipidreiches Organ, und periphere Nerven sind mit einer lipidreichen Myelinscheide und Schwann-Zellen umhüllt. Alle diese Gewebe bieten Möglichkeiten zur Akkumulation von lipophilen Giftstoffen.
Auf dieses Kompartiment werden zahlreiche Nichtelektrolyte und unpolare Giftstoffe mit geeignetem Nernst-Verteilungskoeffizienten verteilt, sowie zahlreiche organische Lösungsmittel (Alkohole, Aldehyde, Ketone usw.), chlorierte Kohlenwasserstoffe (einschließlich chlororganischer Insektizide wie DDT), einige Inertgase (Radon) usw.
Fettgewebe akkumuliert Giftstoffe aufgrund seiner geringen Vaskularisierung und geringeren Biotransformationsrate. Hier kann die Akkumulation von Giftstoffen eine Art vorübergehende „Neutralisierung“ darstellen, da Angriffspunkte für die toxische Wirkung fehlen. Aufgrund der Möglichkeit der Mobilisierung von Giftstoffen aus diesem Kompartiment zurück in den Kreislauf besteht jedoch immer eine potentielle Gefahr für den Organismus.
Die Ablagerung von Giftstoffen im Gehirn (ZNS) oder im lipidreichen Gewebe der Myelinscheide des peripheren Nervensystems ist sehr gefährlich. Die Nervengifte lagern sich hier direkt neben ihren Angriffspunkten ab. Giftstoffe, die im lipidreichen Gewebe der endokrinen Drüsen zurückgehalten werden, können hormonelle Störungen hervorrufen. Trotz der Blut-Hirn-Schranke gelangen zahlreiche Neurotoxine lipophiler Natur ins Gehirn (ZNS): Anästhetika, organische Lösungsmittel, Pestizide, Tetraethylblei, Organoquecksilber usw.
Retention im retikuloendothelialen System
In jedem Gewebe und Organ ist ein gewisser Prozentsatz an Zellen auf phagozytische Aktivität spezialisiert und verschlingt Mikroorganismen, Partikel, Kolloidpartikel und so weiter. Dieses System wird als retikuloendotheliales System (RES) bezeichnet und besteht aus festen Zellen sowie beweglichen Zellen (Phagozyten). Diese Zellen liegen in nicht aktiver Form vor. Eine Zunahme der oben genannten Mikroben und Partikel aktiviert die Zellen bis zu einem Sättigungspunkt.
Giftstoffe in Form von Kolloiden werden durch die RES von Organen und Geweben eingefangen. Die Verteilung hängt von der Kolloidpartikelgröße ab. Bei größeren Partikeln wird die Retention in der Leber bevorzugt. Bei kleineren Kolloidpartikeln erfolgt eine mehr oder weniger gleichmäßige Verteilung zwischen Milz, Knochenmark und Leber. Die Entfernung von Kolloiden aus dem RES ist sehr langsam, obwohl kleine Partikel relativ schneller entfernt werden.
Ansammlung in Knochen
Etwa 60 Elemente können als osteotrope Elemente oder Knochensucher identifiziert werden.
Osteotrope Elemente lassen sich in drei Gruppen einteilen:
Das Skelett eines normalen Mannes macht 10 bis 15 % des gesamten Körpergewichts aus, was ein großes potentielles Depot für osteotrope Giftstoffe darstellt. Knochen ist ein hochspezialisiertes Gewebe, das volumenmäßig zu 54 % aus Mineralien und zu 38 % aus organischer Matrix besteht. Die Mineralmatrix des Knochens ist Hydroxyapatit, Ca10(PO4)6(OH)2 , bei dem das Verhältnis von Ca zu P etwa 1.5 zu eins beträgt. Die für die Adsorption verfügbare Mineraloberfläche beträgt etwa 100 m2 pro g Knochen.
Die Stoffwechselaktivität der Knochen des Skeletts kann in zwei Kategorien eingeteilt werden:
Beim Fötus macht der Stoffwechselknochen von Säuglingen und Kleinkindern (siehe „verfügbares Skelett“) fast 100 % des Skeletts aus. Mit zunehmendem Alter nimmt dieser Anteil des metabolischen Knochens ab. Der Einbau von Giftstoffen während der Exposition erfolgt im metabolischen Knochen und in Kompartimenten mit langsamerer Umwandlung.
Der Einbau von Giftstoffen in den Knochen erfolgt auf zwei Arten:
Ionenaustauschreaktionen
Das Knochenmineral Hydroxylapatit repräsentiert ein komplexes Ionenaustauschsystem. Calciumkationen können durch verschiedene Kationen ausgetauscht werden. Die im Knochen vorhandenen Anionen können auch durch Anionen ausgetauscht werden: Phosphat mit Citraten und Carbonaten, Hydroxyl mit Fluor. Nicht austauschbare Ionen können an der Mineraloberfläche adsorbiert werden. Wenn toxische Ionen in das Mineral eingebaut werden, kann eine neue Mineralschicht die Mineraloberfläche bedecken und Giftstoffe in die Knochenstruktur eingraben. Der Ionenaustausch ist ein reversibler Prozess, der von der Ionenkonzentration, dem pH-Wert und dem Flüssigkeitsvolumen abhängt. So kann beispielsweise eine Erhöhung des diätetischen Calciums die Ablagerung von toxischen Ionen im Mineralgitter verringern. Es wurde erwähnt, dass mit zunehmendem Alter der Anteil an metabolischem Knochen abnimmt, obwohl der Ionenaustausch andauert. Mit zunehmendem Alter kommt es zu einer Knochenmineralresorption, bei der die Knochendichte tatsächlich abnimmt. An diesem Punkt können Giftstoffe im Knochen freigesetzt werden (z. B. Blei).
Etwa 30 % der in Knochenmineralien eingebauten Ionen sind lose gebunden und können mit einer biologischen Halbwertszeit von 15 Tagen ausgetauscht, von natürlichen Chelatbildnern eingefangen und ausgeschieden werden. Die anderen 70 % sind fester gebunden. Die Mobilisierung und Ausscheidung dieser Fraktion zeigt je nach Knochentyp (Umbauprozesse) eine biologische Halbwertszeit von 2.5 Jahren und mehr.
Chelatbildner (Ca-EDTA, Penicillamin, BAL etc.) können erhebliche Mengen einiger Schwermetalle mobilisieren und deren Ausscheidung im Urin stark steigern.
Kolloidadsorption
Kolloidpartikel werden als Film auf der Mineraloberfläche adsorbiert (100m2 pro g) durch Van-der-Waals-Kräfte oder Chemisorption. Diese Schicht aus Kolloiden auf den Mineraloberflächen wird von der nächsten Schicht aus gebildeten Mineralien bedeckt, und die Giftstoffe werden stärker in die Knochenstruktur eingebettet. Die Geschwindigkeit der Mobilisierung und Elimination hängt von Umbauprozessen ab.
Anreicherung in Haaren und Nägeln
Haare und Nägel enthalten Keratin mit Sulfhydrylgruppen, die Metallkationen wie Quecksilber und Blei chelatisieren können.
Verteilung des Giftstoffes innerhalb der Zelle
In letzter Zeit ist die Verteilung von Giftstoffen, insbesondere einiger Schwermetalle, innerhalb von Zellen von Geweben und Organen von Bedeutung geworden. Mit Ultrazentrifugationstechniken können verschiedene Fraktionen der Zelle getrennt werden, um ihren Gehalt an Metallionen und anderen Giftstoffen zu bestimmen.
Tierversuche haben gezeigt, dass einige Metallionen nach dem Eindringen in die Zelle an ein bestimmtes Protein, Metallothionein, gebunden sind. Dieses Protein mit niedrigem Molekulargewicht ist in den Zellen von Leber, Niere und anderen Organen und Geweben vorhanden. Seine Sulfhydrylgruppen können sechs Ionen pro Molekül binden. Eine erhöhte Anwesenheit von Metallionen induziert die Biosynthese dieses Proteins. Ionen von Cadmium sind der stärkste Induktor. Metallothionein dient auch dazu, die Homöostase lebenswichtiger Kupfer- und Zinkionen aufrechtzuerhalten. Metallothionein kann Zink, Kupfer, Cadmium, Quecksilber, Wismut, Gold, Kobalt und andere Kationen binden.
Biotransformation und Elimination von Giftstoffen
Während der Retention in Zellen verschiedener Gewebe und Organe werden Giftstoffe Enzymen ausgesetzt, die sie biotransformieren (metabolisieren) und Metaboliten produzieren können. Es gibt viele Wege für die Ausscheidung von Giftstoffen und/oder Metaboliten: durch die Ausatemluft über die Lunge, durch den Urin über die Nieren, durch die Galle über den Magen-Darm-Trakt, durch den Schweiß über die Haut, durch den Speichel über die Mundschleimhaut, durch die Milch über die Milchdrüsen und durch Haare und Nägel über normales Wachstum und Zellumsatz.
Die Elimination eines absorbierten Giftstoffes hängt von der Eintrittspforte ab. In der Lunge beginnt sofort der Absorptions-/Desorptionsprozess und Giftstoffe werden teilweise durch die ausgeatmete Luft eliminiert. Die Elimination von Giftstoffen, die über andere Eintrittswege absorbiert werden, ist verlängert und beginnt nach dem Transport durch Blut, um schließlich nach Verteilung und Biotransformation abgeschlossen zu sein. Bei der Aufnahme besteht ein Gleichgewicht zwischen den Konzentrationen eines Giftstoffes im Blut und in Geweben und Organen. Die Ausscheidung verringert die Konzentration des Giftstoffs im Blut und kann die Mobilisierung eines Giftstoffs aus Geweben ins Blut induzieren.
Viele Faktoren können die Eliminationsrate von Giftstoffen und ihren Metaboliten aus dem Körper beeinflussen:
Hier unterscheiden wir zwei Gruppen von Fächern: (1) die Schnellwechselsystem— in diesen Kompartimenten ist die Gewebekonzentration des Giftstoffes ähnlich der des Blutes; und (2) die Slow-Exchange-System, wo die Gewebekonzentration des Giftstoffs aufgrund von Bindung und Akkumulation höher ist als im Blut – Fettgewebe, Skelett und Nieren können einige Giftstoffe, z. B. Arsen und Zink, vorübergehend zurückhalten.
Ein Giftstoff kann gleichzeitig über zwei oder mehr Ausscheidungswege ausgeschieden werden. In der Regel dominiert jedoch eine Route.
Wissenschaftler entwickeln mathematische Modelle, die die Ausscheidung eines bestimmten Giftstoffes beschreiben. Diese Modelle basieren auf der Bewegung aus einem oder beiden Kompartimenten (Austauschsysteme), Biotransformation und so weiter.
Elimination durch Ausatemluft über die Lunge
Die Ausscheidung über die Lunge (Desorption) ist typisch für Giftstoffe mit hoher Flüchtigkeit (z. B. organische Lösungsmittel). Gase und Dämpfe mit geringer Blutlöslichkeit werden auf diese Weise schnell eliminiert, während Giftstoffe mit hoher Blutlöslichkeit auf anderen Wegen eliminiert werden.
Über den Magen-Darm-Trakt oder die Haut aufgenommene organische Lösungsmittel werden bei ausreichendem Dampfdruck bei jedem Blutdurchgang teilweise über die Ausatemluft wieder ausgeschieden. Auf dieser Tatsache basiert der Alkoholtest bei mutmaßlich betrunkenen Fahrern. Die CO-Konzentration in der ausgeatmeten Luft steht im Gleichgewicht mit dem CO-Hb-Gehalt im Blut. Das radioaktive Gas Radon tritt in der ausgeatmeten Luft durch den Zerfall von im Skelett angesammeltem Radium auf.
Die Elimination eines Giftstoffes durch die ausgeatmete Luft im Verhältnis zur Nachexpositionszeit wird üblicherweise durch eine dreiphasige Kurve ausgedrückt. Die erste Phase stellt die Eliminierung des Giftstoffs aus dem Blut dar und zeigt eine kurze Halbwertszeit. Die zweite, langsamere Phase stellt die Elimination durch Austausch von Blut mit Geweben und Organen dar (Schnellaustauschsystem). Die dritte, sehr langsame Phase ist auf den Austausch von Blut mit Fettgewebe und Skelett zurückzuführen. Wenn sich in solchen Kompartimenten kein Giftstoff ansammelt, ist die Kurve zweiphasig. In manchen Fällen ist auch ein vierphasiger Verlauf möglich.
Die Bestimmung von Gasen und Dämpfen in der ausgeatmeten Luft in der Zeit nach der Exposition wird manchmal zur Bewertung der Exposition von Arbeitnehmern verwendet.
Renale Ausscheidung
Die Niere ist ein Organ, das auf die Ausscheidung zahlreicher wasserlöslicher Giftstoffe und Metaboliten spezialisiert ist und die Homöostase des Organismus aufrechterhält. Jede Niere besitzt etwa eine Million Nephrone, die zur Ausscheidung fähig sind. Die renale Ausscheidung stellt ein sehr komplexes Ereignis dar, das drei verschiedene Mechanismen umfasst:
Die Ausscheidung eines Giftstoffs über die Nieren in den Urin hängt vom Nernst-Verteilungskoeffizienten, der Dissoziationskonstante und dem pH-Wert des Urins, der Molekülgröße und -form, der Metabolisierungsrate zu hydrophileren Metaboliten sowie dem Gesundheitszustand der Nieren ab.
Die Kinetik der renalen Ausscheidung eines Giftstoffes oder seines Metaboliten kann durch eine zwei-, drei- oder vierphasige Ausscheidungskurve ausgedrückt werden, je nach Verteilung des jeweiligen Giftstoffes in verschiedenen Körperkompartimenten mit unterschiedlicher Austauschrate mit dem Blut.
Speichel
Einige Medikamente und Metallionen können durch den Speichel über die Mundschleimhaut ausgeschieden werden – zum Beispiel Blei („Bleileitung“), Quecksilber, Arsen, Kupfer sowie Bromide, Jodide, Ethylalkohol, Alkaloide und so weiter. Die Giftstoffe werden dann geschluckt und erreichen den Magen-Darm-Trakt, wo sie resorbiert oder mit dem Kot ausgeschieden werden können.
Schwitzen
Viele Nichtelektrolyte können teilweise durch Schweiß über die Haut ausgeschieden werden: Ethylalkohol, Aceton, Phenole, Schwefelkohlenstoff und chlorierte Kohlenwasserstoffe.
Milch
Viele Metalle, organische Lösungsmittel und einige chlororganische Pestizide (DDT) werden über die Milchdrüse in die Muttermilch ausgeschieden. Dieser Weg kann eine Gefahr für gestillte Säuglinge darstellen.
Haarfarbe
Die Analyse von Haaren kann als Indikator für die Homöostase einiger physiologischer Substanzen verwendet werden. Auch die Exposition gegenüber einigen Giftstoffen, insbesondere Schwermetallen, kann durch diese Art von Bioassay bewertet werden.
Die Ausscheidung von Giftstoffen aus dem Körper kann gesteigert werden durch:
Expositionsbestimmungen
Die Bestimmung von Giftstoffen und Metaboliten in Blut, Ausatemluft, Urin, Schweiß, Fäkalien und Haaren wird immer häufiger zur Bewertung der Exposition des Menschen (Expositionstests) und/oder zur Bewertung des Intoxikationsgrades verwendet. Daher wurden kürzlich biologische Expositionsgrenzwerte (Biological MAC Values, Biological Exposure Indices – BEI) festgelegt. Diese Bioassays zeigen die „innere Exposition“ des Organismus, dh die Gesamtbelastung des Körpers sowohl im Arbeits- als auch im Lebensumfeld durch alle Eintrittspforten (siehe „Toxikologische Testmethoden: Biomarker“).
Kombinierte Effekte durch Mehrfachbelichtung
Menschen im Arbeits- und/oder Lebensumfeld sind in der Regel gleichzeitig oder nacheinander verschiedenen physikalischen und chemischen Einwirkungen ausgesetzt. Es ist auch zu berücksichtigen, dass einige Personen Medikamente einnehmen, rauchen, Alkohol und Lebensmittel mit Zusatzstoffen konsumieren und so weiter. Das bedeutet, dass in der Regel eine Mehrfachbelichtung vorliegt. Physikalische und chemische Wirkstoffe können in jedem Schritt toxikokinetischer und/oder toxikodynamischer Prozesse interagieren und drei mögliche Wirkungen hervorrufen:
Studien zu kombinierten Wirkungen sind jedoch selten. Diese Art von Studie ist aufgrund der Kombination verschiedener Faktoren und Agenten sehr komplex.
Wir können daraus schließen, dass, wenn der menschliche Organismus zwei oder mehreren Giftstoffen gleichzeitig oder nacheinander ausgesetzt ist, die Möglichkeit einiger kombinierter Wirkungen in Betracht gezogen werden muss, die die Geschwindigkeit toxikokinetischer Prozesse erhöhen oder verringern können.
Toxische Metalle und metallorganische Verbindungen wie Aluminium, Antimon, anorganisches Arsen, Beryllium, Cadmium, Chrom, Kobalt, Blei, Alkylblei, metallisches Quecksilber und seine Salze, organische Quecksilberverbindungen, Nickel, Selen und Vanadium sind alle seit einiger Zeit als solche bekannt potenzielle Gesundheitsrisiken für exponierte Personen darstellen. In einigen Fällen wurden epidemiologische Studien zu Beziehungen zwischen interner Dosis und resultierender Wirkung/Reaktion bei beruflich exponierten Arbeitern untersucht, was den Vorschlag von gesundheitsbasierten biologischen Grenzwerten erlaubt (siehe Tabelle 1).
Tabelle 1. Metalle: Referenzwerte und biologische Grenzwerte vorgeschlagen von der American Conference of Governmental Industrial Hygienists (ACGIH), der Deutschen Forschungsgemeinschaft (DFG) und Lauwerys und Hoet (L und H)
Metal |
Stichprobe |
Referenz1 Werte* |
ACGIH (BEI)-Grenze2 |
DFG (BAT)-Grenzwert3 |
L- und H-Grenze4 (TMPC) |
Aluminium |
Serum/Plasma Urin |
< 1 μg/100 ml < 30 μg/g |
200 μg/l (Schichtende) |
150 μg/g (Schichtende) |
|
Antimon |
Urin |
< 1 μg/g |
35 μg/g (Schichtende) |
||
Arsen |
Urin (Summe aus anorganischem Arsen und methylierten Metaboliten) |
< 10 μg/g |
50 μg/g (Ende der Arbeitswoche) |
50 μg/g (wenn TWA: 0.05 mg/m3 ); 30 μg/g (wenn TWA: 0.01 mg/m3 ) (Ende der Schicht) |
|
Beryllium |
Urin |
< 2 μg/g |
|||
Cadmium |
Blut Urin |
< 0.5 μg/100 ml < 2 μg/g |
0.5 μg/100 ml 5 μg/g |
1.5 μg/100 ml 15 μg / l |
0.5 μg/100 ml 5 μg/g |
Chrom (lösliche Verbindungen) |
Serum/Plasma Urin |
< 0.05 μg/100 ml < 5 μg/g |
30 μg/g (Schichtende, Ende der Arbeitswoche); 10 μg/g (Anstieg während der Schicht) |
30 μg/g (Schichtende) |
|
Cobalt |
Serum/Plasma Blut Urin |
< 0.05 μg/100 ml < 0.2 μg/100 ml < 2 μg/g |
0.1 μg/100 ml (Schichtende, Ende der Arbeitswoche) 15 μg/l (Schichtende, Ende der Arbeitswoche) |
0.5 μg/100 ml (EKA)** 60 μg/l (EKA)** |
30 μg/g (Schichtende, Ende der Arbeitswoche) |
Führen (Lead) |
Blut (Blei) ZPP im Blut Urin (Blei) ALA-Urin |
< 25 μg/100 ml <40 μg/100 ml Blut < 2.5 μg/g Hb < 50 μg/g <4.5 mg/g |
30 μg/100 ml (nicht kritisch) |
weiblich <45 Jahre: 30 μg/100 ml männlich: 70 μg/100 ml weiblich <45 Jahre: 6mg/l; männlich: 15 mg/l |
40 μg/100 ml 40 µg/100 ml Blut oder 3 µg/g Hb 50 μg/g 5 mg / g |
Mangan |
Blut Urin |
< 1 μg/100 ml < 3 μg/g |
|||
Quecksilber anorganisch |
Blut Urin |
< 1 μg/100 ml < 5 μg/g |
1.5 μg/100 ml (Schichtende, Ende der Arbeitswoche) 35 μg/g (Vorschicht) |
5 μg/100 ml 200 μg / l |
2 μg/100 ml (Schichtende) 50 μg/g (Schichtende) |
Super (lösliche Verbindungen) |
Serum/Plasma Urin |
< 0.05 μg/100 ml < 2 μg/g |
45 μg/l (EKA)** |
30 μg/g |
|
Selenium |
Serum/Plasma Urin |
< 15 μg/100 ml < 25 μg/g |
|||
Vanadium |
Serum/Plasma Blut Urin |
< 0.2 μg/100 ml < 0.1 μg/100 ml < 1 μg/g |
70 μg/g Kreatinin |
50 μg/g |
* Urinwerte sind pro Gramm Kreatinin.
** EKA = Expositionsäquivalente für krebserzeugende Stoffe.
1 Mit einigen Modifikationen übernommen von Lauwerys und Hoet 1993.
2 Von ACGIH 1996-97.
3 Aus DFG 1996.
4 Vorläufige maximal zulässige Konzentrationen (TMPCs) von Lauwerys und Hoet 1993.
Ein Problem bei der Suche nach präzisen und genauen Messungen von Metallen in biologischen Materialien besteht darin, dass die interessierenden metallischen Substanzen oft in sehr geringen Mengen in den Medien vorhanden sind. Wenn die biologische Überwachung, wie es häufig der Fall ist, aus der Probenahme und Analyse von Urin besteht, wird sie normalerweise an „Stichproben“ durchgeführt; Eine Korrektur der Ergebnisse für die Verdünnung des Urins ist daher in der Regel ratsam. Die Angabe der Ergebnisse pro Gramm Kreatinin ist die am häufigsten verwendete Standardisierungsmethode. Analysen von zu verdünnten oder zu konzentrierten Urinproben sind nicht zuverlässig und sollten wiederholt werden.
Aluminium
In der Industrie können Arbeiter anorganischen Aluminiumverbindungen durch Einatmen und möglicherweise auch durch Verschlucken von aluminiumhaltigem Staub ausgesetzt werden. Aluminium wird auf oralem Weg schlecht resorbiert, aber seine Resorption wird durch die gleichzeitige Einnahme von Citraten erhöht. Die Absorptionsrate von in der Lunge abgelagertem Aluminium ist unbekannt; die Bioverfügbarkeit ist wahrscheinlich von den physikalisch-chemischen Eigenschaften des Partikels abhängig. Der Urin ist der Hauptausscheidungsweg des resorbierten Aluminiums. Die Aluminiumkonzentration im Serum und im Urin wird sowohl durch die Intensität einer kürzlich erfolgten Exposition als auch durch die Aluminiumbelastung des Körpers bestimmt. Bei nicht beruflich Exponierten liegt die Aluminiumkonzentration im Serum meist unter 1 µg/100 ml und im Urin selten über 30 µg/g Kreatinin. Bei Personen mit normaler Nierenfunktion ist die Urinausscheidung von Aluminium ein empfindlicherer Indikator für eine Aluminiumexposition als seine Konzentration im Serum/Plasma.
Daten über Schweißer deuten darauf hin, dass die Kinetik der Aluminiumausscheidung im Urin einen Mechanismus aus zwei Schritten umfasst, wobei der erste eine biologische Halbwertszeit von etwa acht Stunden hat. Bei Arbeitern, die mehrere Jahre exponiert waren, kommt es effektiv zu einer gewissen Akkumulation des Metalls im Körper, und die Aluminiumkonzentrationen im Serum und im Urin werden auch durch die Aluminiumbelastung des Körpers beeinflusst. Aluminium wird in mehreren Kompartimenten des Körpers gespeichert und aus diesen Kompartimenten über viele Jahre in unterschiedlichem Maße ausgeschieden. Auch bei Patienten mit Niereninsuffizienz wurde eine hohe Anreicherung von Aluminium im Körper (Knochen, Leber, Gehirn) festgestellt. Patienten, die sich einer Dialyse unterziehen, sind dem Risiko einer Knochentoxizität und/oder Enzephalopathie ausgesetzt, wenn ihre Aluminiumkonzentration im Serum chronisch 20 μg/100 ml übersteigt, aber es ist möglich, Anzeichen einer Toxizität bei noch niedrigeren Konzentrationen zu erkennen. Die Kommission der Europäischen Gemeinschaften hat empfohlen, dass zur Vermeidung einer Aluminiumtoxizität die Aluminiumkonzentration im Plasma niemals 20 μg/100 ml überschreiten sollte; ein Wert über 10 μg/100 ml sollte zu einer erhöhten Überwachungshäufigkeit und Gesundheitsüberwachung führen, und eine Konzentration von über 6 μg/100 ml sollte als Beweis für eine übermäßige Anhäufung der Körperbelastung durch Aluminium betrachtet werden.
Antimon
Anorganisches Antimon kann durch Verschlucken oder Einatmen in den Organismus gelangen, die Aufnahmegeschwindigkeit ist jedoch unbekannt. Resorbierte fünfwertige Verbindungen werden hauptsächlich mit dem Urin und dreiwertige Verbindungen über die Fäzes ausgeschieden. Nach längerer Exposition ist eine Retention einiger Antimonverbindungen möglich. Normale Antimonkonzentrationen im Serum und Urin liegen wahrscheinlich unter 0.1 µg/100 ml bzw. 1 µg/g Kreatinin.
Eine vorläufige Studie an Arbeitern, die gegenüber fünfwertigem Antimon exponiert waren, ergab eine zeitlich gewichtete durchschnittliche Exposition gegenüber 0.5 mg/m3 würde zu einem Anstieg der Antimonkonzentration im Urin von 35 µg/g Kreatinin während der Schicht führen.
Anorganisches Arsen
Anorganisches Arsen kann über den Magen-Darm-Trakt und die Atemwege in den Organismus gelangen. Das resorbierte Arsen wird hauptsächlich unverändert oder nach Methylierung über die Niere ausgeschieden. Anorganisches Arsen wird auch als Glutathionkomplex mit der Galle ausgeschieden.
Nach einmaliger oraler Exposition gegenüber einer niedrigen Arsenatdosis werden 25 bzw. 45 % der verabreichten Dosis innerhalb von einem bzw. vier Tagen mit dem Urin ausgeschieden.
Nach Exposition gegenüber anorganischem drei- oder fünfwertigem Arsen besteht die Urinausscheidung aus 10 bis 20 % anorganischem Arsen, 10 bis 20 % Monomethylarsonsäure und 60 bis 80 % Cacodylsäure. Nach beruflicher Exposition gegenüber anorganischem Arsen hängt der Anteil der Arsenspezies im Urin vom Zeitpunkt der Probenahme ab.
Auch die in Meeresorganismen enthaltenen Organoarsenika werden vom Magen-Darm-Trakt gut aufgenommen, aber zum größten Teil unverändert ausgeschieden.
Langfristige toxische Wirkungen von Arsen (einschließlich der toxischen Wirkungen auf Gene) resultieren hauptsächlich aus der Exposition gegenüber anorganischem Arsen. Ziel des biologischen Monitorings ist es daher, die Exposition gegenüber anorganischen Arsenverbindungen zu erfassen. Dazu ist die spezifische Bestimmung von anorganischem Arsen (Asi), Monomethylarsonsäure (MMA) und Cacodylsäure (DMA) im Urin ist die Methode der Wahl. Da der Verzehr von Meeresfrüchten jedoch immer noch die Ausscheidungsrate von DMA beeinflussen könnte, sollten die getesteten Arbeiter in den 48 Stunden vor der Urinsammlung auf den Verzehr von Meeresfrüchten verzichten.
Bei Personen, die nicht beruflich gegenüber anorganischem Arsen exponiert sind und in letzter Zeit keinen Meeresorganismus verzehrt haben, übersteigt die Summe dieser drei Arsenspezies in der Regel 10 µg/g Kreatinin im Urin nicht. Höhere Werte finden sich in geografischen Gebieten, in denen das Trinkwasser erhebliche Mengen an Arsen enthält.
Es wurde geschätzt, dass ohne den Verzehr von Meeresfrüchten eine zeitlich gewichtete durchschnittliche Exposition gegenüber 50 und 200 μg/m3 anorganisches Arsen führt zu mittleren Urinkonzentrationen der Summe der Metaboliten (Asi, MMA, DMA) in Urinproben nach der Schicht von 54 bzw. 88 μg/g Kreatinin.
Bei Exposition gegenüber weniger löslichen anorganischen Arsenverbindungen (z. B. Galliumarsenid) spiegelt die Bestimmung von Arsen im Urin die resorbierte Menge, nicht aber die dem Körper (Lunge, Magen-Darm-Trakt) zugeführte Gesamtdosis wider.
Arsen im Haar ist ein guter Indikator für die Menge an anorganischem Arsen, die während der Wachstumsphase des Haares aufgenommen wird. Organisches Arsen marinen Ursprungs scheint im Haar nicht in gleichem Maße aufgenommen zu werden wie anorganisches Arsen. Die Bestimmung der Arsenkonzentration entlang der Haarlänge kann wertvolle Informationen über den Expositionszeitpunkt und die Expositionsdauer liefern. Die Bestimmung von Arsen in Haaren wird jedoch nicht empfohlen, wenn die Umgebungsluft mit Arsen belastet ist, da dann nicht mehr zwischen körpereigenem Arsen und äußerlich auf dem Haar abgelagertem Arsen unterschieden werden kann. Der Arsengehalt im Haar liegt normalerweise unter 1 mg/kg. Arsen in Nägeln hat die gleiche Bedeutung wie Arsen in Haaren.
Wie der Urinspiegel kann auch der Arsenspiegel im Blut die kürzlich absorbierte Arsenmenge widerspiegeln, aber die Beziehung zwischen der Intensität der Arsenexposition und seiner Konzentration im Blut wurde noch nicht untersucht.
Beryllium
Die Inhalation ist der Hauptaufnahmeweg von Beryllium für beruflich exponierte Personen. Eine Langzeitexposition kann zur Einlagerung beträchtlicher Berylliummengen im Lungengewebe und im Skelett, dem endgültigen Speicherort, führen. Die Elimination von resorbiertem Beryllium erfolgt hauptsächlich über den Urin und nur in geringem Maße über die Faeces.
Beryllium-Konzentrationen können in Blut und Urin bestimmt werden, aber derzeit können diese Analysen nur als qualitative Tests verwendet werden, um die Exposition gegenüber dem Metall zu bestätigen, da nicht bekannt ist, inwieweit die Konzentrationen von Beryllium in Blut und Urin durch die letzten Tage beeinflusst werden können Exposition und um die bereits im Körper gespeicherte Menge. Darüber hinaus ist es schwierig, die begrenzten veröffentlichten Daten zur Ausscheidung von Beryllium bei exponierten Arbeitern zu interpretieren, da die äußere Exposition in der Regel nicht ausreichend charakterisiert ist und die Analysemethoden unterschiedliche Empfindlichkeiten und Genauigkeiten aufweisen. Normale Urin- und Serumspiegel von Beryllium liegen wahrscheinlich darunter
2 μg/g Kreatinin bzw. 0.03 μg/100 ml.
Der Befund einer normalen Berylliumkonzentration im Urin ist jedoch kein ausreichender Beweis, um die Möglichkeit einer früheren Exposition gegenüber Beryllium auszuschließen. Tatsächlich wurde bei Arbeitern nicht immer eine erhöhte Ausscheidung von Beryllium im Urin festgestellt, obwohl sie in der Vergangenheit Beryllium ausgesetzt waren und infolgedessen eine pulmonale Granulomatose entwickelt haben, eine Krankheit, die durch multiple Granulome gekennzeichnet ist, d die Lungen.
Cadmium
Im beruflichen Umfeld erfolgt die Aufnahme von Cadmium hauptsächlich durch Inhalation. Die gastrointestinale Absorption kann jedoch erheblich zur internen Cadmiumdosis beitragen. Eine wichtige Eigenschaft von Cadmium ist seine lange biologische Halbwertszeit im Körper, die über XNUMX % liegt
10 Jahre. Cadmium ist im Gewebe hauptsächlich an Metallothionein gebunden. Im Blut ist es hauptsächlich an rote Blutkörperchen gebunden. Angesichts der Anreicherungseigenschaft von Cadmium sollte jedes biologische Überwachungsprogramm chronisch gegenüber Cadmium exponierter Bevölkerungsgruppen versuchen, sowohl die aktuelle als auch die integrierte Exposition zu bewerten.
Mittels Neutronenaktivierung ist dies derzeit möglich in vivo Messungen der akkumulierten Cadmiummengen in den Hauptspeicherorten Niere und Leber. Diese Techniken werden jedoch nicht routinemäßig eingesetzt. In der Gesundheitsüberwachung von Arbeitern in der Industrie oder in großangelegten Studien an der Allgemeinbevölkerung wird die Exposition gegenüber Cadmium bisher meist indirekt durch Messung des Metalls in Urin und Blut bewertet.
Die detaillierte Kinetik der Wirkung von Cadmium beim Menschen ist noch nicht vollständig aufgeklärt, aber für praktische Zwecke können die folgenden Schlussfolgerungen bezüglich der Bedeutung von Cadmium in Blut und Urin formuliert werden. Bei neu exponierten Arbeitern steigt der Cadmiumgehalt im Blut allmählich an und erreicht nach vier bis sechs Monaten eine der Expositionsintensität entsprechende Konzentration. Bei Personen mit andauernder Cadmiumexposition über einen längeren Zeitraum spiegelt die Konzentration von Cadmium im Blut hauptsächlich die durchschnittliche Aufnahme während der letzten Monate wider. Der relative Einfluss der Cadmium-Körperbelastung auf den Cadmiumspiegel im Blut kann bei Personen, die eine große Menge Cadmium angesammelt haben und von der Exposition entfernt wurden, wichtiger sein. Nach Beendigung der Exposition sinkt der Cadmiumspiegel im Blut relativ schnell mit einer anfänglichen Halbwertszeit von zwei bis drei Monaten. Je nach Körperbelastung kann der Spiegel jedoch höher bleiben als bei Kontrollpersonen. Mehrere Studien an Menschen und Tieren haben gezeigt, dass der Cadmiumspiegel im Urin wie folgt interpretiert werden kann: in Abwesenheit einer akuten Überexposition gegenüber Cadmium und solange die Speicherfähigkeit der Nierenrinde nicht überschritten wird oder eine Cadmium-induzierte Nephropathie hat noch nicht aufgetreten ist, steigt der Cadmiumspiegel im Urin progressiv mit der in den Nieren gespeicherten Cadmiummenge an. Unter solchen Bedingungen, die vor allem in der Allgemeinbevölkerung und bei mäßig Cadmium-exponierten Arbeitern vorherrschen, besteht eine signifikante Korrelation zwischen Cadmium im Urin und Cadmium in den Nieren. Bei zu hoher Cadmium-Exposition kommt es zu einer fortschreitenden Sättigung der Cadmium-Bindungsstellen im Organismus und trotz kontinuierlicher Exposition pendelt sich die Cadmium-Konzentration in der Nierenrinde ein.
Ab diesem Stadium kann das aufgenommene Cadmium nicht mehr in diesem Organ zurückgehalten werden und wird schnell mit dem Urin ausgeschieden. In diesem Stadium wird die Konzentration von Cadmium im Urin sowohl von der Körperbelastung als auch von der jüngsten Aufnahme beeinflusst. Wenn die Exposition fortgesetzt wird, können einige Personen Nierenschäden entwickeln, die zu einem weiteren Anstieg des Cadmiumgehalts im Urin führen, da in der Niere gespeichertes Cadmium freigesetzt und die Reabsorption von zirkulierendem Cadmium verringert wird. Nach einer Episode akuter Exposition können die Cadmiumspiegel im Urin jedoch schnell und kurzzeitig ansteigen, ohne dass dies eine Zunahme der Körperbelastung widerspiegelt.
Neuere Studien weisen darauf hin, dass Metallothionein im Urin die gleiche biologische Bedeutung hat. Zwischen der Konzentration von Metallothionein und Cadmium im Urin wurden unabhängig von der Expositionsintensität und dem Zustand der Nierenfunktion gute Korrelationen beobachtet.
Die normalen Cadmiumspiegel im Blut und im Urin liegen normalerweise unter 0.5 μg/100 ml und
2 μg/g Kreatinin. Sie sind bei Rauchern höher als bei Nichtrauchern. Bei Arbeitern, die chronisch Cadmium ausgesetzt sind, ist das Risiko einer Nierenfunktionsstörung vernachlässigbar, wenn der Cadmiumspiegel im Urin niemals 10 μg/g Kreatinin übersteigt. Eine Anreicherung von Cadmium im Körper, die zu einer über diesen Wert hinausgehenden Urinausscheidung führen würde, sollte verhindert werden. Einige Daten deuten jedoch darauf hin, dass bestimmte Nierenmarker (deren gesundheitliche Bedeutung noch unbekannt ist) bei Cadmiumwerten im Urin zwischen 3 und 5 μg/g Kreatinin anormal werden können, sodass es vernünftig erscheint, einen niedrigeren biologischen Grenzwert von 5 μg/g Kreatinin vorzuschlagen . Für Blut wurde ein biologischer Grenzwert von 0.5 μg/100 ml für Langzeitexposition vorgeschlagen. Es ist jedoch möglich, dass bei der allgemeinen Bevölkerung, die Cadmium über Lebensmittel oder Tabak ausgesetzt ist, oder bei älteren Menschen, die normalerweise an einer Abnahme der Nierenfunktion leiden, der kritische Wert in der Nierenrinde niedriger sein kann.
Chrom
Die Toxizität von Chrom ist hauptsächlich auf seine sechswertigen Verbindungen zurückzuführen. Die Absorption von sechswertigen Verbindungen ist relativ höher als die Absorption von dreiwertigen Verbindungen. Die Ausscheidung erfolgt hauptsächlich über den Urin.
Bei nicht beruflich gegenüber Chrom exponierten Personen übersteigt die Chromkonzentration im Serum und im Urin in der Regel 0.05 µg/100 ml bzw. 2 µg/g Kreatinin nicht. Eine kürzlich erfolgte Exposition gegenüber löslichen sechswertigen Chromsalzen (z. B. in Galvanisierern und Edelstahlschweißern) kann durch Überwachung des Chromgehalts im Urin am Ende der Arbeitsschicht beurteilt werden. Von mehreren Autoren durchgeführte Studien legen folgende Beziehung nahe: eine TWA-Exposition von 0.025 oder 0.05 mg/m3 Sechswertiges Chrom ist mit einer durchschnittlichen Konzentration am Ende der Expositionszeit von 15 bzw. 30 µg/g Kreatinin verbunden. Diese Beziehung gilt nur auf Gruppenbasis. Nach Exposition gegenüber 0.025 mg/m3 sechswertiges Chrom, liegt der untere 95%-Vertrauensgrenzwert bei etwa 5 μg/g Kreatinin. Eine andere Studie unter Edelstahlschweißern hat ergeben, dass eine Chromkonzentration im Urin in der Größenordnung von 40 μg/l einer durchschnittlichen Exposition gegenüber 0.1 mg/m entspricht3 Chromtrioxid.
Sechswertiges Chrom durchdringt leicht Zellmembranen, aber sobald es sich in der Zelle befindet, wird es zu dreiwertigem Chrom reduziert. Die Konzentration von Chrom in Erythrozyten könnte ein Indikator für die Expositionsintensität gegenüber sechswertigem Chrom während der Lebensdauer der roten Blutkörperchen sein, dies gilt jedoch nicht für dreiwertiges Chrom.
Inwieweit die Überwachung von Chrom im Urin zur Abschätzung des Gesundheitsrisikos sinnvoll ist, muss noch beurteilt werden.
Cobalt
Nach Aufnahme durch Inhalation und in gewissem Umfang auch über den oralen Weg wird Kobalt (mit einer biologischen Halbwertszeit von einigen Tagen) hauptsächlich mit dem Urin ausgeschieden. Die Exposition gegenüber löslichen Kobaltverbindungen führt zu einer Erhöhung der Kobaltkonzentration in Blut und Urin.
Die Kobaltkonzentrationen im Blut und im Urin werden hauptsächlich durch eine kürzlich erfolgte Exposition beeinflusst. Bei nicht beruflich exponierten Personen liegt Kobalt im Urin normalerweise unter 2 μg/g Kreatinin und Serum/Plasma-Kobalt unter 0.05 μg/100 ml.
Für TWA-Expositionen von 0.1 mg/m3 und 0.05 mg/m3wurden mittlere Urinspiegel im Bereich von etwa 30 bis 75 μg/l bzw. 30 bis 40 μg/l berichtet (unter Verwendung von Proben am Ende der Schicht). Der Zeitpunkt der Probenahme ist wichtig, da der Kobaltspiegel im Urin während der Arbeitswoche fortschreitend ansteigt.
Bei Arbeitern, die in einer Raffinerie Kobaltoxiden, Kobaltsalzen oder Kobaltmetallpulver ausgesetzt waren, ein TWA von 0.05 mg/m3 hat zu einer durchschnittlichen Kobaltkonzentration von 33 bzw. 46 μg/g Kreatinin im Urin geführt, der am Ende der Schicht am Montag bzw. Freitag gesammelt wurde.
Führen (Lead)
Anorganisches Blei, ein kumulatives Toxin, das von der Lunge und dem Magen-Darm-Trakt absorbiert wird, ist eindeutig das Metall, das am ausführlichsten untersucht wurde; Daher ist von allen Metallkontaminanten die Zuverlässigkeit der Methoden zur Bewertung der jüngsten Exposition oder Körperbelastung durch biologische Methoden für Blei am größten.
In einer Steady-State-Expositionssituation gilt Blei im Vollblut als der beste Indikator für die Bleikonzentration in Weichgeweben und damit für eine kürzlich erfolgte Exposition. Der Anstieg des Blutbleispiegels (Pb-B) wird jedoch mit zunehmender Bleiexposition immer geringer. Bei längerer beruflicher Exposition ist die Beendigung der Exposition aufgrund der kontinuierlichen Freisetzung von Blei aus Gewebedepots nicht unbedingt mit einer Rückkehr von Pb-B auf einen Wert vor der Exposition (Hintergrund) verbunden. Die normalen Bleispiegel im Blut und Urin liegen im Allgemeinen unter 20 μg/100 ml bzw. 50 μg/g Kreatinin. Diese Werte können durch die Ernährungsgewohnheiten und den Wohnort der Probanden beeinflusst werden. Die WHO hat 40 μg/100 ml als maximal tolerierbare individuelle Blutbleikonzentration für erwachsene männliche Arbeiter und 30 μg/100 ml für Frauen im gebärfähigen Alter vorgeschlagen. Bei Kindern wurden niedrigere Bleikonzentrationen im Blut mit nachteiligen Wirkungen auf das Zentralnervensystem in Verbindung gebracht. Der Bleispiegel im Urin steigt mit zunehmendem Pb-B exponentiell an und spiegelt im Steady-State hauptsächlich die jüngste Exposition wider.
Die nach Verabreichung eines Chelatbildners (z. B. CaEDTA) im Urin ausgeschiedene Bleimenge spiegelt den mobilisierbaren Bleipool wider. Bei Kontrollpersonen übersteigt die Bleimenge, die innerhalb von 24 Stunden nach intravenöser Verabreichung von einem Gramm EDTA im Urin ausgeschieden wird, in der Regel 600 μg nicht. Es scheint, dass unter konstanter Exposition die chelatierbaren Bleiwerte hauptsächlich den Bleipool im Blut und in den Weichgeweben widerspiegeln, wobei nur ein kleiner Teil aus Knochen stammt.
Zur Messung der Bleikonzentration in Knochen (Phalangen, Schienbein, Fersenbein, Wirbel) wurde ein Röntgenfluoreszenzverfahren entwickelt, aber derzeit beschränkt die Nachweisgrenze des Verfahrens seine Anwendung auf beruflich exponierte Personen.
Die Bestimmung von Blei in Haaren wurde als Methode zur Bewertung des mobilisierbaren Bleipools vorgeschlagen. Im beruflichen Umfeld ist es jedoch schwierig, zwischen endogen in das Haar eingebautem und einfach an der Oberfläche adsorbiertem Blei zu unterscheiden.
Die Bestimmung der Bleikonzentration im zirkumpulpalen Dentin von Milchzähnen (Milchzähnen) wurde zur Abschätzung der Bleibelastung in der frühen Kindheit herangezogen.
Auch Parameter, die die Beeinflussung biologischer Prozesse durch Blei widerspiegeln, können zur Beurteilung der Bleiexpositionsintensität herangezogen werden. Die derzeit verwendeten biologischen Parameter sind Coproporphyrin im Urin (COPRO-U), Delta-Aminolävulinsäure im Urin (ALA-U), Erythrozyten-Protoporphyrin (EP oder Zink-Protoporphyrin), Delta-Aminolävulinsäure-Dehydratase (ALA-D), und Pyrimidin-5'-Nukleotidase (P5N) in roten Blutkörperchen. In Steady-State-Situationen sind die Veränderungen dieser Parameter positiv (COPRO-U, ALA-U, EP) oder negativ (ALA-D, P5N) mit Bleiblutspiegeln korreliert. Die Urinausscheidung von COPRO (meist das III-Isomer) und ALA beginnt anzusteigen, wenn die Bleikonzentration im Blut einen Wert von etwa 40 μg/100 ml erreicht. Erythrozyten-Protoporphyrin beginnt bei Blutbleispiegeln von etwa 35 µg/100 ml bei Männern und 25 µg/100 ml bei Frauen signifikant anzusteigen. Nach Beendigung der beruflichen Bleiexposition bleibt das Erythrozyten-Protoporphyrin überproportional zum aktuellen Bleigehalt im Blut erhöht. In diesem Fall korreliert der EP-Wert besser mit der Menge an chelatierbarem Blei, das im Urin ausgeschieden wird, als mit dem Blei im Blut.
Ein leichter Eisenmangel führt auch zu einer erhöhten Protoporphyrin-Konzentration in den roten Blutkörperchen. Die Enzyme der roten Blutkörperchen, ALA-D und P5N, reagieren sehr empfindlich auf die hemmende Wirkung von Blei. Im Bereich von Blutbleiwerten von 10 bis 40 µg/100 ml besteht eine enge negative Korrelation zwischen der Aktivität beider Enzyme und dem Blutblei.
Alkylblei
In einigen Ländern werden Tetraethylblei und Tetramethylblei als Antiklopfmittel in Autokraftstoffen verwendet. Blei im Blut ist kein guter Indikator für eine Exposition gegenüber Tetraalkylblei, während Blei im Urin nützlich zu sein scheint, um das Risiko einer Überexposition abzuschätzen.
Mangan
Im beruflichen Umfeld gelangt Mangan hauptsächlich über die Lunge in den Körper; Die Resorption über den Gastrointestinaltrakt ist gering und hängt wahrscheinlich von einem homöostatischen Mechanismus ab. Die Manganausscheidung erfolgt über die Galle, wobei nur geringe Mengen mit dem Urin ausgeschieden werden.
Die normalen Konzentrationen von Mangan in Urin, Blut und Serum oder Plasma liegen normalerweise unter 3 μg/g Kreatinin, 1 μg/100 ml bzw. 0.1 μg/100 ml.
Es scheint, dass auf individueller Basis weder Mangan im Blut noch Mangan im Urin mit externen Expositionsparametern korrelieren.
Offensichtlich besteht kein direkter Zusammenhang zwischen der Mangankonzentration in biologischem Material und der Schwere einer chronischen Manganvergiftung. Es ist möglich, dass nach beruflicher Exposition gegenüber Mangan bereits bei biologischen Konzentrationen in der Nähe der Normalwerte frühe nachteilige Wirkungen auf das Zentralnervensystem festgestellt werden.
Metallisches Quecksilber und seine anorganischen Salze
Die Inhalation stellt den Hauptaufnahmeweg von metallischem Quecksilber dar. Die gastrointestinale Resorption von metallischem Quecksilber ist vernachlässigbar. Anorganische Quecksilbersalze können sowohl über die Lunge (Inhalation von anorganischem Quecksilberaerosol) als auch über den Magen-Darm-Trakt aufgenommen werden. Die kutane Aufnahme von metallischem Quecksilber und seinen anorganischen Salzen ist möglich.
Die biologische Halbwertszeit von Quecksilber liegt in der Niere in der Größenordnung von zwei Monaten, ist aber im Zentralnervensystem viel länger.
Anorganisches Quecksilber wird hauptsächlich mit den Faeces und Urin ausgeschieden. Kleine Mengen werden über Speichel-, Tränen- und Schweißdrüsen ausgeschieden. Quecksilber kann auch in den wenigen Stunden nach der Exposition gegenüber Quecksilberdampf in der ausgeatmeten Luft nachgewiesen werden. Unter chronischen Expositionsbedingungen besteht, zumindest auf Gruppenbasis, ein Zusammenhang zwischen der Intensität der kürzlichen Exposition gegenüber Quecksilberdampf und der Konzentration von Quecksilber im Blut oder Urin. Die frühen Untersuchungen, bei denen statische Proben zur Überwachung der allgemeinen Arbeitsraumluft verwendet wurden, zeigten eine durchschnittliche Quecksilber-Luft, Hg-Luft, Konzentration von 100 μg/m3 entspricht durchschnittlichen Quecksilberwerten im Blut (Hg–B) und im Urin (Hg–U) von 6 μg Hg/100 ml bzw. 200 bis 260 μg/l. Neuere Beobachtungen, insbesondere solche, die den Beitrag der äußeren Mikroumgebung in der Nähe der Atemwege der Arbeiter bewerten, weisen darauf hin, dass die Luft (μg/m3)/Urin (μg/g Kreatinin)/Blut (μg/100ml) Quecksilber-Verhältnis beträgt etwa 1/1.2/0.045. Mehrere epidemiologische Studien an Arbeitern, die Quecksilberdämpfen ausgesetzt waren, haben gezeigt, dass bei Langzeitexposition die kritischen Wirkungsspiegel von Hg–U und Hg–B etwa 50 μg/g Kreatinin bzw. 2 μg/100 ml betragen.
Einige neuere Studien scheinen jedoch darauf hinzudeuten, dass bereits bei einem Quecksilbergehalt im Urin von unter 50 μg/g Kreatinin Anzeichen von unerwünschten Wirkungen auf das zentrale Nervensystem oder die Niere beobachtet werden können.
Normale Harn- und Blutspiegel liegen im Allgemeinen unter 5 μg/g Kreatinin bzw. 1 μg/100 ml. Diese Werte können durch Fischverzehr und die Anzahl der Quecksilberamalgamfüllungen in den Zähnen beeinflusst werden.
Organische Quecksilberverbindungen
Die organischen Quecksilberverbindungen werden auf allen Wegen leicht aufgenommen. Im Blut sind sie hauptsächlich in roten Blutkörperchen zu finden (ca. 90 %). Zu unterscheiden sind jedoch die kurzkettigen Alkylverbindungen (hauptsächlich Methylquecksilber), die sehr stabil und resistent gegen Biotransformation sind, und die Aryl- bzw. Alkoxyalkylderivate, die anorganisches Quecksilber freisetzen in vivo. Bei den letztgenannten Verbindungen ist wahrscheinlich die Quecksilberkonzentration im Blut sowie im Urin ein Hinweis auf die Expositionsintensität.
Unter Steady-State-Bedingungen korreliert Quecksilber im Vollblut und im Haar mit der Belastung des Körpers durch Methylquecksilber und mit dem Risiko von Anzeichen einer Methylquecksilbervergiftung. Bei Personen, die chronisch gegenüber Alkylquecksilber exponiert sind, können die ersten Anzeichen einer Vergiftung (Parästhesien, Empfindungsstörungen) auftreten, wenn die Quecksilberkonzentration im Blut 20 μg/100 ml bzw. 50 μg/g im Haar übersteigt.
Super
Nickel ist kein kumulatives Toxin und fast die gesamte aufgenommene Menge wird hauptsächlich über den Urin ausgeschieden, mit einer biologischen Halbwertszeit von 17 bis 39 Stunden. Bei nicht beruflich exponierten Personen liegen die Urin- und Plasmakonzentrationen von Nickel üblicherweise unter 2 µg/g Kreatinin bzw. 0.05 µg/100 ml.
Die Nickelkonzentrationen im Plasma und im Urin sind gute Indikatoren für eine kürzlich erfolgte Exposition gegenüber metallischem Nickel und seinen löslichen Verbindungen (z. B. während der Galvanisierung von Nickel oder der Herstellung von Nickelbatterien). Werte innerhalb normaler Bereiche weisen normalerweise auf eine nicht signifikante Exposition hin, und erhöhte Werte weisen auf eine Überexposition hin.
Für Arbeiter, die gegenüber löslichen Nickelverbindungen exponiert sind, wurde vorläufig ein biologischer Grenzwert von 30 μg/g Kreatinin (Ende der Schicht) für Nickel im Urin vorgeschlagen.
Bei Arbeitern, die schwerlöslichen oder unlöslichen Nickelverbindungen ausgesetzt sind, weisen erhöhte Konzentrationen in Körperflüssigkeiten im Allgemeinen auf eine signifikante Absorption oder fortschreitende Freisetzung aus der in der Lunge gespeicherten Menge hin; jedoch können erhebliche Nickelmengen in den Atemwegen (Nasenhöhlen, Lunge) abgelagert werden, ohne dass die Plasma- oder Urinkonzentration signifikant ansteigt. Daher müssen „normale“ Werte mit Vorsicht interpretiert werden und bedeuten nicht notwendigerweise, dass kein Gesundheitsrisiko besteht.
Selenium
Selen ist ein essentielles Spurenelement. Lösliche Selenverbindungen scheinen leicht über die Lunge und den Magen-Darm-Trakt aufgenommen zu werden. Selen wird hauptsächlich über den Urin ausgeschieden, kann aber bei sehr hoher Exposition auch als Dimethylselenid-Dampf in die Atemluft ausgeschieden werden. Normale Selenkonzentrationen in Serum und Urin hängen von der täglichen Aufnahme ab, die in verschiedenen Teilen der Welt erheblich variieren kann, aber normalerweise unter 15 μg/100 ml bzw. 25 μg/g Kreatinin liegt. Die Konzentration von Selen im Urin spiegelt hauptsächlich die jüngste Exposition wider. Der Zusammenhang zwischen der Intensität der Exposition und der Selenkonzentration im Urin ist noch nicht geklärt.
Es scheint, dass die Konzentration in Plasma (oder Serum) und Urin hauptsächlich eine kurzfristige Exposition widerspiegelt, während der Selengehalt der Erythrozyten eher eine langfristige Exposition widerspiegelt.
Die Messung von Selen im Blut oder Urin gibt Aufschluss über den Selenstatus. Derzeit wird es häufiger verwendet, um einen Mangel als eine Überbelichtung zu erkennen. Da die verfügbaren Daten zum Gesundheitsrisiko einer Langzeitexposition gegenüber Selen und zum Zusammenhang zwischen potenziellem Gesundheitsrisiko und Gehalten in biologischen Medien zu begrenzt sind, kann kein biologischer Grenzwert vorgeschlagen werden.
Vanadium
In der Industrie wird Vanadium hauptsächlich über die Lunge aufgenommen. Die orale Resorption scheint gering zu sein (weniger als 1 %). Vanadium wird mit einer biologischen Halbwertszeit von etwa 20 bis 40 Stunden im Urin und in geringerem Maße im Stuhl ausgeschieden. Vanadium im Urin scheint ein guter Indikator für eine kürzliche Exposition zu sein, aber die Beziehung zwischen Aufnahme und Vanadiumspiegel im Urin ist noch nicht ausreichend belegt. Es wurde vermutet, dass der Unterschied zwischen den Vanadiumkonzentrationen im Urin nach der Schicht und vor der Schicht die Beurteilung der Exposition während des Arbeitstages ermöglicht, während Vanadium im Urin zwei Tage nach Beendigung der Exposition (Montagmorgen) die Akkumulation des Metalls im Körper widerspiegeln würde . Bei nicht beruflich exponierten Personen liegt die Vanadiumkonzentration im Urin meist unter 1 µg/g Kreatinin. Für Vanadium im Urin wurde ein vorläufiger biologischer Grenzwert von 50 µg/g Kreatinin (Ende der Schicht) vorgeschlagen.
Origins
Die Normung im Bereich der Ergonomie hat eine relativ kurze Geschichte. Es begann Anfang der 1970er Jahre mit der Gründung erster Gremien auf nationaler Ebene (z. B. in Deutschland innerhalb des Normungsinstituts DIN) und setzte sich nach der Gründung der ISO (International Organization for Standardization) TC auf internationaler Ebene fort (Technisches Komitee) 159 „Ergonomie“, 1975. Inzwischen findet die Normung der Ergonomie auch auf regionaler Ebene statt, beispielsweise auf europäischer Ebene im Rahmen des CEN (Europäische Kommission für Normalisierung), das 122 sein TC 1987 „Ergonomics“ einrichtete. Die Existenz des letztgenannten Komitees unterstreicht die Tatsache, dass einer der wichtigen Gründe für die Einrichtung von Komitees zur Standardisierung ergonomischer Kenntnisse und Grundsätze in rechtlichen (und quasi-rechtlichen) Vorschriften, insbesondere zu Sicherheit und Gesundheit, die die Anwendung ergonomischer Prinzipien und Erkenntnisse bei der Gestaltung von Produkten und Arbeitssystemen erfordern. Nationale Gesetze, die die Anwendung bewährter Erkenntnisse der Ergonomie vorschreiben, waren Anlass für die Gründung des Deutschen Ergonomieausschusses im Jahr 1970, und europäische Richtlinien, insbesondere die Maschinenrichtlinie (mit Bezug auf Sicherheitsnormen), waren für die Einrichtung eines Ergonomieausschusses auf europäischer Ebene verantwortlich Niveau. Da gesetzliche Regelungen in der Regel wenig spezifisch sind, können und sollen, wurde die Aufgabe, festzulegen, welche ergonomischen Prinzipien und Erkenntnisse anzuwenden sind, an Arbeitsnormungsgremien vergeben bzw. von diesen übernommen. Gerade auf europäischer Ebene ist zu erkennen, dass die Ergonomie-Normung dazu beitragen kann, für breite und vergleichbare Bedingungen der Maschinensicherheit zu sorgen und damit Barrieren für den freien Handel mit Maschinen innerhalb des Kontinents abzubauen.
Perspectives
Die Normung der Ergonomie startete also mit einem starken Schutz-, wenn auch präventive Perspektive, wobei Ergonomiestandards mit dem Ziel entwickelt werden, Arbeitnehmer auf verschiedenen Ebenen des Gesundheitsschutzes vor negativen Auswirkungen zu schützen. Ergonomiestandards wurden daher mit folgenden Absichten erstellt:
Die nicht so eng an die Gesetzgebung gekoppelte internationale Normung hat dagegen immer auch versucht, eine Perspektive in Richtung einer Normenbildung zu eröffnen, die über die Vermeidung und den Schutz vor Beeinträchtigungen hinausgeht (z Werte) und stattdessen proaktiv optimale Arbeitsbedingungen zu schaffen, um das Wohlbefinden und die persönliche Entwicklung des Arbeitnehmers sowie die Effektivität, Effizienz, Zuverlässigkeit und Produktivität des Arbeitssystems zu fördern.
An dieser Stelle wird deutlich, dass Ergonomie und insbesondere Ergonomienormung sehr ausgeprägte gesellschaftliche und politische Dimensionen hat. Während der Schutzansatz in Bezug auf Sicherheit und Gesundheit allgemein akzeptiert und zwischen den beteiligten Parteien (Arbeitgeber, Gewerkschaften, Verwaltung und Ergonomieexperten) für alle Standardisierungsebenen vereinbart wird, wird der proaktive Ansatz nicht von allen Parteien gleichermaßen akzeptiert . Dies könnte darauf zurückzuführen sein, dass einige Parteien das Gefühl haben, dass solche Standards ihre Handlungs- oder Verhandlungsfreiheit einschränken könnten, insbesondere wenn die Gesetzgebung die Anwendung ergonomischer Grundsätze (und damit entweder explizit oder implizit die Anwendung von ergonomischen Standards) vorschreibt. Da internationale Normen weniger überzeugend sind (deren Überführung in das nationale Normenwerk liegt im Ermessen der nationalen Normungsgremien), ist der proaktive Ansatz auf der internationalen Ebene der Ergonomienormung am weitesten entwickelt.
Die Tatsache, dass bestimmte Vorschriften den Ermessensspielraum ihrer Adressaten tatsächlich einschränken würden, wirkte einer Standardisierung in bestimmten Bereichen entgegen, beispielsweise im Zusammenhang mit den europäischen Richtlinien nach Artikel 118a der Einheitlichen Europäischen Akte über Sicherheit und Gesundheitsschutz bei der Verwendung und Bedienung von Maschinen am Arbeitsplatz sowie bei der Gestaltung von Arbeitssystemen und Arbeitsplatzgestaltung. Andererseits wird im Rahmen der nach Artikel 100a erlassenen Richtlinien über Sicherheit und Gesundheitsschutz bei der Konstruktion von Maschinen im Hinblick auf den freien Handel mit diesen Maschinen innerhalb der Europäischen Union (EU) eine europäische Ergonomienormung von der Europäischen Kommission in Auftrag gegeben.
Aus ergonomischer Sicht ist jedoch schwer nachvollziehbar, warum sich die Ergonomie bei der Gestaltung von Maschinen von derjenigen bei der Nutzung und Bedienung von Maschinen innerhalb eines Arbeitssystems unterscheiden sollte. Es ist daher zu hoffen, dass die Unterscheidung in Zukunft aufgegeben wird, da sie der Entwicklung eines einheitlichen Ergonomie-Normenwerks eher abträglich als förderlich zu sein scheint.
Arten von Ergonomiestandards
Als erste internationale Ergonomienorm (basierend auf einer deutschen DIN-Landesnorm) wurde die 6385 erschienene ISO 1981 „Ergonomische Grundsätze bei der Gestaltung von Arbeitssystemen“ entwickelt. Sie ist die Grundnorm der Ergonomie-Normenreihe und setzt die Stufe für die Normen, gefolgt von der Definition der Grundbegriffe und der Festlegung der allgemeinen Prinzipien der ergonomischen Gestaltung von Arbeitssystemen, einschließlich Aufgaben, Werkzeugen, Maschinen, Arbeitsplätzen, Arbeitsraum, Arbeitsumgebung und Arbeitsorganisation. Diese internationale Norm, die derzeit überarbeitet wird, ist a Richtwert, und stellt als solche Richtlinien zur Verfügung, die befolgt werden müssen. Sie enthält jedoch keine technischen oder physikalischen Spezifikationen, die eingehalten werden müssen. Diese können in einer anderen Art von Standards gefunden werden, nämlich Spezifikationsstandards, zum Beispiel solche zur Anthropometrie oder zu thermischen Bedingungen. Beide Arten von Standards erfüllen unterschiedliche Funktionen. Während Richtwerte beabsichtigen, ihren Benutzern zu zeigen, „was zu tun ist und wie es zu tun ist“ und darauf hinzuweisen, welche Grundsätze eingehalten werden müssen oder sollten, z die eingehalten werden müssen und wo die Einhaltung dieser Vorschriften durch festgelegte Verfahren geprüft werden kann. Bei Leitlinienstandards ist dies nicht immer möglich, obwohl trotz relativ geringer Spezifität meist nachgewiesen werden kann, wann und wo gegen Leitlinien verstoßen wurde. Eine Untergruppe von Spezifikationsnormen sind „Datenbank“-Normen, die dem Benutzer relevante Ergonomiedaten liefern, beispielsweise Körpermaße.
CEN-Normen werden je nach Geltungsbereich und Anwendungsbereich als A-, B- und C-Typ-Normen klassifiziert. Typ-A-Normen sind allgemeine Grundnormen, die für alle Arten von Anwendungen gelten, Typ-B-Normen sind spezifisch für einen Anwendungsbereich (was bedeutet, dass die meisten Ergonomienormen innerhalb des CEN von diesem Typ sein werden) und C- Typennormen sind spezifisch für eine bestimmte Art von Maschinen, z. B. handgeführte Bohrmaschinen.
Normungsausschüsse
Ergonomienormen werden wie andere Normen in den entsprechenden Technischen Komitees (TCs), deren Unterkomitees (SCs) oder Arbeitsgruppen (WGs) erarbeitet. Für die ISO ist dies das TC 159, für das CEN das TC 122 und auf nationaler Ebene die jeweiligen nationalen Komitees. Neben den Ergonomie-Ausschüssen wird die Ergonomie auch in TCs behandelt, die sich mit Maschinensicherheit befassen (z. B. CEN TC 114 und ISO TC 199), mit denen Verbindung und enge Zusammenarbeit gepflegt werden. Es werden auch Verbindungen zu anderen Gremien hergestellt, für die Ergonomie relevant sein könnte. Die Verantwortung für Ergonomiestandards bleibt jedoch den Ergonomieausschüssen selbst vorbehalten.
Eine Reihe anderer Organisationen befasst sich mit der Erstellung von Ergonomienormen, wie z. B. die IEC (International Electrotechnical Commission); CENELEC oder die jeweiligen nationalen Komitees im elektrotechnischen Bereich; CCITT (Comité Consultative International des Organizations téléphoniques et télégraphiques) oder ETSI (European Telecommunication Standards Institute) im Bereich Telekommunikation; ECMA (European Computer Manufacturers Association) im Bereich Computersysteme; und CAMAC (Computer Assisted Measurement and Control Association) im Bereich neuer Technologien in der Fertigung, um nur einige zu nennen. Mit einigen von ihnen haben die Ergonomieausschüsse Verbindungen, um Doppelarbeit oder widersprüchliche Spezifikationen zu vermeiden; mit einigen Organisationen (z. B. der IEC) werden sogar gemeinsame technische Komitees für die Zusammenarbeit in Bereichen von gemeinsamem Interesse eingerichtet. Mit anderen Gremien hingegen gibt es überhaupt keine Koordination oder Kooperation. Der Hauptzweck dieser Ausschüsse besteht darin, (ergonomische) Standards zu erarbeiten, die für ihren Tätigkeitsbereich spezifisch sind. Da die Anzahl solcher Organisationen auf den verschiedenen Ebenen ziemlich groß ist, wird es ziemlich kompliziert (wenn nicht unmöglich), einen vollständigen Überblick über die Ergonomie-Normung zu erhalten. Die vorliegende Übersicht beschränkt sich daher auf die Ergonomie-Normung in den internationalen und europäischen Ergonomie-Gremien.
Struktur der Normungsausschüsse
Ergonomie-Normungsausschüsse sind einander recht ähnlich aufgebaut. Üblicherweise ist ein TC innerhalb einer Normungsorganisation für Ergonomie zuständig. Dieses Komitee (z. B. ISO TC 159) hat hauptsächlich mit Entscheidungen darüber zu tun, was standardisiert werden soll (z. B. Arbeitsaufgaben) und wie die Standardisierung innerhalb des Komitees organisiert und koordiniert wird, aber normalerweise werden auf dieser Ebene keine Standards erstellt. Unterhalb der TC-Ebene befinden sich weitere Gremien. Beispielsweise hat die ISO Unterkomitees (SCs), die für einen definierten Bereich der Normung zuständig sind: SC 1 für allgemeine ergonomische Leitprinzipien, SC 3 für Anthropometrie und Biomechanik, SC 4 für Mensch-System-Interaktion und SC 5 für die körperliche Arbeit Umgebung. CEN TC 122 hat Arbeitsgruppen (WGs) unterhalb der TC-Ebene, die so zusammengesetzt sind, dass sie sich mit bestimmten Bereichen innerhalb der Ergonomie-Normung befassen. SCs innerhalb des ISO TC 159 fungieren als Lenkungsausschüsse für ihren Verantwortungsbereich und führen die erste Abstimmung durch, aber sie bereiten normalerweise nicht auch Standards vor. Dies geschieht in ihren Arbeitsgruppen, die sich aus Experten zusammensetzen, die von ihren nationalen Ausschüssen ernannt werden, während SC- und TC-Sitzungen von nationalen Delegationen besucht werden, die nationale Standpunkte vertreten. Innerhalb des CEN werden die Aufgaben auf WG-Ebene nicht scharf getrennt; Arbeitsgruppen fungieren sowohl als Lenkungs- als auch als Produktionsausschüsse, obwohl ein Großteil der Arbeit in Ad-hoc-Gruppen geleistet wird, die sich aus Mitgliedern der Arbeitsgruppe zusammensetzen (von ihren nationalen Ausschüssen nominiert) und eingerichtet wurden, um die Entwürfe für eine Norm vorzubereiten. WGs innerhalb eines ISO SC werden eingerichtet, um die praktische Normungsarbeit zu leisten, d. h. Entwürfe zu erstellen, Kommentare zu bearbeiten, Normungsbedarf zu ermitteln und Vorschläge an SC und TC auszuarbeiten, die dann die entsprechenden Entscheidungen oder Maßnahmen treffen.
Erarbeitung von Ergonomiestandards
Die Erarbeitung von Ergonomienormen hat sich in den letzten Jahren angesichts der stärkeren Betonung europäischer und anderer internationaler Entwicklungen deutlich verändert. Zu Beginn wurden nationale Normen, die von Experten eines Landes in ihrem nationalen Komitee erarbeitet und von den interessierten Kreisen der Öffentlichkeit dieses Landes in einem festgelegten Abstimmungsverfahren vereinbart wurden, als Input an das zuständige SC und die WG übergeben von ISO TC 159, nachdem eine formelle Abstimmung auf TC-Ebene stattgefunden hatte, dass eine solche internationale Norm erstellt werden sollte. Die Arbeitsgruppe, bestehend aus Ergonomie-Experten (und Experten aus politisch interessierten Kreisen) aller beteiligten Mitgliedsorganisationen (dh der nationalen Normungsorganisationen) des TC 159, die bereit waren, an diesem Arbeitsprojekt mitzuarbeiten, würde dann alle Beiträge bearbeiten und vorbereiten ein Arbeitsentwurf (WD). Nachdem dieser Vorschlagsentwurf in der Arbeitsgruppe vereinbart wurde, wird er zu einem Ausschussentwurf (CD), der an die Mitgliedsgremien des SC zur Genehmigung und Kommentierung verteilt wird. Wenn der Entwurf von den SC-Mitgliedsgremien substantiell unterstützt wird (dh wenn mindestens zwei Drittel dafür stimmen) und nachdem Kommentare der nationalen Komitees von der AG in die verbesserte Version eingearbeitet wurden, ist ein Draft International Standard (DIS) gültig allen Mitgliedern des TC 159 zur Abstimmung vorgelegt. Wenn bei diesem Schritt von den Mitgliedsgremien des TC substanzielle Unterstützung erreicht wird (und vielleicht nach Einarbeitung redaktioneller Änderungen), wird diese Version dann als Internationaler Standard (IS) von veröffentlicht die ISO. Die Abstimmung der Mitgliedsgremien auf TC- und SC-Ebene basiert auf der Abstimmung auf nationaler Ebene, und über die Mitgliedsgremien können Experten oder interessierte Parteien in jedem Land Kommentare abgeben. Im CEN TC 122 ist die Vorgehensweise in etwa äquivalent, mit der Ausnahme, dass es keine SCs unterhalb der TC-Ebene gibt und dass die Abstimmung mit gewichteten Stimmen (je nach Größe des Landes) erfolgt, während innerhalb der ISO die Regel one country, one gilt Abstimmung. Wenn ein Entwurf bei irgendeinem Schritt fehlschlägt und die AG nicht entscheidet, dass eine zufriedenstellende Überarbeitung nicht erreicht werden kann, muss er überarbeitet werden und muss dann das Abstimmungsverfahren erneut durchlaufen.
Internationale Normen werden dann in nationale Normen überführt, wenn die nationalen Gremien entsprechend stimmen. Europäische Normen (EN) hingegen müssen von den CEN-Mitgliedern in nationale Normen überführt und entgegenstehende nationale Normen zurückgezogen werden. Das bedeutet, dass harmonisierte EN in allen CEN-Ländern gelten werden (und aufgrund ihres Einflusses auf den Handel für Hersteller in allen anderen Ländern relevant sein werden, die beabsichtigen, Waren an einen Kunden in einem CEN-Land zu verkaufen).
ISO-CEN-Kooperation
Um widersprüchliche Normen und Doppelarbeit zu vermeiden und Nicht-CEN-Mitgliedern die Möglichkeit zu geben, sich an Entwicklungen im CEN zu beteiligen, wurde eine Kooperationsvereinbarung zwischen ISO und CEN geschlossen (die sog Wiener Abkommen), der die Formalitäten regelt und ein sogenanntes paralleles Abstimmungsverfahren vorsieht, das es ermöglicht, im CEN und in der ISO parallel über dieselben Entwürfe abzustimmen, wenn die zuständigen Gremien dem zustimmen. Bei den Ergonomieausschüssen ist die Tendenz ganz klar: Doppelarbeit vermeiden (Personal- und Finanzmittel sind zu begrenzt), widersprüchliche Vorgaben vermeiden und versuchen, ein einheitliches und arbeitsteiliges Ergonomienormenwerk zu erreichen. Während das CEN TC 122 an die Entscheidungen der EU-Verwaltung gebunden ist und Arbeitsaufgaben erhält, um die Spezifikationen europäischer Richtlinien festzulegen, steht es dem ISO TC 159 frei, alles zu standardisieren, was es auf dem Gebiet der Ergonomie für notwendig oder angemessen hält. Dies hat zu einer Verschiebung des Schwerpunkts beider Ausschüsse geführt, wobei sich das CEN auf maschinen- und sicherheitsbezogene Themen konzentriert und das ISO sich auf Bereiche konzentriert, die breitere Marktinteressen als Europa betreffen (z. B. Arbeit mit Bildschirmen und Kontrollraumdesign für Prozesse und verwandte Branchen); in Bereichen, in denen es um die Bedienung von Maschinen geht, wie bei der Gestaltung von Arbeitssystemen; und auch in Bereichen wie Arbeitsumfeld und Arbeitsorganisation. Beabsichtigt ist jedoch, Arbeitsergebnisse vom CEN in die ISO und umgekehrt zu transferieren, um ein tatsächlich weltweit wirksames Korpus einheitlicher Ergonomienormen aufzubauen.
Das formale Verfahren zur Erstellung von Standards ist bis heute gleich geblieben. Da sich der Schwerpunkt aber immer mehr auf die internationale bzw. europäische Ebene verlagert hat, werden immer mehr Aktivitäten in diese Gremien verlagert. Entwürfe werden heute meist direkt in diesen Gremien ausgearbeitet und orientieren sich nicht mehr an bestehenden nationalen Normen. Nachdem entschieden wurde, dass ein Standard entwickelt werden soll, beginnt die Arbeit direkt auf einer dieser supranationalen Ebenen, basierend auf allen verfügbaren Inputs, manchmal von Null. Dadurch ändert sich die Rolle der nationalen Ergonomieausschüsse ganz dramatisch. Während sie bisher formal ihre eigenen nationalen Standards nach ihren nationalen Regeln entwickelt haben, haben sie nun die Aufgabe, die Standardisierung auf supranationaler Ebene zu beobachten und zu beeinflussen – über die Experten, die die Standards erarbeiten, oder durch Kommentare in den verschiedenen Abstimmungsschritten (innerhalb von des CEN wird ein nationales Normungsprojekt gestoppt, wenn gleichzeitig ein vergleichbares Projekt auf CEN-Ebene bearbeitet wird). Dies macht die Aufgabe noch komplizierter, da dieser Einfluss nur indirekt ausgeübt werden kann und da die Erarbeitung von Ergonomienormen nicht nur eine Frage der reinen Wissenschaft ist, sondern eine Frage des Aushandelns, Konsens und Einvernehmens (nicht zuletzt aufgrund der politischen Implikationen, die die Standard haben könnte). Dies ist natürlich einer der Gründe, warum der Prozess zur Erarbeitung einer internationalen oder europäischen Ergonomienorm in der Regel mehrere Jahre dauert und Ergonomienormen nicht den neuesten Stand der Ergonomie widerspiegeln können. Internationale Ergonomienormen müssen daher alle fünf Jahre überprüft und gegebenenfalls überarbeitet werden.
Bereiche der Ergonomie-Normung
Die internationale Ergonomie-Normung begann mit Leitlinien zu den allgemeinen Grundsätzen der Ergonomie bei der Gestaltung von Arbeitssystemen; sie wurden in der ISO 6385 festgelegt, die derzeit überarbeitet wird, um neue Entwicklungen aufzunehmen. Das CEN hat eine ähnliche Grundnorm (EN 614, Teil 1, 1994) erstellt – diese ist eher maschinen- und sicherheitsorientiert – und bereitet als zweiten Teil dieser Grundnorm eine Norm mit Leitlinien zur Aufgabengestaltung vor. Das CEN betont damit die Bedeutung von Bedieneraufgaben bei der Konstruktion von Maschinen oder Arbeitssystemen, für die geeignete Werkzeuge oder Maschinen konstruiert werden müssen.
Ein weiterer Bereich, in dem Konzepte und Richtlinien in Normen festgehalten wurden, ist der Bereich der psychischen Belastung. ISO 10075, Teil 1, definiert Begriffe und Konzepte (z. B. Ermüdung, Monotonie, reduzierte Wachsamkeit), und Teil 2 (im Stadium eines DIS in der zweiten Hälfte der 1990er Jahre) gibt Richtlinien für die Gestaltung von Arbeitssystemen in Bezug auf geistige Belastung, um Beeinträchtigungen zu vermeiden.
SC 3 des ISO TC 159 und WG 1 des CEN TC 122 erstellen Normen zu Anthropometrie und Biomechanik, die unter anderem Methoden der anthropometrischen Messung, Körpermaße, Sicherheitsabstände und Zugangsmaße, die Bewertung von Arbeitshaltungen und die Gestaltung von Arbeitsplätzen behandeln in Bezug auf Maschinen, empfohlene Grenzen der körperlichen Kraft und Probleme der manuellen Handhabung.
SC 4 von ISO 159 zeigt, wie sich technologische und gesellschaftliche Veränderungen auf die Ergonomienormung und das Programm eines solchen Unterkomitees auswirken. SC 4 begann als „Signals and Controls“ mit der Standardisierung von Prinzipien für die Anzeige von Informationen und dem Entwurf von Steueraktuatoren, wobei eines seiner Arbeitselemente die visuelle Anzeigeeinheit (VDU) war, die für Büroaufgaben verwendet wird. Es zeigte sich jedoch bald, dass eine Standardisierung der Ergonomie von Bildschirmgeräten nicht ausreichen würde und eine Standardisierung „um“ diesen Arbeitsplatz herum – im Sinne von a Arbeitssystem– war erforderlich und umfasste Bereiche wie Hardware (z. B. die VDU selbst, einschließlich Displays, Tastaturen, Nicht-Tastatur-Eingabegeräte, Arbeitsstationen), Arbeitsumgebung (z. B. Beleuchtung), Arbeitsorganisation (z. B. Aufgabenanforderungen) und Software ( zB Dialogprinzipien, Menü- und Direktmanipulationsdialoge). Dies führte zu einer mehrteiligen Norm (ISO 9241) zu „ergonomischen Anforderungen an die Büroarbeit mit Bildschirmen“ mit derzeit 17 Teilen, von denen 3 bereits den Status einer IS erreicht haben. Diese Norm wird an das CEN (als EN 29241) übertragen, das Anforderungen für die Bildschirmgeräterichtlinie (90/270 EWG) der EU festlegen wird – obwohl dies eine Richtlinie nach Artikel 118a der Einheitlichen Europäischen Akte ist. Diese Normenreihe enthält Richtlinien sowie Spezifikationen, je nach Thema des jeweiligen Teils der Norm, und führt ein neues Normungskonzept ein, den Benutzerleistungsansatz, der zur Lösung einiger Probleme der Ergonomienormung beitragen könnte. Es wird im Kapitel ausführlicher beschrieben Visuelle Anzeigeeinheiten .
Der User-Performance-Ansatz basiert auf der Überlegung, dass das Ziel der Normung darin besteht, Beeinträchtigungen vorzubeugen und optimale Arbeitsbedingungen für den Bediener zu schaffen, nicht aber die Festlegung technischer Spezifikationen per se. Die Spezifikation wird daher nur als Mittel zum Zweck einer ungestörten, optimalen Benutzerleistung angesehen. Wichtig ist, diese uneingeschränkte Leistungsfähigkeit des Bedieners zu erreichen, unabhängig davon, ob eine bestimmte körperliche Vorgabe erfüllt ist. Dies erfordert, dass erstens die zu erreichende ungestörte Bedienerleistung, beispielsweise die Leseleistung auf einem Bildschirm, spezifiziert werden muss und zweitens technische Spezifikationen entwickelt werden, anhand derer die gewünschte Leistung erreicht werden kann die verfügbaren Beweise. Dem Hersteller steht es dann frei, diese technischen Spezifikationen zu befolgen, die sicherstellen, dass das Produkt den ergonomischen Anforderungen entspricht. Oder er kann durch Vergleich mit einem Produkt, von dem bekannt ist, dass es die Anforderungen erfüllt (entweder durch Einhaltung der technischen Spezifikationen der Norm oder durch nachgewiesene Leistung), nachweisen, dass mit dem neuen Produkt die Leistungsanforderungen gleich oder besser erfüllt werden als mit der Referenzprodukt, mit oder ohne Einhaltung der technischen Spezifikationen der Norm. Ein Prüfverfahren, das zum Nachweis der Konformität mit den Benutzerleistungsanforderungen der Norm zu befolgen ist, ist in der Norm festgelegt.
Dieser Ansatz hilft, zwei Probleme zu überwinden. Normen können durch ihre Festlegungen, die auf dem Stand der Technik (und Technik) zum Zeitpunkt der Normerstellung beruhen, Neuentwicklungen einschränken. Spezifikationen, die auf einer bestimmten Technologie basieren (z. B. Kathodenstrahlröhren), können für andere Technologien ungeeignet sein. Unabhängig von der Technologie soll jedoch der Benutzer beispielsweise eines Anzeigegeräts die angezeigten Informationen unabhängig von der verwendeten Technik effektiv und effizient ohne Beeinträchtigung lesen und verstehen können. Die Leistung darf sich in diesem Fall jedoch nicht auf die reine Leistung (gemessen an Geschwindigkeit oder Genauigkeit) beschränken, sondern muss auch Überlegungen zu Komfort und Anstrengung beinhalten.
Das zweite Problem, das mit diesem Ansatz behandelt werden kann, ist das Problem der Wechselwirkungen zwischen Bedingungen. Die physikalische Spezifikation ist normalerweise eindimensional und lässt andere Bedingungen außer Betracht. Bei interaktiven Effekten kann dies jedoch irreführend oder sogar falsch sein. Indem man andererseits Leistungsanforderungen spezifiziert und die Mittel zu deren Erreichung dem Hersteller überlässt, ist jede Lösung, die diese Leistungsanforderungen erfüllt, akzeptabel. Spezifikation als Mittel zum Zweck zu behandeln, repräsentiert somit eine genuin ergonomische Perspektive.
Eine weitere Norm mit einem Arbeitssystemansatz ist in SC 4 in Vorbereitung, die sich auf die Gestaltung von Leitwarten beispielsweise für die Prozessindustrie oder Kraftwerke bezieht. Als Ergebnis soll eine mehrteilige Norm (ISO 11064) erstellt werden, deren verschiedene Teile sich mit Aspekten der Leitwartengestaltung wie Layout, Gestaltung von Bedienerarbeitsplätzen und Gestaltung von Anzeigen und Eingabegeräten für die Prozesssteuerung befassen. Da diese Workitems und der gewählte Ansatz deutlich über Probleme der Gestaltung von „Anzeigen und Bedienelementen“ hinausgehen, wurde SC 4 in „Mensch-System-Interaktion“ umbenannt.
Umweltprobleme, insbesondere solche in Bezug auf thermische Bedingungen und Kommunikation in lauter Umgebung, werden in SC 5 behandelt, wo Standards zu Messmethoden, Methoden zur Abschätzung von Hitzestress, thermischen Behaglichkeitsbedingungen und metabolischer Wärmeproduktion erstellt wurden oder werden , sowie auf akustische und optische Gefahrensignale, Sprachstörpegel und die Bewertung der Sprachkommunikation.
CEN TC 122 deckt ungefähr die gleichen Bereiche der Ergonomie-Normung ab, jedoch mit anderen Schwerpunkten und einer anderen Struktur seiner Arbeitsgruppen. Es ist jedoch beabsichtigt, dass durch Arbeitsteilung zwischen den Ergonomie-Ausschüssen und gegenseitige Anerkennung der Arbeitsergebnisse ein allgemeines und anwendbares Ergonomie-Standardwerk entwickelt wird.
Vorrangiges Ziel der Arbeits- und Umwelttoxikologie ist die Verbesserung der Vermeidung oder weitgehenden Begrenzung gesundheitlicher Auswirkungen der Exposition gegenüber gefährlichen Arbeitsstoffen im allgemeinen und beruflichen Umfeld. Zu diesem Zweck wurden Systeme zur quantitativen Risikobewertung in Bezug auf eine bestimmte Exposition entwickelt (siehe Abschnitt „Regulatorische Toxikologie“).
Die Auswirkungen einer Chemikalie auf bestimmte Systeme und Organe hängen vom Ausmaß der Exposition und davon ab, ob die Exposition akut oder chronisch ist. Angesichts der Vielfalt toxischer Wirkungen auch innerhalb eines Systems oder Organs wurde zur Risikobewertung und Entwicklung gesundheitsbasierter empfohlener Konzentrationsgrenzwerte toxischer Stoffe in unterschiedlichen Umweltmedien eine einheitliche Philosophie bezüglich des kritischen Organs und der kritischen Wirkung vorgeschlagen .
Aus Sicht der Präventivmedizin ist es von besonderer Bedeutung, frühe Nebenwirkungen zu erkennen, ausgehend von der allgemeinen Annahme, dass die Verhinderung oder Begrenzung früher Auswirkungen schwerwiegendere gesundheitliche Auswirkungen verhindern kann.
Ein solcher Ansatz wurde auf Schwermetalle angewendet. Obwohl Schwermetalle wie Blei, Cadmium und Quecksilber zu einer bestimmten Gruppe toxischer Substanzen gehören, deren chronische Wirkung von ihrer Anreicherung in den Organen abhängt, wurden die nachstehenden Definitionen von der Task Group on Metal Toxicity (Nordberg 1976).
Die von der Task Group on Metal Toxicity vorgeschlagene Definition des kritischen Organs wurde mit einer leichten Modifikation übernommen: dem Wort Metall wurde durch den Ausdruck ersetzt potenziell toxische Substanz (Duffus 1993).
Ob ein bestimmtes Organ oder System als kritisch angesehen wird, hängt nicht nur von der Toxikomechanik des gefährlichen Stoffes ab, sondern auch vom Aufnahmeweg und der exponierten Bevölkerung.
Die biologische Bedeutung des unterkritischen Effekts ist manchmal nicht bekannt; es kann für einen Expositionsbiomarker, einen Anpassungsindex oder einen kritischen Wirkungsvorläufer stehen (siehe „Toxikologische Testmethoden: Biomarker“). Die letztgenannte Möglichkeit kann im Hinblick auf prophylaktische Aktivitäten von besonderer Bedeutung sein.
Tabelle 1 zeigt Beispiele kritischer Organe und Wirkungen für verschiedene Chemikalien. Bei chronischer umweltbedingter Cadmiumbelastung, bei der der Aufnahmeweg von untergeordneter Bedeutung ist (Cadmiumkonzentrationen in der Luft reichen von 10 bis 20 μg/m3 in der Stadt und 1 bis 2 μg/m3 in den ländlichen Gebieten) ist das kritische Organ die Niere. In der beruflichen Umgebung, wo der TLV 50 μg/m erreicht3 und die Inhalation den Hauptexpositionsweg darstellt, werden zwei Organe, Lunge und Niere, als kritisch angesehen.
Tabelle 1. Beispiele für kritische Organe und kritische Wirkungen
Substanz | Kritisches Organ bei chronischer Exposition | Kritischer Effekt |
Cadmium | Lunge | Schwellenlos: Lungenkrebs (Einheitsrisiko 4.6 x 10-3) |
Niere | Schwelle: Erhöhte Ausscheidung von niedermolekularen Proteinen (β2 –M, RBP) im Urin |
|
Lunge | Emphysem leichte Funktionsänderungen | |
Führen (Lead) | Erwachsene Hämatopoetisches System |
Erhöhte Ausscheidung von Delta-Aminolävulinsäure im Urin (ALA-U); erhöhte Konzentration von freiem Erythrozyten-Protoporphyrin (FEP) in Erythrozyten |
Periphäres Nervensystem | Verlangsamung der Leitungsgeschwindigkeiten der langsameren Nervenfasern | |
Quecksilber (elementar) | Kleine Kinder Zentrales Nervensystem |
Abnahme des IQ und andere subtile Effekte; Quecksilbertremor (Finger, Lippen, Augenlider) |
Quecksilber (Quecksilber) | Niere | Proteinurie |
Mangan | Erwachsene Zentrales Nervensystem |
Beeinträchtigung psychomotorischer Funktionen |
weltweit Lunge |
Atemwegsbeschwerden | |
Zentrales Nervensystem | Beeinträchtigung psychomotorischer Funktionen | |
Toluol | Schleimhäute | Reizung |
Vinylchlorid | Leber | Krebs (Angiosarkom-Einheitsrisiko 1 x 10-6 ) |
Ethylacetat | Schleimhaut | Reizung |
Für Blei sind die kritischen Organe bei Erwachsenen das blutbildende und das periphere Nervensystem, wo sich die kritischen Wirkungen (z. B. erhöhte Protoporphyrin-Konzentration in freien Erythrozyten (FEP), erhöhte Ausscheidung von Delta-Aminolävulinsäure im Urin oder gestörte periphere Nervenleitung) manifestieren, wenn der Blutbleispiegel (ein Index der Bleiabsorption im System) nähert sich 200 bis 300 μg/l. Bei kleinen Kindern ist das zentrale Nervensystem (ZNS) das kritische Organ, und die mit einer psychologischen Testbatterie festgestellten Funktionsstörungen treten in den untersuchten Populationen bereits bei Konzentrationen im Bereich von etwa 100 μg/l Pb auf in Blut.
Es wurden eine Reihe anderer Definitionen formuliert, die die Bedeutung des Begriffs möglicherweise besser widerspiegeln. Laut WHO (1989) wurde die kritische Wirkung definiert als „die erste nachteilige Wirkung, die auftritt, wenn die (kritische) Schwellenkonzentration oder -dosis im kritischen Organ erreicht wird. Unerwünschte Wirkungen wie Krebs ohne definierte Schwellenkonzentration werden oft als kritisch angesehen. Die Entscheidung, ob ein Effekt kritisch ist, ist eine Frage des Expertenurteils.“ Im International Programme on Chemical Safety (IPCS) werden Richtlinien zur Entwicklung entwickelt Dokumente zu Umweltgesundheitskriterienwird die kritische Wirkung beschrieben als „die nachteilige Wirkung, die als am besten geeignet zur Bestimmung der tolerierbaren Aufnahme erachtet wird“. Die letztgenannte Definition wurde direkt zum Zwecke der Bewertung der gesundheitsbasierten Expositionsgrenzwerte in der allgemeinen Umwelt formuliert. Wesentlich scheint in diesem Zusammenhang die Bestimmung zu sein, welche Wirkung als nachteilige Wirkung anzusehen ist. Nach gängiger Terminologie ist die Beeinträchtigung die „Änderung der Morphologie, Physiologie, des Wachstums, der Entwicklung oder der Lebensdauer eines Organismus, die zu einer Beeinträchtigung der Fähigkeit, zusätzliche Belastungen zu kompensieren, oder einer Erhöhung der Anfälligkeit für die schädlichen Auswirkungen anderer Umwelteinflüsse führt. Die Entscheidung darüber, ob eine Wirkung nachteilig ist oder nicht, erfordert ein Expertenurteil.“
Abbildung 1 zeigt hypothetische Dosis-Wirkungs-Kurven für verschiedene Wirkungen. Bei Bleibelastung A kann einen unterkritischen Effekt darstellen (Hemmung der Erythrozyten-ALA-Dehydratase), B der kritische Effekt (eine Erhöhung des Erythrozyten-Zink-Protoporphyrins oder eine Erhöhung der Ausscheidung von Delta-Aminolävulinsäure, C die klinische Wirkung (Anämie) und D die fatale Wirkung (Tod). Für die Bleiexposition gibt es zahlreiche Belege dafür, wie bestimmte Wirkungen der Exposition von der Bleikonzentration im Blut (praktisches Gegenstück zur Dosis) abhängig sind, entweder in Form der Dosis-Wirkungs-Beziehung oder in Bezug auf verschiedene Variablen (Geschlecht, Alter usw .). Die Bestimmung der kritischen Wirkungen und der Dosis-Wirkungs-Beziehung für solche Wirkungen beim Menschen ermöglicht es, die Häufigkeit einer bestimmten Wirkung für eine bestimmte Dosis oder ihr Gegenstück (Konzentration in biologischem Material) in einer bestimmten Population vorherzusagen.
Abbildung 1. Hypothetische Dosis-Wirkungs-Kurven für verschiedene Wirkungen
Es gibt zwei Arten von kritischen Wirkungen: solche, die als grenzwertig angesehen werden, und solche, für die bei jeder Expositionshöhe ein gewisses Risiko bestehen kann (nicht grenzwertbezogene, genotoxische Karzinogene und Keimmutagene). Wann immer möglich, sollten geeignete Humandaten als Grundlage für die Risikobewertung verwendet werden. Um die Schwellenwirkungen für die allgemeine Bevölkerung zu bestimmen, müssen Annahmen über die Expositionshöhe (tolerierbare Aufnahme, Biomarker der Exposition) getroffen werden, sodass die Häufigkeit der kritischen Wirkung in der Bevölkerung, die einem bestimmten gefährlichen Stoff ausgesetzt ist, der Häufigkeit entspricht dieser Wirkung in der allgemeinen Bevölkerung. Bei Bleiexposition liegt die maximal empfohlene Blutbleikonzentration für die Allgemeinbevölkerung (200 µg/l, Median unter 100 µg/l) (WHO 1987) praktisch unter dem Schwellenwert für die angenommene kritische Wirkung – der erhöhte freie Erythrozyten-Protoporphyrin-Spiegel ist zwar vorhanden nicht unter dem Wert liegt, der mit Auswirkungen auf das ZNS bei Kindern oder dem Blutdruck bei Erwachsenen verbunden ist. Wenn Daten aus gut durchgeführten Studien am Menschen, die eine Konzentration ohne beobachtete Nebenwirkungen definieren, die Grundlage für die Sicherheitsbewertung bilden, wurde im Allgemeinen ein Unsicherheitsfaktor von zehn als angemessen erachtet. Bei beruflicher Exposition können sich die kritischen Wirkungen auf einen bestimmten Teil der Bevölkerung (z. B. 10 %) beziehen. Dementsprechend wurde bei beruflicher Bleiexposition die empfohlene gesundheitsbasierte Blutbleikonzentration auf 400 mg/l bei Männern festgelegt, wobei ein 10%iger Ansprechwert für ALA-U von 5 mg/l bei PbB-Konzentrationen von etwa 300 bis 400 mg/l auftrat . Für die berufliche Exposition gegenüber Cadmium (unter Annahme der erhöhten Urinausscheidung von Proteinen mit geringem Gewicht als kritischer Effekt) wurde der Gehalt von 200 ppm Cadmium in der Nierenrinde als zulässiger Wert angesehen, da dieser Effekt in 10 % der Fälle beobachtet wurde die exponierte Bevölkerung. Diese beiden Werte werden derzeit (dh 1996) in vielen Ländern über eine Senkung erwogen.
Es gibt keinen klaren Konsens über eine geeignete Methodik für die Risikobewertung von Chemikalien, für die die kritische Wirkung möglicherweise keinen Schwellenwert hat, wie z. B. genotoxische Karzinogene. Eine Reihe von Ansätzen, die weitgehend auf der Charakterisierung der Dosis-Wirkungs-Beziehung beruhen, wurden zur Bewertung solcher Wirkungen übernommen. Aufgrund der fehlenden gesellschaftspolitischen Akzeptanz von Gesundheitsrisiken durch Karzinogene in Dokumenten wie z Luftqualitätsrichtlinien für Europa (WHO 1987) nur die Werte wie das Einheitslebensdauerrisiko (d. h. das Risiko, das mit einer lebenslangen Exposition gegenüber 1 μg/m3 des gefährlichen Stoffes) werden für Wirkungen ohne Schwellenwert angegeben (siehe „Regulatorische Toxikologie“).
Derzeit besteht der grundlegende Schritt bei der Durchführung von Aktivitäten zur Risikobewertung in der Bestimmung des kritischen Organs und der kritischen Auswirkungen. Die Definitionen sowohl der kritischen als auch der schädlichen Wirkung spiegeln die Verantwortung wider, zu entscheiden, welche der Wirkungen innerhalb eines bestimmten Organs oder Systems als kritisch angesehen werden sollten, und dies steht in direktem Zusammenhang mit der anschließenden Bestimmung empfohlener Werte für eine bestimmte Chemikalie in der allgemeinen Umgebung -zum Beispiel, Luftqualitätsrichtlinien für Europa (WHO 1987) oder gesundheitsbasierte Grenzwerte bei beruflicher Exposition (WHO 1980). Die Bestimmung der kritischen Wirkung innerhalb des Bereichs der unterkritischen Wirkungen kann zu einer Situation führen, in der die empfohlenen Grenzwerte für die Konzentration toxischer Chemikalien in der allgemeinen oder beruflichen Umgebung in der Praxis unmöglich einzuhalten sind. Wenn eine Wirkung, die sich möglicherweise mit den frühen klinischen Wirkungen überschneidet, als kritisch betrachtet wird, kann dies dazu führen, dass die Werte angenommen werden, bei denen sich in einem Teil der Bevölkerung unerwünschte Wirkungen entwickeln können. Die Entscheidung, ob eine bestimmte Wirkung als kritisch einzustufen ist oder nicht, liegt in der Verantwortung von Expertengruppen, die auf Toxizitäts- und Risikobewertung spezialisiert sind.
Einleitung
Organische Lösungsmittel sind flüchtig und im Allgemeinen in Körperfett löslich (lipophil), obwohl einige von ihnen, z. B. Methanol und Aceton, auch wasserlöslich (hydrophil) sind. Sie wurden nicht nur in der Industrie, sondern auch in Konsumgütern wie Farben, Tinten, Verdünnern, Entfettern, Trockenreinigungsmitteln, Fleckenentfernern, Abwehrmitteln und so weiter in großem Umfang eingesetzt. Obwohl es möglich ist, ein biologisches Monitoring anzuwenden, um gesundheitliche Auswirkungen zu erkennen, z. B. Auswirkungen auf die Leber und die Niere, zum Zwecke der Gesundheitsüberwachung von Arbeitnehmern, die beruflich organischen Lösungsmitteln ausgesetzt sind, ist es am besten, stattdessen ein biologisches Monitoring zu verwenden für „ „Exposition“-Überwachung, um die Gesundheit der Arbeitnehmer vor der Toxizität dieser Lösungsmittel zu schützen, da dies ein Ansatz ist, der sensibel genug ist, um Warnungen auszusprechen, lange bevor gesundheitliche Auswirkungen auftreten können. Das Screening von Arbeitnehmern auf eine hohe Empfindlichkeit gegenüber Lösungsmitteltoxizität kann ebenfalls zum Schutz ihrer Gesundheit beitragen.
Zusammenfassung der Toxikokinetik
Organische Lösungsmittel sind im Allgemeinen unter Standardbedingungen flüchtig, obwohl die Flüchtigkeit von Lösungsmittel zu Lösungsmittel unterschiedlich ist. Daher ist der Hauptexpositionsweg in industriellen Umgebungen die Inhalation. Die Absorptionsrate durch die Alveolarwand der Lunge ist viel höher als die durch die Wand des Verdauungstrakts, und eine Lungenabsorptionsrate von etwa 50 % wird als typisch für viele gebräuchliche Lösungsmittel wie Toluol angesehen. Einige Lösungsmittel, z. B. Schwefelkohlenstoff und N,N-Dimethylformamid, können in flüssigem Zustand in so großen Mengen intakte menschliche Haut durchdringen, dass sie toxisch wirken.
Bei der Aufnahme dieser Lösungsmittel wird ein Teil ohne Biotransformation über die Atemluft ausgeatmet, der größere Teil jedoch aufgrund ihrer Lipophilie in lipidreichen Organen und Geweben verteilt. Die Biotransformation findet hauptsächlich in der Leber statt (und in geringem Umfang auch in anderen Organen), und das Lösungsmittelmolekül wird hydrophiler, typischerweise durch einen Oxidationsprozess mit anschließender Konjugation, um als Metabolit(e) über die Niere in den Urin ausgeschieden zu werden ). Ein kleiner Teil kann unverändert mit dem Urin ausgeschieden werden.
Somit stehen aus praktischer Sicht drei biologische Materialien, Urin, Blut und Atemluft, für die Expositionsüberwachung von Lösungsmitteln zur Verfügung. Ein weiterer wichtiger Faktor bei der Auswahl biologischer Materialien für die Expositionsüberwachung ist die Geschwindigkeit des Verschwindens der absorbierten Substanz, für die die biologische Halbwertszeit oder die Zeit, die eine Substanz benötigt, um auf die Hälfte ihrer ursprünglichen Konzentration abzunehmen, ein quantitativer Parameter ist. Beispielsweise verschwinden Lösungsmittel viel schneller aus der ausgeatmeten Luft als entsprechende Metaboliten aus dem Urin, was bedeutet, dass sie eine viel kürzere Halbwertszeit haben. Innerhalb von Metaboliten im Urin variiert die biologische Halbwertszeit in Abhängigkeit davon, wie schnell die Ausgangsverbindung metabolisiert wird, so dass die Probenahmezeit in Bezug auf die Exposition oft von entscheidender Bedeutung ist (siehe unten). Eine dritte Überlegung bei der Auswahl eines biologischen Materials ist die Spezifität der zu analysierenden Zielchemikalie in Bezug auf die Exposition. Beispielsweise ist Hippursäure ein seit langem verwendeter Marker für Toluol-Exposition, aber sie wird nicht nur auf natürliche Weise vom Körper gebildet, sondern kann auch aus nicht-beruflichen Quellen wie einigen Lebensmittelzusatzstoffen stammen und gilt nicht mehr als zuverlässig Markierung, wenn die Toluolbelastung gering ist (weniger als 50 cm3/m3). Im Allgemeinen wurden Metaboliten im Urin am häufigsten als Indikatoren für die Exposition gegenüber verschiedenen organischen Lösungsmitteln verwendet. Lösungsmittel im Blut wird als qualitatives Expositionsmaß analysiert, da es normalerweise kürzer im Blut verbleibt und eher eine akute Exposition widerspiegelt, während Lösungsmittel in der Ausatemluft zur Abschätzung der durchschnittlichen Exposition schwierig zu verwenden ist, da die Konzentration in der Atemluft so abnimmt schnell nach Beendigung der Exposition. Lösungsmittel im Urin ist ein vielversprechender Kandidat als Expositionsmaß, bedarf jedoch weiterer Validierung.
Biologische Expositionstests für organische Lösungsmittel
Bei der Anwendung der biologischen Überwachung auf Lösungsmittelexposition ist die Probenahmezeit wichtig, wie oben angegeben. Tabelle 1 zeigt empfohlene Probenahmezeiten für gängige Lösungsmittel bei der Überwachung der täglichen beruflichen Exposition. Wenn das Lösungsmittel selbst analysiert werden soll, sollte darauf geachtet werden, dass ein möglicher Verlust (z. B. Verdunstung in die Raumluft) sowie eine Kontamination (z. B. Auflösen aus der Raumluft in die Probe) während des Probenhandhabungsprozesses verhindert werden. Falls die Proben zu einem entfernten Labor transportiert oder vor der Analyse gelagert werden müssen, ist darauf zu achten, dass sie nicht verloren gehen. Für Metaboliten wird das Einfrieren empfohlen, während für die Analyse des Lösungsmittels selbst eine Kühlung (aber kein Einfrieren) in einem luftdichten Behälter ohne Luftraum (oder besser noch in einem Headspace-Fläschchen) empfohlen wird. In der chemischen Analytik ist die Qualitätskontrolle für verlässliche Ergebnisse unerlässlich (Details siehe Artikel „Qualitätssicherung“ in diesem Kapitel). Bei der Berichterstattung über die Ergebnisse sollte die Ethik respektiert werden (siehe Kapitel Ethische Fragen anderswo in der Enzyklopädie).
Tabelle 1. Einige Beispiele für Zielchemikalien für die biologische Überwachung und Probenahmezeit
Lösungsmittel |
Zielchemikalie |
Urin/Blut |
Abtastzeit1 |
Schwefelkohlenstoff |
2-Thiothiazolidin-4-carbonsäure |
Urin |
D F |
N,N-Dimethylformamid |
N-Methylformamid |
Urin |
M Di W Do F |
2-Ethoxyethanol und sein Acetat |
Ethoxyessigsäure |
Urin |
Do F (Ende der letzten Schicht) |
Hexane |
2,4-Hexandion Hexane |
Urin Blut |
M Di W Do F Bestätigung der Exposition |
Methanol |
Methanol |
Urin |
M Di W Do F |
Styrol |
Mandelsäure Phenylglyoxylsäure Styrol |
Urin Urin Blut |
D F D F Bestätigung der Exposition |
Toluol |
Hippursäure o-Kresol Toluol Toluol |
Urin Urin Blut Urin |
Tu W Do F Tu W Do F Bestätigung der Exposition Tu W Do F |
Trichlorethylen |
Trichloressigsäure (TCA) Gesamttrichlorverbindungen (Summe aus TCA und freiem und konjugiertem Trichlorethanol) Trichlorethylen |
Urin Urin Blut |
D F D F Bestätigung der Exposition |
Xylole2 |
Methylhippursäuren Xylole |
Urin Blut |
Tu W Do F Tu W Do F |
1 Ende der Arbeitsschicht, sofern nicht anders angegeben: Wochentage geben bevorzugte Probenahmetage an.
2 Drei Isomere, entweder einzeln oder in beliebiger Kombination.
Quelle: Zusammengefasst aus WHO 1996.
Für viele Lösungsmittel sind eine Reihe analytischer Verfahren etabliert. Die Methoden variieren je nach Zielchemikalie, aber die meisten der kürzlich entwickelten Methoden verwenden Gaschromatographie (GC) oder Hochleistungsflüssigkeitschromatographie (HPLC) zur Trennung. Für eine gute Qualitätskontrolle bei der chemischen Analyse wird die Verwendung eines Autosamplers und Datenprozessors empfohlen. Wenn ein Lösungsmittel selbst im Blut oder im Urin analysiert werden soll, ist eine Anwendung der Headspace-Technik in der GC (Headspace-GC) sehr praktisch, insbesondere wenn das Lösungsmittel flüchtig genug ist. Tabelle 2 zeigt einige Beispiele für etablierte Methoden für gängige Lösungsmittel.
Tabelle 2. Einige Beispiele für Analysemethoden zur biologischen Überwachung der Exposition gegenüber organischen Lösungsmitteln
Lösungsmittel |
Zielchemikalie |
Blut/Urin |
Analytische Methode |
Schwefelkohlenstoff |
2-Thiothiazolidin-4- |
Urin |
Hochleistungs-Flüssigkeitschromatograph mit UV-Detektion (UV-HPLC) |
N, N-Dimethylformamid |
N-Methylformamid |
Urin |
Gaschromatograph mit flammenthermionischer Detektion (FTD-GC) |
2-Ethoxyethanol und sein Acetat |
Ethoxyessigsäure |
Urin |
Extraktion, Derivatisierung und Gaschromatograph mit Flammenionisationsdetektion (FID-GC) |
Hexane |
2,4-Hexandion Hexane |
Urin Blut |
Extraktion, (Hydrolyse) und FID-GC Headspace-FID-GC |
Methanol |
Methanol |
Urin |
Headspace-FID-GC |
Styrol |
Mandelsäure Phenylglyoxylsäure Styrol |
Urin Urin Blut |
Entsalzung und UV-HPLC Entsalzung und UV-HPLC Headspace-FID-GC |
Toluol |
Hippursäure o-Kresol Toluol Toluol |
Urin Urin Blut Urin |
Entsalzung und UV-HPLC Hydrolyse, Extraktion und FID-GC Headspace-FID-GC Headspace-FID-GC |
Trichlorethylen |
Trichloressigsäure Gesamttrichlorverbindungen (Summe aus TCA und freiem und konjugiertem Trichlorethanol) Trichlorethylen |
Urin Urin Blut |
Kolorimetrie oder Veresterung und Gaschromatograph mit Elektroneneinfangdetektion (ECD-GC) Oxidation und Kolorimetrie oder Hydrolyse, Oxidation, Veresterung und ECD-GC Headspace-ECD-GC |
Xylole |
Methylhippursäuren (drei Isomere, entweder einzeln oder in Kombination) |
Urin |
Headspace-FID-GC |
Quelle: Zusammengefasst aus WHO 1996.
Evaluierung
Eine lineare Beziehung der Expositionsindikatoren (aufgeführt in Tabelle 2) mit der Intensität der Exposition gegenüber entsprechenden Lösungsmitteln kann entweder durch eine Befragung von Arbeitern, die beruflich gegenüber Lösungsmitteln exponiert sind, oder durch experimentelle Exposition von menschlichen Probanden hergestellt werden. Dementsprechend haben zB die ACGIH (1994) und die DFG (1994) den biologischen Expositionsindex (BEI) bzw. den biologischen Toleranzwert (BAT) als den beruflichen äquivalenten Werten in den biologischen Proben festgelegt Expositionsgrenzwerte für luftgetragene Chemikalien, dh Schwellenwert (TLV) bzw. maximale Arbeitsplatzkonzentration (MAK). Es ist jedoch bekannt, dass die Konzentration der Zielchemikalie in Proben, die von nicht exponierten Personen entnommen wurden, variieren kann, was beispielsweise lokale Gepflogenheiten (z. B. Lebensmittel) widerspiegelt, und dass ethnische Unterschiede im Lösungsmittelstoffwechsel bestehen können. Es ist daher wünschenswert, Grenzwerte durch die Untersuchung der betroffenen lokalen Bevölkerung festzulegen.
Bei der Bewertung der Ergebnisse sollten eine nichtberufliche Exposition gegenüber dem Lösungsmittel (z. B. durch Verwendung von lösungsmittelhaltigen Verbraucherprodukten oder absichtliches Einatmen) und eine Exposition gegenüber Chemikalien, die zu denselben Metaboliten führen (z. B. einige Lebensmittelzusatzstoffe), sorgfältig ausgeschlossen werden. Falls eine große Lücke zwischen der Intensität der Dampfexposition und den Ergebnissen der biologischen Überwachung besteht, kann der Unterschied auf die Möglichkeit einer Hautabsorption hinweisen. Zigarettenrauchen unterdrückt den Metabolismus einiger Lösungsmittel (z. B. Toluol), während eine akute Ethanolaufnahme den Methanolmetabolismus kompetitiv unterdrücken kann.
Arbeitssysteme umfassen organisatorische Variablen auf Makroebene wie das Personalsubsystem, das technologische Subsystem und die externe Umgebung. Die Analyse von Arbeitssystemen ist daher im Wesentlichen ein Versuch, die Funktionsverteilung zwischen dem Arbeiter und der technischen Einrichtung und die Arbeitsteilung zwischen Menschen in einem soziotechnischen Umfeld zu verstehen. Eine solche Analyse kann dabei helfen, fundierte Entscheidungen zu treffen, um die Systemsicherheit, die Arbeitseffizienz, die technologische Entwicklung und das geistige und körperliche Wohlbefinden der Arbeitnehmer zu verbessern.
Forscher untersuchen Arbeitssysteme nach unterschiedlichen Ansätzen (mechanistisch, biologisch, perzeptiv/motorisch, motivational) mit entsprechenden individuellen und organisationalen Ergebnissen (Campion und Thayer 1985). Die Auswahl der Methoden in der Arbeitssystemanalyse wird von den spezifischen Ansätzen und der jeweiligen Zielsetzung, dem organisatorischen Kontext, den beruflichen und menschlichen Eigenschaften und der technologischen Komplexität des untersuchten Systems bestimmt (Drury 1987). Checklisten und Fragebögen sind die üblichen Mittel zum Aufbau von Datenbanken für Organisationsplaner bei der Priorisierung von Aktionsplänen in den Bereichen Personalauswahl und -einstellung, Leistungsbeurteilung, Sicherheits- und Gesundheitsmanagement, Arbeiter-Maschine-Gestaltung und Arbeitsgestaltung oder -umgestaltung. Erhebungsmethoden von Checklisten, zum Beispiel der Position Analysis Questionnaire oder PAQ (McCormick 1979), das Job Components Inventory (Banks und Miller 1984), die Job Diagnostic Survey (Hackman und Oldham 1975) und der Multi-method Job Design Questionnaire ( Campion 1988) sind die populäreren Instrumente und zielen auf eine Vielzahl von Zielen ab.
Der PAQ hat sechs Hauptabteilungen, die 189 Verhaltenselemente umfassen, die für die Bewertung der Arbeitsleistung erforderlich sind, und sieben ergänzende Elemente, die sich auf die finanzielle Vergütung beziehen:
Das Job Components Inventory Mark II enthält sieben Abschnitte. Der einleitende Teil befasst sich mit den Details der Organisation, Stellenbeschreibungen und biografischen Daten des Stelleninhabers. Andere Abschnitte sind wie folgt:
Die Profilmethoden haben gemeinsame Elemente, nämlich (1) ein umfassendes Set von Berufsfaktoren, die zur Auswahl des Arbeitsspektrums verwendet werden, (2) eine Bewertungsskala, die die Bewertung von Arbeitsanforderungen ermöglicht, und (3) die Gewichtung von Arbeitsmerkmalen basierend auf Organisationsstruktur und soziotechnischen Anforderungen. Les Profile des Posts, ein weiteres Aufgabenprofil-Instrument, das in der Renault Organisation (RNUR 1976) entwickelt wurde, enthält eine Tabelle mit Einträgen von Variablen, die die Arbeitsbedingungen darstellen, und stellt den Befragten eine Fünf-Punkte-Skala zur Verfügung, auf der sie den Wert einer Variablen auswählen können, die von sehr bis reicht befriedigend bis sehr schlecht durch die Registrierung standardisierter Antworten. Die Variablen umfassen (1) die Gestaltung des Arbeitsplatzes, (2) die physische Umgebung, (3) die physischen Belastungsfaktoren, (4) nervöse Anspannung, (5) Arbeitsautonomie, (6) Beziehungen, (7) Wiederholungshäufigkeit und ( 8) Inhalt der Arbeit.
Die AET (Ergonomische Arbeitsplatzanalyse) (Rohmert und Landau 1985) wurde auf der Grundlage des Belastungs-Belastungs-Konzepts entwickelt. Jedes der 216 Elemente des AET ist codiert: Ein Code definiert die Stressoren und gibt an, ob ein Arbeitselement als Stressor qualifiziert ist oder nicht; andere Codes definieren den mit einem Job verbundenen Stressgrad; und wieder andere beschreiben die Dauer und Häufigkeit von Stress während der Arbeitsschicht.
Der AET besteht aus drei Teilen:
Im Großen und Ganzen verfolgen die Checklisten einen von zwei Ansätzen, (1) den berufsorientierten Ansatz (z. B. den AET, Les Profile des Posts) und (2) der arbeitnehmerorientierte Ansatz (z. B. der PAQ). Die Aufgabenverzeichnisse und -profile bieten einen subtilen Vergleich komplexer Aufgaben und Berufsprofile von Jobs und bestimmen die Aspekte der Arbeit, die a priori als unvermeidliche Faktoren zur Verbesserung der Arbeitsbedingungen angesehen werden. Der Schwerpunkt des PAQ liegt auf der Klassifizierung von Job-Familien oder -Clustern (Fleishman und Quaintence 1984; Mossholder und Arvey 1984; Carter und Biersner 1987), auf der Ableitung von Jobkomponentenvalidität und Jobstress (Jeanneret 1980; Shaw und Riskind 1983). Aus medizinischer Sicht erlauben sowohl die AET- als auch die Profilmethoden bei Bedarf einen Vergleich von Einschränkungen und Eignungen (Wagner 1985). Der nordische Fragebogen ist eine anschauliche Darstellung der ergonomischen Arbeitsplatzanalyse (Ahonen, Launis und Kuorinka 1989), die folgende Aspekte abdeckt:
Zu den Mängeln des universellen Checklistenformats, das bei der ergonomischen Arbeitsanalyse verwendet wird, gehören die folgenden:
Eine systematisch aufgebaute Checkliste verpflichtet uns, die sichtbaren oder leicht zu verändernden Faktoren der Arbeitsbedingungen zu untersuchen und erlaubt uns, in einen sozialen Dialog zwischen Arbeitgebern, Stelleninhabern und anderen Betroffenen einzutreten. Man sollte eine gewisse Vorsicht walten lassen gegenüber der Illusion von Einfachheit und Effizienz der Checklisten sowie gegenüber ihren quantifizierenden und technischen Ansätzen. Vielseitigkeit in einer Checkliste oder einem Fragebogen kann erreicht werden, indem spezifische Module für spezifische Ziele aufgenommen werden. Daher ist die Auswahl der Variablen sehr stark mit dem Zweck verknüpft, für den die Arbeitssysteme analysiert werden sollen, und dies bestimmt die allgemeine Vorgehensweise zum Erstellen einer benutzerfreundlichen Checkliste.
Die vorgeschlagene „Ergonomie-Checkliste“ kann für verschiedene Anwendungen übernommen werden. Die Datenerfassung und die computergestützte Verarbeitung der Checklistendaten sind relativ einfach, indem auf die primären und sekundären Aussagen reagiert wird (siehe dort).
ERGONOMIE-CHECKLISTE
Hier wird ein grober Leitfaden für eine Checkliste für modular aufgebaute Arbeitssysteme vorgeschlagen, die fünf Hauptaspekte (mechanistisch, biologisch, perzeptiv/motorisch, technisch und psychosozial) abdeckt. Die Gewichtung der Module hängt von der Art der zu analysierenden Tätigkeit(en), den Besonderheiten des untersuchten Landes oder der untersuchten Bevölkerung, den organisatorischen Prioritäten und der beabsichtigten Verwendung der Analyseergebnisse ab. Die Befragten markieren die „Hauptaussage“ mit Ja/Nein. „Ja“-Antworten weisen darauf hin, dass offensichtlich kein Problem vorliegt, obwohl die Ratsamkeit einer weiteren sorgfältigen Prüfung nicht ausgeschlossen werden sollte. „Nein“-Antworten weisen auf die Notwendigkeit einer ergonomischen Bewertung und Verbesserung hin. Antworten auf „sekundäre Aussagen“ werden durch eine einzelne Ziffer auf der unten dargestellten Skala für den Schweregrad der Zustimmung/Ablehnung angezeigt.
0 Weiß nicht oder trifft nicht zu
1 Stimme überhaupt nicht zu
2 Stimme nicht zu
3 Weder zustimmen noch nicht zustimmen
4 Stimme zu
5 Stimme voll und ganz zu
A. Organisation, Arbeiter und die Aufgabe Ihre Antworten/Bewertungen
Der Checklisten-Designer kann eine Musterzeichnung/ein Foto der Arbeit zur Verfügung stellen und
Arbeitsplatz im Studium.
1. Beschreibung der Organisation und Funktionen.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
2. Arbeitnehmereigenschaften: Ein kurzer Bericht über die Arbeitsgruppe.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
3. Aufgabenbeschreibung: Aktivitäten und verwendete Materialien auflisten. Geben Sie einen Hinweis auf
die Arbeitsgefahren.
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
B. Mechanistischer Aspekt Ihre Antworten/Bewertungen
I. Berufliche Spezialisierung
4.Aufgaben/Arbeitsmuster sind einfach und unkompliziert. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
4.1 Die Aufgabenzuweisung ist spezifisch für den Mitarbeiter.
4.2 Werkzeuge und Arbeitsmethoden sind auf den Zweck der Arbeit spezialisiert.
4.3 Produktionsvolumen und Arbeitsqualität.
4.4 Stelleninhaber führt mehrere Aufgaben aus.
II. Fähigkeitsanforderung
5. Der Job erfordert eine einfache motorische Handlung. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
5.1 Der Beruf erfordert Wissen und handwerkliches Geschick.
5.2 Job erfordert Training zum Erwerb von Fähigkeiten.
5.3 Arbeiter machen bei der Arbeit häufig Fehler.
5.4 Der Job erfordert einen häufigen Wechsel, wie angewiesen.
5.5 Der Arbeitsablauf ist maschinengetaktet/automatisierungsunterstützt.
Anmerkungen und Verbesserungsvorschläge. Punkte 4 bis 5.5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
q Analysten-Rating Arbeiter-Rating q
C. Biologische Aspekte Ihre Antworten/Bewertungen
III. Allgemeine körperliche Aktivität
6. Körperliche Aktivität ist vollständig bestimmt und
vom Arbeitnehmer geregelt. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
6.1 Der Arbeiter behält ein zielorientiertes Tempo bei.
6.2 Arbeit impliziert häufig wiederholte Bewegungen.
6.3 Kardiorespiratorische Anforderung der Arbeit:
sitzend/leicht/mäßig/schwer/extrem schwer.
(Was sind die schweren Arbeitselemente?):
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
(Geben Sie 0-5 ein)
6.4 Die Arbeit erfordert eine hohe Muskelkraftanstrengung.
6.5 Arbeit (Bedienung von Griff, Lenkrad, Pedalbremse) ist überwiegend statische Arbeit.
6.6. Der Beruf erfordert eine feste Arbeitsposition (sitzend oder stehend).
IV. Manuelle Materialhandhabung (MMH)
Art der behandelten Objekte: belebt/unbelebt, Größe und Form.
_______________________________________________________________
_______________________________________________________________
7. Job erfordert minimale MMH-Aktivität. Ja Nein
If Nein, geben Sie die Arbeit an:
7.1 Arbeitsweise: (Eins einkreisen)
ziehen/schieben/drehen/heben/senken/tragen
(Wiederholungszyklus angeben):
_______________________________________________________________
_______________________________________________________________
7.2 Ladegewicht (kg): (Eins einkreisen)
5-10, 10-20, 20-30, 30-40, >>40.
7.3 Horizontaler Abstand Subjekt-Last (cm): (Eins einkreisen)
<25, 25-40, 40-55, 55-70, >70.
7.4 Gegenstandsladehöhe: (Kreis eins)
Boden, Knie, Taille, Brust, Schulterhöhe.
(Geben Sie 0-5 ein)
7.5 Kleidung schränkt MMH-Aufgaben ein.
8. Die Arbeitssituation ist frei von Verletzungsgefahren. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
8.1 Die Aufgabe kann modifiziert werden, um die zu handhabende Last zu reduzieren.
8.2 Materialien können in Standardgrößen verpackt werden.
8.3 Größe/Position von Griffen an Objekten kann verbessert werden.
8.4 Arbeiter wenden keine sichereren Methoden der Lasthandhabung an.
8.5 Mechanische Hilfsmittel können körperliche Belastungen reduzieren.
Listen Sie jeden Artikel auf, wenn Hebezeuge oder andere Handhabungshilfen verfügbar sind.
Verbesserungsvorschläge Punkte 6 bis 8.5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
V. Arbeitsplatz-/Arbeitsraumgestaltung
Der Arbeitsplatz kann schematisch dargestellt werden und zeigt die menschliche Reichweite und
Spielraum:
9. Der Arbeitsplatz ist mit menschlichen Dimensionen kompatibel. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
9.1 Der Arbeitsabstand liegt außerhalb der normalen Reichweite in der horizontalen oder vertikalen Ebene (>60 cm).
9.2 Die Höhe des Arbeitstisches/Geräts ist fest oder minimal verstellbar.
9.3 Kein Platz für Nebentätigkeiten (z. B. Inspektion und Wartung).
9.4 Arbeitsplätze haben Hindernisse, hervorstehende Teile oder scharfe Kanten.
9.5 Die Böden der Arbeitsfläche sind rutschig, uneben, unordentlich oder instabil.
10. Die Sitzordnung ist angemessen (z. B. bequemer Stuhl,
gute Haltungsunterstützung). Ja Nein
If Nein, die Ursachen sind: (0-5 eingeben)
10.1 Sitzmaße (z. B. Sitzhöhe, Rückenlehne) stimmen nicht mit den menschlichen Maßen überein.
10.2 Minimale Einstellbarkeit des Sitzes.
10.3 Der Arbeitssitz bietet keinen Halt/Stütze (z. B. durch senkrechte Kanten/extra steife Bespannung) zum Arbeiten mit der Maschine.
10.4 Fehlender Vibrationsdämpfungsmechanismus im Arbeitssitz.
11. Aus Sicherheitsgründen ist ausreichend Hilfsunterstützung vorhanden
am Arbeitsplatz. Ja Nein
If Nein, erwähnen Sie Folgendes: (Geben Sie 0-5 ein)
11.1 Nichtverfügbarkeit von Lagerraum für Werkzeuge, persönliche Gegenstände.
11.2 Türen, Ein-/Ausgänge oder Korridore sind eingeschränkt.
11.3 Gestaltungsunterschiede bei Griffen, Leitern, Treppen, Handläufen.
11.4 Griffe und Tritte erfordern eine ungünstige Position der Gliedmaßen.
11.5 Stützen sind an Ort, Form oder Konstruktion nicht erkennbar.
11.6 Eingeschränkte Verwendung von Handschuhen/Schuhen zum Arbeiten und Bedienen von Gerätesteuerungen.
Verbesserungsvorschläge Punkte 9 bis 11.6:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VI. Arbeitshaltung
12. Job ermöglicht eine entspannte Arbeitshaltung. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
12.1 Arbeiten mit den Armen über der Schulter und/oder vom Körper weg.
12.2 Überstreckung des Handgelenks und hohe Kraftanforderung.
12.3 Hals/Schulter werden nicht in einem Winkel von etwa 15° gehalten.
12.4 Rücken gebeugt und verdreht.
12.5 Hüften und Beine werden in sitzender Position nicht gut gestützt.
12.6 Einseitige und asymmetrische Bewegung des Körpers.
12.7 Gründe für Zwangshaltung nennen:
(1) Maschinenstandort
(2) Sitzdesign,
(3) Gerätehandhabung,
(4) Arbeitsplatz/Arbeitsplatz
12.8 Geben Sie den OWAS-Code an. (Für eine detaillierte Beschreibung des OWAS
Methode siehe Karhu et al. 1981.)
_______________________________________________________________
_______________________________________________________________
Verbesserungsvorschläge Punkte 12 bis 12.7:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VII. Arbeitsumgebung
(Maße wenn möglich angeben)
NOISE
[Lärmquellen, Art und Dauer der Exposition identifizieren; siehe ILO-Code 1984].
13. Der Geräuschpegel liegt unter dem Höchstwert Ja/Nein
Schallpegel empfohlen. (Verwenden Sie die folgende Tabelle.)
Rating |
Arbeit, die keine verbale Kommunikation erfordert |
Arbeit, die verbale Kommunikation erfordert |
Arbeit, die Konzentration erfordert |
1 |
unter 60 dBA |
unter 50 dBA |
unter 45 dBA |
2 |
60-70 dBA |
50-60 dBA |
45-55 dBA |
3 |
70-80 dBA |
60-70 dBA |
55-65 dBA |
4 |
80-90 dBA |
70-80 dBA |
65-75 dBA |
5 |
über 90 dBA |
über 80 dBA |
über 75 dBA |
Quelle: Ahonen et al. 1989.
Geben Sie Ihre Zustimmungs-/Ablehnungspunktzahl an (0-5)
14. Schädliche Geräusche werden an der Quelle unterdrückt. Ja Nein
Wenn nein, Gegenmaßnahmen bewerten: (0-5 eingeben)
14.1 Keine wirksame Schalldämmung vorhanden.
14.2 Lärm-Notfallmaßnahmen werden nicht ergriffen (z. B. Einschränkung der Arbeitszeit, Verwendung von persönlichem Gehörschutz/Gehörschutz).
15 KLIMA
Klimabedingungen angeben.
Temperatur ____
Feuchtigkeit ____
Strahlungstemperatur ____
Entwürfe ____
16. Das Klima ist angenehm. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
16.1 Temperaturempfindung (Kreis eins):
kühl/leicht kühl/neutral/warm/sehr heiß
16.2 Lüftungsgeräte (z. B. Ventilatoren, Fenster, Klimaanlagen) sind nicht ausreichend.
16.3 Nichtdurchführung regulatorischer Maßnahmen zu Expositionsgrenzwerten (falls vorhanden, bitte erläutern).
16.4 Arbeiter tragen keine Hitzeschutz-/Hilfskleidung.
16.5 Trinkbrunnen mit kühlem Wasser sind nicht in der Nähe vorhanden.
17 LIGHTING
Arbeitsplatz/Maschine(n) sind jederzeit ausreichend beleuchtet. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
17.1 Die Beleuchtung ist ausreichend intensiv.
17.2 Die Beleuchtung des Arbeitsbereichs ist ausreichend gleichmäßig.
17.3 Flimmerphänomene sind minimal oder fehlen.
17.4 Schattenbildung ist unproblematisch.
17.5 Störende Reflexblendungen sind minimal oder nicht vorhanden.
17.6 Farbdynamik (visuelle Akzentuierung, Farbwärme) ist ausreichend.
18 STAUB, RAUCH, GIFTSTOFFE
Die Umgebung ist frei von übermäßigem Staub,
Dämpfe und giftige Substanzen. Ja Nein
Wenn nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
18.1 Unwirksame Belüftungs- und Abgassysteme zum Abführen von Dämpfen, Rauch und Schmutz.
18.2 Fehlende Schutzmaßnahmen gegen Notentriegelung und Kontakt mit gefährlichen/giftigen Stoffen.
Listen Sie die chemischen Giftstoffe auf:
_______________________________________________________________
_______________________________________________________________
18.3 Die Überwachung des Arbeitsplatzes auf chemische Giftstoffe erfolgt nicht regelmäßig.
18.4 Nichtverfügbarkeit von persönlichen Schutzmaßnahmen (z. B. Handschuhe, Schuhe, Maske, Schürze).
19 STRAHLUNG
Arbeiter werden wirksam vor Strahlenbelastung geschützt. Ja Nein
Wenn nein, erwähnen Sie die Expositionen
(siehe IVSS-Checkliste, Ergonomie): (Geben Sie 0-5 ein)
19.1 UV-Strahlung (200 nm – 400 nm).
19.2 IR-Strahlung (780 nm – 100 μm).
19.3 Radioaktivität/Röntgenstrahlung (<200 nm).
19.4 Mikrowellen (1 mm – 1 m).
19.5 Laser (300 nm – 1.4 μm).
19.6 Sonstiges (erwähnen):
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
20. VIBRATION
Maschine kann ohne Schwingungsübertragung betrieben werden
zum Körper des Bedieners. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
20.1 Vibrationen werden über die Füße auf den ganzen Körper übertragen.
20.2 Die Schwingungsübertragung erfolgt über den Sitz (z. B. mobile Maschinen, die mit sitzendem Bediener gefahren werden).
20.3 Vibrationen werden durch das Hand-Arm-System übertragen (z. B. kraftbetriebene Handwerkzeuge, Maschinen, die im Gehen angetrieben werden).
20.4 Längere Exposition gegenüber einer kontinuierlichen/wiederholten Vibrationsquelle.
20.5 Vibrationsquellen können nicht isoliert oder beseitigt werden.
20.6 Identifizieren Sie die Vibrationsquellen.
Kommentare und Anregungen, Punkte 13 bis 20:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
VIII. Arbeitszeitplan
Arbeitszeit angeben: Arbeitsstunden/Tag/Woche/Jahr, einschließlich Saisonarbeit und Schichtsystem.
21. Der Arbeitszeitdruck ist minimal. Ja Nein
If Nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
21.1 Job erfordert Nachtarbeit.
21.2 Der Job beinhaltet Überstunden/zusätzliche Arbeitszeiten.
Durchschnittliche Dauer angeben:
_______________________________________________________________
21.3 Schwere Aufgaben sind ungleichmäßig über die Schicht verteilt.
21.4 Personen arbeiten in einem vorgegebenen Tempo/Zeitlimit.
21.5 Ermüdungszulagen/Arbeits-Ruhe-Muster sind nicht ausreichend berücksichtigt (verwenden Sie kardiorespiratorische Kriterien für die Arbeitsschwere).
Kommentare und Anregungen, Punkte 21 bis 21.5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Analystenrating Worker's ratin
D. Wahrnehmungs-/motorischer Aspekt Ihre Antworten/Bewertungen
IX. Anzeigen
22. Visuelle Anzeigen (Pegel, Meter, Warnsignale)
sind leicht zu lesen. Ja Nein
Wenn nein, bewerten Sie die Schwierigkeiten: (Geben Sie 0-5 ein)
22.1 Unzureichende Beleuchtung (siehe Punkt Nr. 17).
22.2 Ungeschickte Kopf-/Augenpositionierung für Sichtlinie.
22.3 Der Darstellungsstil von Zahlen/Zahlenreihen führt zu Verwirrung und zu Lesefehlern.
22.4 Digitale Anzeigen sind nicht zum genauen Ablesen verfügbar.
22.5 Großer Sehabstand für Lesepräzision.
22.6 Angezeigte Informationen sind nicht leicht verständlich.
23. Notsignale/Impulse sind gut erkennbar. Ja Nein
Wenn nein, bewerten Sie die Gründe:
23.1 Signale (visuell/auditiv) entsprechen nicht dem Arbeitsprozess.
23.2 Blinksignale sind außerhalb des Sichtfeldes.
23.3 Akustische Anzeigesignale sind nicht hörbar.
24. Gruppierungen der Anzeigemerkmale sind logisch. Ja Nein
Wenn nein, bewerten Sie Folgendes:
24.1 Displays unterscheiden sich nicht durch Form, Position, Farbe oder Ton.
24.2 Häufig genutzte und kritische Anzeigen werden aus der zentralen Sichtlinie entfernt.
X. Kontrollen
25. Bedienelemente (z. B. Schalter, Knöpfe, Kräne, Antriebsräder, Pedale) sind einfach zu handhaben. Ja Nein
Wenn Nein, sind die Ursachen: (Geben Sie 0-5 ein)
25.1 Die Positionen der Hand-/Fußsteuerung sind ungünstig.
25.2 Händigkeit der Bedienelemente/Werkzeuge ist falsch.
25.3 Abmessungen der Bedienelemente stimmen nicht mit dem Bedienkörperteil überein.
25.4 Bedienelemente erfordern eine hohe Betätigungskraft.
25.5 Kontrollen erfordern hohe Präzision und Geschwindigkeit.
25.6 Die Kontrollen sind nicht formkodiert für guten Grip.
25.7 Kontrollen sind zur Identifizierung nicht farb-/symbolcodiert.
25.8 Steuerungen verursachen ein unangenehmes Gefühl (Wärme, Kälte, Vibration).
26. Anzeigen und Bedienelemente (kombiniert) sind mit einfachen und bequemen menschlichen Reaktionen kompatibel. Ja Nein
Wenn nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
26.1 Platzierungen liegen nicht nahe genug beieinander.
26.2 Anzeige/Bedienelemente sind nicht sequentiell nach Funktionen/Nutzungshäufigkeit angeordnet.
26.3 Anzeige-/Steuerungsvorgänge sind aufeinanderfolgend, ohne ausreichende Zeitspanne, um den Vorgang abzuschließen (dadurch entsteht eine Reizüberflutung).
26.4 Disharmonie in der Bewegungsrichtung der Anzeige/Steuerung (z. B. führt eine Steuerbewegung nach links nicht zu einer Bewegung der Einheit nach links).
Kommentare und Anregungen, Punkte 22 bis 26.4:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Analysten-Rating Arbeiter-Rating
E. Technischer Aspekt Ihre Antworten/Bewertungen
XI. Maschinen
27. Maschine (z. B. Förderwagen, Hubwagen, Werkzeugmaschine)
ist einfach zu fahren und damit zu arbeiten. Ja Nein
Wenn nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
27.1 Maschine ist im Betrieb instabil.
27.2 Schlechte Wartung der Maschinen.
27.3 Fahrgeschwindigkeit der Maschine nicht regulierbar.
27.4 Lenkräder/Griffe werden aus dem Stand bedient.
27.5 Betätigungsmechanismen behindern Körperbewegungen im Arbeitsbereich.
27.6 Verletzungsgefahr durch fehlenden Maschinenschutz.
27.7 Maschinen sind nicht mit Warnsignalen ausgestattet.
27.8 Maschine ist zur Schwingungsdämpfung schlecht ausgestattet.
27.9 Maschinengeräuschpegel liegen über den gesetzlichen Grenzwerten (siehe Punkt 13 und 14)
27.10 Schlechte Sicht auf Maschinenteile und angrenzende Bereiche (siehe Punkt 17 und 22).
XII. Kleine Werkzeuge/Geräte
28. Den Mitarbeitern zur Verfügung gestellte Werkzeuge/Geräte sind
bequem damit zu arbeiten. Ja Nein
Wenn nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
28.1 Werkzeug/Gerät hat keinen Tragegurt/Rückenrahmen.
28.2 Das Werkzeug kann nicht mit anderen Händen verwendet werden.
28.3 Das hohe Gewicht des Werkzeugs verursacht eine Überstreckung des Handgelenks.
28.4 Form und Position des Griffs sind nicht für bequemes Greifen ausgelegt.
28.5 Kraftbetriebenes Werkzeug ist nicht für Zweihandbedienung ausgelegt.
28.6 Scharfe Kanten/Kanten des Werkzeugs/der Ausrüstung können Verletzungen verursachen.
28.7 Auffanggurte (Handschuhe usw.) werden nicht regelmäßig beim Betrieb von vibrierenden Werkzeugen verwendet.
28.8 Der Geräuschpegel des kraftbetriebenen Werkzeugs liegt über den akzeptablen Grenzwerten
(siehe Punkt Nr. 13).
Verbesserungsvorschläge Punkt 27 bis 28.8:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
XIII. Arbeitssicherheit
29. Maschinensicherheitsmaßnahmen sind ausreichend, um zu verhindern
Unfälle und Gesundheitsgefahren. Ja Nein
Wenn nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
29.1 Maschinenzubehör kann nicht einfach befestigt und entfernt werden.
29.2 Gefahrenstellen, bewegliche Teile und elektrische Anlagen sind nicht ausreichend geschützt.
29.3 Direkter/indirekter Kontakt von Körperteilen mit Maschinen kann Gefahren verursachen.
29.4 Schwierigkeiten bei der Inspektion und Wartung der Maschine.
29.5 Keine klaren Anweisungen für Maschinenbetrieb, Wartung und Sicherheit verfügbar.
Verbesserungsvorschläge, Punkte 29 bis 29. 5:
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
Analysten-Rating Arbeiter-Rating
F. Psychosozialer Aspekt Ihre Antworten/Bewertungen
XIV. Berufliche Autonomie
30. Job erlaubt Autonomie (z. B. Freiheit bezüglich Arbeitsweise,
Leistungsbedingungen, Zeitplan, Qualitätskontrolle). Ja Nein
Wenn Nein, sind die möglichen Ursachen: (Geben Sie 0-5 ein)
30.1 Kein Ermessen hinsichtlich der Anfangs-/Endzeiten des Auftrags.
30.2 Keine organisatorische Unterstützung bei der Hilfeleistung am Arbeitsplatz.
30.3 Unzureichende Personenzahl für die Aufgabe (Teamwork).
30.4 Rigidität der Arbeitsmethoden und -bedingungen.
XV. Job-Feedback (intrinsisch und extrinsisch)
31. Job erlaubt direkte Rückmeldung von Informationen über die Qualität
und Quantität der eigenen Leistung. Ja Nein
Wenn Nein, sind die Gründe: (Geben Sie 0-5 ein)
31.1 Keine partizipative Rolle bei Aufgabeninformationen und Entscheidungsfindung.
31.2 Einschränkungen des sozialen Kontakts aufgrund physischer Barrieren.
31.3 Kommunikationsschwierigkeiten aufgrund des hohen Geräuschpegels.
31.4 Erhöhter Aufmerksamkeitsbedarf bei der maschinellen Stimulation.
31.5 Andere Personen (Manager, Mitarbeiter) informieren den Arbeitnehmer über seine/ihre Effektivität bei der Arbeitsleistung.
XVI. Aufgabenvielfalt/Klarheit
32. Der Job hat eine Vielzahl von Aufgaben und erfordert Spontaneität seitens des Arbeitnehmers. Ja Nein
Wenn nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
32.1 Berufliche Rollen und Ziele sind mehrdeutig.
32.2 Arbeitsbeschränkungen werden durch eine Maschine, einen Prozess oder eine Arbeitsgruppe auferlegt.
32.3 Die Beziehung zwischen Arbeiter und Maschine führt zu Konflikten hinsichtlich des vom Bediener zu zeigenden Verhaltens.
32.4 Eingeschränktes Stimulationsniveau (z. B. unveränderte visuelle und auditive Umgebung).
32.5 Hohes Maß an Langeweile am Arbeitsplatz.
32.6 Begrenzter Spielraum für Arbeitsplatzerweiterung.
XVIII. Identität/Bedeutung der Aufgabe
33. Die Arbeitskraft erhält einen Stapel Aufgaben Ja/Nein
und arrangiert seinen oder ihren eigenen Zeitplan, um die Arbeit abzuschließen
(z. B. man plant und führt die Arbeit aus und inspiziert und
verwaltet die Produkte).
Geben Sie Ihre Zustimmungs-/Ablehnungspunktzahl an (0-5)
34. Job ist in der Organisation von Bedeutung. Ja Nein
Es bietet Bestätigung und Anerkennung von anderen.
(Geben Sie Ihre Zustimmungs-/Ablehnungspunktzahl an)
XVIII. Geistige Über-/Unterforderung
35. Job besteht aus Aufgaben, für die eine klare Kommunikation und
Eindeutige Informationsunterstützungssysteme sind verfügbar. Ja Nein
Wenn nein, bewerten Sie Folgendes: (Geben Sie 0-5 ein)
35.1 Die im Zusammenhang mit der Stelle bereitgestellten Informationen sind umfangreich.
35.2 Der Umgang mit Informationen unter Druck ist erforderlich (z. B. Notmanöver in der Prozesssteuerung).
35.3 Hohe Informationsverarbeitungsbelastung (z. B. schwierige Positionierungsaufgabe – keine besondere Motivation erforderlich).
35.4 Gelegentliche Aufmerksamkeit wird auf andere Informationen als die für die eigentliche Aufgabe benötigten gelenkt.
35.5 Die Aufgabe besteht aus sich wiederholenden einfachen motorischen Handlungen, wobei oberflächliche Aufmerksamkeit erforderlich ist.
35.6 Werkzeuge/Ausrüstung sind nicht vorpositioniert, um mentale Verzögerungen zu vermeiden.
35.7 Bei der Entscheidungsfindung und Risikobeurteilung sind Mehrfachauswahlen erforderlich.
(Kommentare und Anregungen, Punkte 30 bis 35.7)
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
XIX. Ausbildung und Förderung
36. Der Job bietet Möglichkeiten für ein damit verbundenes Kompetenzwachstum
und Aufgabenerfüllung. Ja Nein
Wenn Nein, sind die möglichen Ursachen: (Geben Sie 0-5 ein)
36.1 Keine Aufstiegschancen auf höhere Ebenen.
36.2 Keine regelmäßigen arbeitsplatzspezifischen Schulungen für Bediener.
36.3 Schulungsprogramme/-tools sind nicht leicht zu erlernen und anzuwenden.
36.4 Keine Anreizsysteme.
XX. Organisatorische Verpflichtung
37. Definiertes Engagement für organisatorisches Ja/Nein
Leistungsfähigkeit sowie körperliches, geistiges und soziales Wohlbefinden.
Bewerten Sie den Grad der Bereitstellung: (Geben Sie 0-5 ein)
37.1 Organisatorische Rolle bei individuellen Rollenkonflikten und Mehrdeutigkeiten.
37.2 Ärztlicher/administrativer Dienst zum vorbeugenden Eingreifen bei Arbeitsgefahren.
37.3 Werbemaßnahmen zur Kontrolle von Fehlzeiten in der Arbeitsgruppe.
37.4 Geltende Sicherheitsvorschriften.
37.5 Arbeitsaufsicht und Überwachung besserer Arbeitspraktiken.
37.6 Folgemaßnahmen für das Unfall-/Verletzungsmanagement.
Der zusammenfassende Bewertungsbogen kann für die Profilerstellung und Gruppierung einer ausgewählten Gruppe von Elementen verwendet werden, die die Grundlage für Entscheidungen über Arbeitssysteme bilden können. Der Analyseprozess ist oft zeitintensiv und die Anwender dieser Instrumente müssen eine fundierte Ausbildung in Ergonomie sowohl theoretisch als auch praktisch bei der Bewertung von Arbeitssystemen haben.
ZUSAMMENFASSENDES BEWERTUNGSBLATT
A. Kurze Beschreibung der Organisation, Arbeitnehmermerkmale und Aufgabenbeschreibung
................................................. ................................................. ................................................. ................................................. ....................
................................................. ................................................. ................................................. ................................................. ....................
Schweregradvereinbarung |
||||||||||
Module |
Abschnitte |
Anzahl der |
|
|
|
|
|
|
Relativ |
Artikelnummer(n). |
B. Mechanistik |
I. Berufliche Spezialisierung II. Fähigkeitsanforderung |
4 5 |
||||||||
C. Biologisch |
III. Allgemeine körperliche Aktivität IV. Manuelle Materialhandhabung V. Arbeitsplatz/Arbeitsplatzgestaltung VI. Arbeitshaltung VII. Arbeitsumgebung VIII. Arbeitszeitplan |
5 6 15 6 28 5 |
||||||||
D. Wahrnehmend/motorisch |
IX. Anzeigen X. Kontrollen |
12 10 |
||||||||
E. Technisch |
XI. Maschinen XII. Kleine Werkzeuge/Geräte XIII. Arbeitssicherheit |
10 8 5 |
||||||||
F. Psychosozial |
XIV. Berufliche Autonomie XV. Job-Feedback XVI. Aufgabenvielfalt/Klarheit XVII. Identität/Bedeutung der Aufgabe XVIII. Geistige Über-/Unterforderung XIX. Ausbildung und Förderung XX. Organisatorische Verpflichtung |
5 5 6 2 7 4 6 |
Gesamtbeurteilung
Severity Agreement der Module |
Bemerkungen |
||
A |
|||
B |
|||
C |
|||
D |
|||
E |
|||
F |
|||
Arbeitsanalyst: |
Es gibt oft große Unterschiede zwischen Menschen in der Intensität der Reaktion auf toxische Chemikalien und Variationen in der Anfälligkeit eines Individuums im Laufe des Lebens. Diese können einer Vielzahl von Faktoren zugeschrieben werden, die die Absorptionsrate, die Verteilung im Körper, die Biotransformation und/oder die Ausscheidungsrate einer bestimmten Chemikalie beeinflussen können. Abgesehen von den bekannten erblichen Faktoren, von denen eindeutig gezeigt wurde, dass sie mit einer erhöhten Anfälligkeit für chemische Toxizität beim Menschen verbunden sind (siehe „Genetische Determinanten der toxischen Reaktion“), umfassen andere Faktoren: konstitutionelle Merkmale in Bezug auf Alter und Geschlecht; vorbestehende Krankheitszustände oder eine Verringerung der Organfunktion (nicht erblich, dh erworben); Ernährungsgewohnheiten, Rauchen, Alkoholkonsum und Medikamenteneinnahme; gleichzeitige Exposition gegenüber Biotoxinen (verschiedene Mikroorganismen) und physikalischen Faktoren (Strahlung, Feuchtigkeit, extrem niedrige oder hohe Temperaturen oder barometrische Drücke, besonders relevant für den Partialdruck eines Gases), sowie begleitende körperliche Betätigung oder psychische Belastungssituationen; frühere berufliche und/oder umweltbedingte Exposition gegenüber einer bestimmten Chemikalie und insbesondere gleichzeitige Exposition gegenüber anderen Chemikalien, nicht notwendigerweise toxisch (z. B. essentielle Metalle). Die möglichen Beiträge der oben genannten Faktoren zur Erhöhung oder Verringerung der Anfälligkeit für gesundheitsschädliche Wirkungen sowie die Mechanismen ihrer Wirkung sind für eine bestimmte Chemikalie spezifisch. Daher werden hier nur die häufigsten Faktoren, grundlegenden Mechanismen und einige charakteristische Beispiele vorgestellt, während spezifische Informationen zu jeder einzelnen Chemikalie an anderer Stelle zu finden sind Enzyklopädie.
Entsprechend dem Stadium, in dem diese Faktoren wirken (Aufnahme, Verteilung, Biotransformation oder Ausscheidung einer bestimmten Chemikalie), können die Mechanismen grob nach zwei grundlegenden Wechselwirkungsfolgen kategorisiert werden: (1) eine Änderung der Menge der Chemikalie in a Zielorgan, d. h. an der/den Stelle(n) ihrer Wirkung im Organismus (toxikokinetische Wechselwirkungen), oder (2) eine Änderung der Intensität einer spezifischen Reaktion auf die Menge der Chemikalie in einem Zielorgan (toxikodynamische Wechselwirkungen) . Die häufigsten Mechanismen beider Wechselwirkungstypen beziehen sich auf die Konkurrenz mit anderen Chemikalien um die Bindung an dieselben Verbindungen, die an ihrem Transport im Organismus beteiligt sind (z. B. spezifische Serumproteine) und/oder um denselben Biotransformationsweg (z. B. spezifische Enzyme), was zu einer Änderung der Geschwindigkeit oder Abfolge zwischen der anfänglichen Reaktion und der endgültigen gesundheitsschädlichen Wirkung führt. Jedoch können sowohl toxikokinetische als auch toxikodynamische Wechselwirkungen die individuelle Empfindlichkeit gegenüber einer bestimmten Chemikalie beeinflussen. Der Einfluss mehrerer begleitender Faktoren kann zu Folgendem führen: (a) additive Effekte—Die Intensität des kombinierten Effekts ist gleich der Summe der Effekte, die von jedem Faktor separat erzeugt werden, (b) synergistische Effekte—die Intensität der kombinierten Wirkung größer ist als die Summe der Wirkungen, die von jedem Faktor einzeln erzeugt werden, oder (c) antagonistische Wirkungen—Die Intensität des kombinierten Effekts ist kleiner als die Summe der Effekte, die von jedem Faktor separat erzeugt werden.
Die Menge einer bestimmten toxischen Chemikalie oder eines charakteristischen Metaboliten an der/den Stelle(n) ihrer Wirkung im menschlichen Körper kann mehr oder weniger durch biologisches Monitoring bestimmt werden, d. h. durch die Auswahl der richtigen biologischen Probe und den optimalen Zeitpunkt der Probenentnahme biologische Halbwertszeiten für eine bestimmte Chemikalie sowohl im kritischen Organ als auch im gemessenen biologischen Kompartiment berücksichtigen. Verlässliche Informationen über andere mögliche Faktoren, die die individuelle Anfälligkeit beim Menschen beeinflussen könnten, fehlen jedoch im Allgemeinen, und folglich basiert der Großteil des Wissens über den Einfluss verschiedener Faktoren auf Tierversuchsdaten.
Es sollte betont werden, dass in einigen Fällen relativ große Unterschiede zwischen Menschen und anderen Säugetieren in der Intensität der Reaktion auf eine äquivalente Menge und/oder Dauer der Exposition gegenüber vielen toxischen Chemikalien bestehen; Beispielsweise scheinen Menschen erheblich empfindlicher auf die gesundheitsschädlichen Wirkungen mehrerer toxischer Metalle zu reagieren als Ratten (üblicherweise in Tierversuchen verwendet). Einige dieser Unterschiede können der Tatsache zugeschrieben werden, dass die Transport-, Verteilungs- und Biotransformationswege verschiedener Chemikalien stark von geringfügigen Änderungen des Gewebe-pH-Werts und des Redoxgleichgewichts im Organismus abhängen (ebenso wie die Aktivitäten verschiedener Enzyme). Das Redoxsystem des Menschen unterscheidet sich erheblich von dem der Ratte.
Dies gilt offensichtlich für wichtige Antioxidantien wie Vitamin C und Glutathion (GSH), die für die Aufrechterhaltung des Redoxgleichgewichts unerlässlich sind und eine Schutzfunktion gegen die nachteiligen Wirkungen der von Sauerstoff oder Fremdstoffen stammenden freien Radikale haben, die an a beteiligt sind Vielzahl pathologischer Zustände (Kehrer 1993). Der Mensch kann Vitamin C im Gegensatz zur Ratte nicht selbst synthetisieren, und sowohl die Spiegel als auch die Umsatzrate von Erythrozyten-GSH sind beim Menschen erheblich niedriger als bei der Ratte. Menschen fehlen im Vergleich zu Ratten oder anderen Säugetieren auch einige der schützenden antioxidativen Enzyme (z. B. wird angenommen, dass GSH-Peroxidase in menschlichen Spermien wenig aktiv ist). Diese Beispiele veranschaulichen die möglicherweise größere Anfälligkeit des Menschen gegenüber oxidativem Stress (insbesondere in empfindlichen Zellen, z. B. anscheinend größere Anfälligkeit des menschlichen Spermas gegenüber toxischen Einflüssen als das der Ratte), was zu einer anderen Reaktion oder einer größeren Anfälligkeit gegenüber dem Einfluss von führen kann verschiedene Faktoren beim Menschen im Vergleich zu anderen Säugetieren (Telišman 1995).
Einfluss des Alters
Im Vergleich zu Erwachsenen sind sehr kleine Kinder aufgrund ihrer relativ größeren Inhalationsvolumina und gastrointestinalen Absorptionsrate aufgrund der größeren Durchlässigkeit des Darmepithels und aufgrund unausgereifter Entgiftungsenzymsysteme und einer relativ geringeren Ausscheidungsrate toxischer Chemikalien häufig anfälliger für chemische Toxizität . Das Zentralnervensystem scheint im frühen Entwicklungsstadium besonders anfällig für die Neurotoxizität verschiedener Chemikalien zu sein, beispielsweise Blei und Methylquecksilber. Auf der anderen Seite können ältere Menschen aufgrund einer chemischen Exposition in der Vorgeschichte und erhöhten Körpervorräten einiger Xenobiotika oder einer bereits bestehenden beeinträchtigten Funktion von Zielorganen und/oder relevanten Enzymen anfällig sein, was zu einer verringerten Entgiftungs- und Ausscheidungsrate führt. Jeder dieser Faktoren kann zur Schwächung der körpereigenen Abwehr beitragen – eine Abnahme der Reservekapazität, die eine erhöhte Anfälligkeit für spätere Exposition gegenüber anderen Gefahren verursacht. Beispielsweise können die Cytochrom-P450-Enzyme (die an den Biotransformationswegen fast aller toxischen Chemikalien beteiligt sind) entweder induziert werden oder ihre Aktivität aufgrund des Einflusses verschiedener Faktoren im Laufe des Lebens (einschließlich Ernährungsgewohnheiten, Rauchen, Alkohol, Einnahme von Medikamenten usw.) verringert haben Exposition gegenüber Umwelt-Xenobiotika).
Einfluss von Sex
Geschlechtsspezifische Empfindlichkeitsunterschiede sind für eine große Zahl toxischer Chemikalien (ca. 200) beschrieben worden und finden sich bei vielen Säugetierarten. Es scheint, dass Männer im Allgemeinen anfälliger für Nierentoxine und Frauen für Lebertoxine sind. Die Ursachen für die unterschiedliche Reaktion zwischen Männchen und Weibchen wurden mit Unterschieden in einer Vielzahl von physiologischen Prozessen in Verbindung gebracht (z. B. sind Weibchen in der Lage, einige toxische Chemikalien durch Menstruationsblutverlust, Muttermilch und/oder Übertragung auf den Fötus zusätzlich auszuscheiden, aber sie erfahren zusätzlichen Stress während Schwangerschaft, Geburt und Stillzeit), Enzymaktivitäten, genetische Reparaturmechanismen, hormonelle Faktoren oder das Vorhandensein relativ größerer Fettdepots bei Frauen, was zu einer größeren Ansammlung einiger lipophiler toxischer Chemikalien wie organischer Lösungsmittel und einiger Medikamente führt .
Einfluss von Ernährungsgewohnheiten
Ernährungsgewohnheiten haben einen wichtigen Einfluss auf die Anfälligkeit für chemische Toxizität, vor allem, weil eine angemessene Ernährung für das Funktionieren des chemischen Abwehrsystems des Körpers zur Aufrechterhaltung einer guten Gesundheit unerlässlich ist. Eine ausreichende Zufuhr essentieller Metalle (einschließlich Halbmetalle) und Proteine, insbesondere der schwefelhaltigen Aminosäuren, ist für die Biosynthese verschiedener entgiftender Enzyme und die Bereitstellung von Glycin und Glutathion für Konjugationsreaktionen mit körpereigenen und körperfremden Verbindungen erforderlich. Lipide, insbesondere Phospholipide, und Lipotrope (Methylgruppenspender) sind für die Synthese biologischer Membranen notwendig. Kohlenhydrate liefern die für verschiedene Entgiftungsprozesse erforderliche Energie und liefern Glucuronsäure für die Konjugation toxischer Chemikalien und ihrer Metaboliten. Selen (ein essentielles Halbmetall), Glutathion und Vitamine wie Vitamin C (wasserlöslich), Vitamin E und Vitamin A (fettlöslich) spielen eine wichtige Rolle als Antioxidantien (z. B. bei der Kontrolle der Lipidperoxidation und der Aufrechterhaltung der Integrität von Zellmembranen). und Radikalfänger zum Schutz vor giftigen Chemikalien. Darüber hinaus können verschiedene Nahrungsbestandteile (Eiweiß- und Ballaststoffgehalt, Mineralstoffe, Phosphate, Zitronensäure usw.) sowie die aufgenommene Nahrungsmenge die gastrointestinale Absorptionsrate vieler toxischer Chemikalien stark beeinflussen (z. B. die durchschnittliche Absorptionsrate von löslichen Bleisalze, die zu den Mahlzeiten eingenommen werden, beträgt etwa acht Prozent, im Gegensatz zu etwa 60 % bei nüchternen Personen). Die Ernährung selbst kann jedoch eine zusätzliche Quelle der individuellen Exposition gegenüber verschiedenen toxischen Chemikalien sein (z. B. erheblich erhöhte tägliche Aufnahme und Akkumulation von Arsen, Quecksilber, Cadmium und/oder Blei bei Personen, die kontaminierte Meeresfrüchte verzehren).
Einfluss des Rauchens
Die Gewohnheit des Rauchens kann die individuelle Anfälligkeit für viele toxische Chemikalien aufgrund der Vielfalt möglicher Wechselwirkungen mit der Vielzahl der im Zigarettenrauch enthaltenen Verbindungen (insbesondere polyzyklische aromatische Kohlenwasserstoffe, Kohlenmonoxid, Benzol, Nikotin, Acrolein, einige Pestizide, Cadmium und , in geringerem Maße, Blei und andere toxische Metalle usw.), von denen sich einige lebenslang im menschlichen Körper anreichern können, einschließlich des pränatalen Lebens (z. B. Blei und Cadmium). Die Wechselwirkungen treten hauptsächlich auf, weil verschiedene toxische Chemikalien um die gleiche(n) Bindungsstelle(n) für den Transport und die Verteilung im Organismus und/oder um den gleichen Biotransformationsweg konkurrieren, an dem bestimmte Enzyme beteiligt sind. Beispielsweise können mehrere Bestandteile von Zigarettenrauch Cytochrom-P450-Enzyme induzieren, während andere ihre Aktivität dämpfen und somit die gemeinsamen Biotransformationswege vieler anderer toxischer Chemikalien, wie organischer Lösungsmittel und einiger Medikamente, beeinflussen können. Starkes Zigarettenrauchen über einen langen Zeitraum kann die Abwehrmechanismen des Körpers erheblich reduzieren, indem es die Reservekapazität verringert, um mit dem nachteiligen Einfluss anderer Lebensstilfaktoren fertig zu werden.
Einfluss von Alkohol
Der Konsum von Alkohol (Ethanol) kann die Anfälligkeit für viele giftige Chemikalien auf verschiedene Weise beeinflussen. Es kann die Absorptionsrate und Verteilung bestimmter Chemikalien im Körper beeinflussen – zum Beispiel die gastrointestinale Absorptionsrate von Blei erhöhen oder die pulmonale Absorptionsrate von Quecksilberdampf verringern, indem es die Oxidation hemmt, die für die Retention von eingeatmetem Quecksilberdampf erforderlich ist. Ethanol kann auch die Empfindlichkeit gegenüber verschiedenen Chemikalien durch kurzfristige Änderungen des Gewebe-pH-Werts und eine Erhöhung des Redoxpotentials infolge des Ethanolstoffwechsels beeinflussen, da sowohl Ethanol, das zu Acetaldehyd oxidiert, als auch Acetaldehyd, das zu Acetat oxidiert, ein Äquivalent von reduziertem Nicotinamid-Adenin-Dinukleotid (NADH) produzieren und Wasserstoff (H+). Da die Affinität sowohl essentieller als auch toxischer Metalle und Metalloide zur Bindung an verschiedene Verbindungen und Gewebe vom pH-Wert und Änderungen des Redoxpotentials beeinflusst wird (Telišman 1995), kann selbst eine mäßige Aufnahme von Ethanol zu einer Reihe von Folgen führen, wie z. 1) Umverteilung von langfristig angereichertem Blei im menschlichen Organismus zugunsten einer biologisch aktiven Bleifraktion, (2) Ersatz von essentiellem Zink durch Blei in zinkhaltigen Enzym(en), dadurch Beeinflussung der Enzymaktivität, oder Beeinflussung der Mobil- Blei auf die Verteilung anderer essentieller Metalle und Halbmetalle im Organismus wie Calcium, Eisen, Kupfer und Selen, (3) erhöhte Ausscheidung von Zink im Urin und so weiter. Die Wirkung möglicher vorgenannter Ereignisse kann dadurch verstärkt werden, dass alkoholische Getränke eine nennenswerte Menge Blei aus Gefäßen oder der Verarbeitung enthalten können (Prpic-Majic et al. 1984; Telišman et al. 1984; 1993).
Ein weiterer häufiger Grund für ethanolbedingte Empfindlichkeitsänderungen ist, dass viele toxische Chemikalien, z. B. verschiedene organische Lösungsmittel, den gleichen Biotransformationsweg teilen, an dem die Cytochrom-P450-Enzyme beteiligt sind. Abhängig von der Intensität der Exposition gegenüber organischen Lösungsmitteln sowie der Menge und Häufigkeit der Ethanolaufnahme (d. h. akuter oder chronischer Alkoholkonsum) kann Ethanol die Biotransformationsraten verschiedener organischer Lösungsmittel verringern oder erhöhen und damit deren Toxizität beeinflussen (Sato 1991) .
Einfluss von Medikamenten
Die gemeinsame Einnahme verschiedener Medikamente kann die Empfindlichkeit gegenüber toxischen Chemikalien beeinflussen, hauptsächlich weil viele Medikamente an Serumproteine binden und somit den Transport, die Verteilung oder die Ausscheidungsrate verschiedener toxischer Chemikalien beeinflussen oder weil viele Medikamente in der Lage sind, relevante entgiftende Enzyme zu induzieren oder ihre Aktivität zu unterdrücken (z. B. die Cytochrom-P450-Enzyme), wodurch die Toxizität von Chemikalien mit demselben Biotransformationsweg beeinflusst wird. Charakteristisch für beide Mechanismen ist eine erhöhte Ausscheidung von Trichloressigsäure (dem Metaboliten mehrerer chlorierter Kohlenwasserstoffe) im Urin bei Anwendung von Salicylat, Sulfonamid oder Phenylbutazon und eine erhöhte Hepato-Nephrotoxizität von Tetrachlorkohlenstoff bei Anwendung von Phenobarbital. Darüber hinaus enthalten einige Medikamente eine beträchtliche Menge einer potenziell toxischen Chemikalie, beispielsweise die aluminiumhaltigen Antazida oder Präparate, die zur therapeutischen Behandlung der bei chronischem Nierenversagen auftretenden Hyperphosphatämie verwendet werden.
Einfluss der gleichzeitigen Exposition gegenüber anderen Chemikalien
Die Veränderungen der Anfälligkeit für gesundheitsschädliche Wirkungen durch Wechselwirkungen verschiedener Chemikalien (dh mögliche additive, synergistische oder antagonistische Wirkungen) wurden fast ausschließlich an Versuchstieren, hauptsächlich an der Ratte, untersucht. Relevante epidemiologische und klinische Studien fehlen. Dies ist insbesondere angesichts der relativ größeren Intensität der Reaktion oder der Vielfalt der gesundheitsschädlichen Wirkungen mehrerer toxischer Chemikalien beim Menschen im Vergleich zu Ratten und anderen Säugetieren besorgniserregend. Abgesehen von veröffentlichten Daten auf dem Gebiet der Pharmakologie beziehen sich die meisten Daten nur auf Kombinationen von zwei verschiedenen Chemikalien innerhalb bestimmter Gruppen, wie z. B. verschiedene Pestizide, organische Lösungsmittel oder essentielle und/oder toxische Metalle und Halbmetalle.
Die kombinierte Exposition gegenüber verschiedenen organischen Lösungsmitteln kann zu verschiedenen additiven, synergistischen oder antagonistischen Wirkungen führen (abhängig von der Kombination bestimmter organischer Lösungsmittel, ihrer Intensität und Expositionsdauer), hauptsächlich aufgrund der Fähigkeit, die Biotransformation des anderen zu beeinflussen (Sato 1991).
Ein weiteres charakteristisches Beispiel sind die Wechselwirkungen von essentiellen und/oder toxischen Metallen und Halbmetallen, da diese an möglichen Einflüssen des Alters (z. B. lebenslange Ansammlung von umweltbedingtem Blei und Cadmium im Körper), des Geschlechts (z. B. allgemeiner Eisenmangel bei Frauen) beteiligt sind ), Ernährungsgewohnheiten (z. B. erhöhte Nahrungsaufnahme von toxischen Metallen und Halbmetallen und/oder unzureichende Nahrungsaufnahme von essentiellen Metallen und Halbmetallen), Rauchgewohnheiten und Alkoholkonsum (z. B. zusätzliche Exposition gegenüber Cadmium, Blei und anderen toxischen Metallen) und Konsum von Medikamenten (z. B. kann eine Einzeldosis Antazidum zu einer 50-fachen Erhöhung der durchschnittlichen täglichen Aufnahme von Aluminium durch die Nahrung führen). Die Möglichkeit verschiedener additiver, synergistischer oder antagonistischer Wirkungen der Exposition gegenüber verschiedenen Metallen und Halbmetallen beim Menschen kann anhand grundlegender Beispiele in Bezug auf die wichtigsten toxischen Elemente (siehe Tabelle 1) veranschaulicht werden, abgesehen davon, dass weitere Wechselwirkungen auftreten können, da auch essentielle Elemente beeinflussen können (z. B. die bekannte antagonistische Wirkung von Kupfer auf die gastrointestinale Resorptionsrate sowie den Zinkstoffwechsel und umgekehrt). Die Hauptursache all dieser Wechselwirkungen ist die Konkurrenz verschiedener Metalle und Metalloide um dieselbe Bindungsstelle (insbesondere die Sulfhydrylgruppe, -SH) in verschiedenen Enzymen, Metalloproteinen (insbesondere Metallothionein) und Geweben (z. B. Zellmembranen und Organbarrieren). Diese Wechselwirkungen können eine relevante Rolle bei der Entwicklung mehrerer chronischer Krankheiten spielen, die durch die Wirkung freier Radikale und oxidativen Stress vermittelt werden (Telišman 1995).
Tabelle 1. Grundlegende Auswirkungen möglicher multipler Wechselwirkungen in Bezug auf die wichtigsten toxischen und/oder essentiellen Metalle und Matalloide bei Säugetieren
Giftiges Metall oder Halbmetall | Grundlegende Wirkungen der Wechselwirkung mit anderen Metallen oder Halbmetallen |
Aluminium (Al) | Verringert die Absorptionsrate von Ca und beeinträchtigt den Ca-Stoffwechsel; ein Mangel an diätetischem Ca erhöht die Absorptionsrate von Al. Beeinträchtigt den Phosphatstoffwechsel. Daten zu Wechselwirkungen mit Fe, Zn und Cu sind nicht eindeutig (dh die mögliche Rolle eines anderen Metalls als Mediator). |
Arsen (As) | Beeinflusst die Verteilung von Cu (eine Zunahme von Cu in der Niere und eine Abnahme von Cu in Leber, Serum und Urin). Beeinträchtigt den Fe-Stoffwechsel (Anstieg von Fe in der Leber bei gleichzeitiger Abnahme des Hämatokrits). Zn verringert die Absorptionsrate von anorganischem As und verringert die Toxizität von As. Se verringert die Toxizität von As und umgekehrt. |
Cadmium (Cd) | Verringert die Absorptionsrate von Ca und beeinträchtigt den Ca-Stoffwechsel; ein Mangel an diätetischem Ca erhöht die Absorptionsrate von Cd. Beeinträchtigt den Phosphatstoffwechsel, dh erhöht die Urinausscheidung von Phosphaten. Beeinträchtigt den Fe-Stoffwechsel; Fe-Mangel in der Nahrung erhöht die Absorptionsrate von Cd. Beeinflusst die Verteilung von Zn; Zn verringert die Toxizität von Cd, während sein Einfluss auf die Absorptionsrate von Cd nicht eindeutig ist. Se verringert die Toxizität von Cd. Mn verringert die Toxizität von Cd bei geringer Cd-Exposition. Daten zur Wechselwirkung mit Cu sind nicht eindeutig (dh die mögliche Rolle von Zn oder einem anderen Metall als Mediator). Hohe Gehalte an Pb, Ni, Sr, Mg oder Cr(III) in der Nahrung können die Absorptionsrate von Cd verringern. |
Quecksilber (Hg) | Beeinflusst die Verteilung von Cu (eine Erhöhung von Cu in der Leber). Zn verringert die Absorptionsrate von anorganischem Hg und verringert die Toxizität von Hg. Se verringert die Toxizität von Hg. Cd erhöht die Hg-Konzentration in der Niere, verringert aber gleichzeitig die Toxizität von Hg in der Niere (Einfluss der Cd-induzierten Metallothionein-Synthese). |
Blei (Pb) | Beeinträchtigt den Ca-Stoffwechsel; ein Mangel an diätetischem Ca erhöht die Absorptionsrate von anorganischem Pb und erhöht die Toxizität von Pb. Beeinträchtigt den Fe-Stoffwechsel; ein Mangel an Nahrungs-Fe erhöht die Toxizität von Pb, während sein Einfluss auf die Absorptionsrate von Pb nicht eindeutig ist. Beeinträchtigt den Stoffwechsel von Zn und erhöht die Urinausscheidung von Zn; ein Mangel an diätetischem Zn erhöht die Absorptionsrate von anorganischem Pb und erhöht die Toxizität von Pb. Se verringert die Toxizität von Pb. Daten zu Wechselwirkungen mit Cu und Mg sind nicht eindeutig (dh die mögliche Rolle von Zn oder einem anderen Metall als Mediator). |
Hinweis: Die Daten beziehen sich größtenteils auf experimentelle Studien an der Ratte, während relevante klinische und epidemiologische Daten (insbesondere zu quantitativen Dosis-Wirkungs-Beziehungen) im Allgemeinen fehlen (Elsenhans et al. 1991; Fergusson 1990; Telišman et al. 1993).
Beim humanbiologischen Monitoring werden Proben von Körperflüssigkeiten oder anderem leicht zugänglichem biologischem Material zur Messung der Exposition gegenüber bestimmten oder unspezifischen Stoffen und/oder deren Metaboliten oder zur Messung der biologischen Wirkungen dieser Exposition verwendet. Die biologische Überwachung ermöglicht die Abschätzung der individuellen Gesamtexposition durch verschiedene Expositionswege (Lunge, Haut, Magen-Darm-Trakt) und verschiedene Expositionsquellen (Luft, Ernährung, Lebensstil oder Beruf). Es ist auch bekannt, dass in komplexen Expositionssituationen, wie sie an Arbeitsplätzen sehr häufig anzutreffen sind, unterschiedliche Expositionsmittel miteinander interagieren können, wobei die Wirkung der einzelnen Verbindungen entweder verstärkt oder gehemmt wird. Und da sich Individuen in ihrer genetischen Konstitution unterscheiden, zeigen sie Variabilität in ihrer Reaktion auf chemische Belastungen. Daher kann es sinnvoller sein, direkt bei den exponierten Personen oder Gruppen nach frühen Wirkungen zu suchen, als zu versuchen, potenzielle Gefahren der komplexen Expositionsmuster anhand von Daten zu einzelnen Verbindungen vorherzusagen. Dies ist ein Vorteil des genetischen Biomonitorings für frühe Auswirkungen, ein Ansatz, der Techniken verwendet, die sich auf zytogenetische Schäden, Punktmutationen oder DNA-Addukte in menschlichem Ersatzgewebe konzentrieren (siehe Artikel „Allgemeine Prinzipien“ in diesem Kapitel).
Was ist Genotoxizität?
Die Genotoxizität chemischer Stoffe ist ein intrinsischer chemischer Charakter, der auf dem elektrophilen Potenzial des Stoffs basiert, an solche nukleophilen Stellen in den zellulären Makromolekülen wie Desoxyribonukleinsäure, DNA, dem Träger der Erbinformation, zu binden. Genotoxizität ist somit eine Toxizität, die sich im genetischen Material von Zellen manifestiert.
Die Definition von Genotoxizität, wie sie in einem Konsensbericht (IARC 1992) diskutiert wird, ist weit gefasst und umfasst sowohl direkte als auch indirekte Auswirkungen auf die DNA: (1) die Induktion von Mutationen (Gen, Chromosomen, Genom, Rekombination) auf molekularer Ebene Ereignissen ähneln, von denen bekannt ist, dass sie an der Karzinogenese beteiligt sind, (2) indirekten Surrogatereignissen im Zusammenhang mit Mutagenese (z. B. ungeplante DNA-Synthese (UDS) und Schwesterchromatidaustausch (SCE) oder (3) DNA-Schäden (z. B. die Bildung von Addukten). ), was schließlich zu Mutationen führen kann.
Genotoxizität, Mutagenität und Karzinogenität
Mutationen sind dauerhafte erbliche Veränderungen in den Zelllinien, entweder horizontal in den somatischen Zellen oder vertikal in den Keimzellen (Geschlechtszellen) des Körpers. Das heißt, Mutationen können durch Veränderungen in Körperzellen den Organismus selbst betreffen oder durch Veränderung der Geschlechtszellen an andere Generationen weitergegeben werden. Die Genotoxizität geht somit der Mutagenität voraus, obwohl der größte Teil der Genotoxizität repariert wird und sich nie als Mutationen ausdrückt. Somatische Mutationen werden auf zellulärer Ebene induziert und können sich, falls sie zu Zelltod oder bösartigen Erkrankungen führen, als verschiedene Erkrankungen des Gewebes oder des Organismus selbst manifestieren. Es wird angenommen, dass somatische Mutationen mit Alterungseffekten oder mit der Induktion atherosklerotischer Plaques zusammenhängen (siehe Abbildung 1 und das Kapitel über Krebs).
Abbildung 1. Schematische Darstellung des wissenschaftlichen Paradigmas in der genetischen Toxikologie und Auswirkungen auf die menschliche Gesundheit
Mutationen in der Keimzelllinie können auf die Zygote – die befruchtete Eizelle – übertragen und in der Nachkommengeneration exprimiert werden (siehe auch Kapitel Geschlechtsorgane). Die wichtigsten Mutationsstörungen bei Neugeborenen werden durch Fehlsegregation von Chromosomen während der Gametogenese (der Entwicklung von Keimzellen) induziert und führen zu schweren Chromosomensyndromen (z. B. Trisomie 21 oder Down-Syndrom und Monosomie X oder Turner-Syndrom).
Das Paradigma der Genotoxikologie von der Exposition gegenüber erwarteten Wirkungen kann vereinfacht werden, wie in Abbildung 1 dargestellt.
Die Beziehung zwischen Genotoxizität und Karzinogenität wird durch verschiedene indirekte Forschungsfakten gut unterstützt, wie in Abbildung 2 dargestellt.
Abbildung 2. Die Wechselbeziehungen zwischen Genotoxizität und Karzinogenität
Diese Korrelation bildet die Grundlage für die Anwendung von Biomarkern für Genotoxizität, die bei der Überwachung von Menschen als Indikatoren für das Krebsrisiko verwendet werden sollen.
Genetische Toxizität bei der Gefahrenidentifikation
Die Rolle genetischer Veränderungen bei der Karzinogenese unterstreicht die Bedeutung genetischer Toxizitätstests bei der Identifizierung potenzieller Karzinogene. Es wurden verschiedene Kurzzeittestmethoden entwickelt, die in der Lage sind, einige der mutmaßlich krebsentstehungsrelevanten Endpunkte der Genotoxizität zu erfassen.
Es wurden mehrere umfangreiche Erhebungen durchgeführt, um die Kanzerogenität von Chemikalien mit Ergebnissen zu vergleichen, die aus der Untersuchung von Chemikalien in Kurzzeittests gewonnen wurden. Die allgemeine Schlussfolgerung war, dass kein einziger validierter Test Informationen zu allen oben genannten genetischen Endpunkten liefern kann; Es ist notwendig, jede Chemikalie in mehr als einem Assay zu testen. Auch der Wert von Kurzzeittests zur genetischen Toxizität für die Vorhersage chemischer Kanzerogenität wurde wiederholt diskutiert und überprüft. Auf der Grundlage solcher Überprüfungen kam eine Arbeitsgruppe der Internationalen Agentur für Krebsforschung (IARC) zu dem Schluss, dass die meisten menschlichen Karzinogene in routinemäßig verwendeten Kurzzeittests wie z Salmonellen Assay und die Chromosomenaberrationsassays (Tabelle 1). Es muss jedoch beachtet werden, dass die epigenetischen Karzinogene – wie etwa hormonell aktive Verbindungen, die die genotoxische Aktivität erhöhen können, ohne selbst genotoxisch zu sein – nicht durch Kurzzeittests nachgewiesen werden können, die nur die intrinsische genotoxische Aktivität einer Substanz messen.
Tabelle 1. Genotoxizität von Chemikalien, bewertet in den Ergänzungen 6 und 7 der IARC-Monographien (1986)
Karzinogenitätsklassifizierung |
Verhältnis der Beweise für Genotoxizität/Karzinogenität |
% |
1: menschliche Karzinogene |
24/30 |
80 |
2A: wahrscheinliche menschliche Karzinogene |
14/20 |
70 |
2B: mögliche menschliche Karzinogene |
72/128 |
56 |
3: nicht klassifizierbar |
19/66 |
29 |
Genetisches Biomonitoring
Die genetische Überwachung nutzt Methoden der genetischen Toxikologie zur biologischen Überwachung genetischer Wirkungen oder zur Bewertung der genotoxischen Exposition in einer Gruppe von Personen mit definierter Exposition an einem Arbeitsplatz oder durch Umwelt oder Lebensstil. Somit hat das genetische Monitoring das Potenzial zur Früherkennung genotoxischer Expositionen in einer Personengruppe und ermöglicht die Identifizierung von Hochrisikopopulationen und damit von Interventionsprioritäten. Die Verwendung prädiktiver Biomarker in einer exponierten Population ist gerechtfertigt, um Zeit zu sparen (im Vergleich zu epidemiologischen Techniken) und unnötige Endeffekte, nämlich Krebs, zu verhindern (Abbildung 3).
Abbildung 3. Die Vorhersagekraft von Biomarkern ermöglicht es, vorbeugende Maßnahmen zu ergreifen, um Gesundheitsrisiken in der menschlichen Bevölkerung zu verringern
Die derzeit für das Biomonitoring genotoxischer Expositionen und frühen biologischen Wirkungen verwendeten Methoden sind in Tabelle 2 aufgeführt. Die für das Biomonitoring verwendeten Proben müssen mehrere Kriterien erfüllen, einschließlich der Notwendigkeit, dass sie sowohl leicht erhältlich als auch mit dem Zielgewebe vergleichbar sind.
Tabelle 2. Biomarker bei der genetischen Überwachung der Genotoxizitätsexposition und die am häufigsten verwendeten Zell-/Gewebeproben.
Marker der genetischen Überwachung |
Zell-/Gewebeproben |
Chromosomenaberrationen (CA) |
Lymphozyten |
Austausch von Schwesterchromatiden (SCE) |
Lymphozyten |
Mikronuklei (MN) |
Lymphozyten |
Punktmutationen (z. B. HPRT-Gen) |
Lymphozyten und andere Gewebe |
DNA-Addukte |
Aus Zellen/Geweben isolierte DNA |
Proteinaddukte |
Hämoglobin, Albumin |
DNA-Strangbrüche |
Aus Zellen/Geweben isolierte DNA |
Aktivierung von Onkogenen |
DNA oder spezifische Proteine isoliert |
Mutationen/Onkoproteine |
Verschiedene Zellen und Gewebe |
DNA-Reparatur |
Isolierte Zellen aus Blutproben |
Zu den molekular erkennbaren DNA-Schäden gehören die Bildung von DNA-Addukten und die Reorganisation der DNA-Sequenz. Derartige Schäden können durch Messungen von DNA-Addukten mit verschiedenen Techniken nachgewiesen werden, beispielsweise entweder 32P-Postlabelling oder der Nachweis von monoklonalen Antikörpern gegen DNA-Addukte. Die Messung von DNA-Strangbrüchen wird herkömmlicherweise unter Verwendung von alkalischen Elutions- oder Unwinding-Assays durchgeführt. Mutationen können durch Sequenzieren der DNA eines spezifischen Gens, beispielsweise des HPRT-Gens, nachgewiesen werden.
Es sind mehrere methodologische Berichte erschienen, die die Techniken von Tabelle 2 im Detail diskutieren (CEC 1987; IARC 1987, 1992, 1993).
Die Genotoxizität kann auch indirekt durch die Messung von Proteinaddukten, dh in Hämoglobin anstelle von DNA, oder die Überwachung der DNA-Reparaturaktivität überwacht werden. Als Messstrategie kann die Überwachungsaktivität entweder einmalig oder kontinuierlich sein. In allen Fällen müssen die Ergebnisse für die Entwicklung sicherer Arbeitsbedingungen verwendet werden.
Zytogenetisches Biomonitoring
Eine theoretische und empirische Begründung verbindet Krebs mit Chromosomenschäden. Mutationsereignisse, die die Aktivität oder Expression von Wachstumsfaktorgenen verändern, sind Schlüsselschritte in der Karzinogenese. Viele Arten von Krebs wurden mit spezifischen oder unspezifischen Chromosomenaberrationen in Verbindung gebracht. Bei mehreren erblichen Erkrankungen des Menschen ist die Chromosomeninstabilität mit einer erhöhten Anfälligkeit für Krebs verbunden.
Die zytogenetische Überwachung von Personen, die krebserzeugenden und/oder erbgutverändernden Chemikalien oder Strahlung ausgesetzt sind, kann Auswirkungen auf das Erbgut der betroffenen Personen ans Licht bringen. Chromosomenaberrationsstudien an Personen, die ionisierender Strahlung ausgesetzt waren, werden seit Jahrzehnten für die biologische Dosimetrie verwendet, aber gut dokumentierte positive Ergebnisse liegen bisher nur für eine begrenzte Anzahl chemischer Karzinogene vor.
Mikroskopisch erkennbare Chromosomenschäden umfassen sowohl strukturelle Chromosomenaberrationen (CA), bei denen eine grobe Veränderung der Morphologie (Form) eines Chromosoms aufgetreten ist, als auch durch Schwesterchromatid-Austausch (SCE). SCE ist der symmetrische Austausch von Chromosomenmaterial zwischen zwei Schwesterchromatiden. Mikronuklei (MN) können entweder aus azentrischen Chromosomenfragmenten oder aus nacheilenden ganzen Chromosomen entstehen. Diese Arten von Änderungen sind in Abbildung 4 dargestellt.
Abbildung 4. Menschliche Lymphozytenchromosomen in der Metaphase, die eine induzierte Chromosomenmutation zeigen (Pfeil zeigt auf ein azentrisches Fragment)
Periphere Blutlymphozyten beim Menschen sind geeignete Zellen zur Verwendung in Überwachungsstudien, da sie leicht zugänglich sind und die Exposition über eine relativ lange Lebensdauer integrieren können. Die Exposition gegenüber einer Vielzahl von chemischen Mutagenen kann zu einer erhöhten Häufigkeit von CAs und/oder SCEs in Blutlymphozyten von exponierten Personen führen. Auch das Schadensausmaß korreliert grob mit der Exposition, obwohl dies nur bei wenigen Chemikalien nachgewiesen werden konnte.
Wenn zytogenetische Tests an peripheren Blutlymphozyten zeigen, dass das genetische Material beschädigt wurde, können die Ergebnisse zur Risikoabschätzung nur auf Bevölkerungsebene verwendet werden. Eine erhöhte Häufigkeit von CAs in einer Population sollte als Hinweis auf ein erhöhtes Krebsrisiko angesehen werden, aber zytogenetische Tests erlauben als solche keine individuelle Risikovorhersage von Krebs.
Die gesundheitliche Bedeutung somatischer genetischer Schäden, wie sie durch das schmale Fenster einer Probe peripherer Blutlymphozyten gesehen wird, hat wenig oder keine Bedeutung für die Gesundheit eines Individuums, da die meisten Lymphozyten, die genetische Schäden tragen, absterben und ersetzt werden.
Probleme und ihre Beherrschung in Human-Biomonitoring-Studien
Ein strenges Studiendesign ist bei der Anwendung jeder Human-Biomonitoring-Methode erforderlich, da viele interindividuelle Faktoren, die nicht mit der/den interessierenden spezifischen chemischen Exposition(en) zusammenhängen, die untersuchten biologischen Reaktionen beeinflussen können. Da Human-Biomonitoring-Studien in vielerlei Hinsicht langwierig und schwierig sind, ist eine sorgfältige Vorplanung sehr wichtig. Bei der Durchführung zytogenetischer Studien am Menschen sollte die experimentelle Bestätigung des chromosomenschädigenden Potenzials des/der Expositionsmittel(s) immer eine experimentelle Voraussetzung sein.
In zytogenetischen Biomonitoring-Studien wurden zwei Haupttypen von Variationen dokumentiert. Die erste umfasst technische Faktoren im Zusammenhang mit Diskrepanzen beim Ablesen der Objektträger und mit Kulturbedingungen, insbesondere mit der Art des Mediums, der Temperatur und der Konzentration von Chemikalien (wie Bromdesoxyuridin oder Cytochalasin-B). Außerdem können die Probenahmezeiten die Ausbeute an Chromosomenaberrationen und möglicherweise auch die Ergebnisse der SCE-Inzidenz durch Veränderungen in Subpopulationen von T- und B-Lymphozyten verändern. Bei Mikronukleus-Analysen beeinflussen methodische Unterschiede (z. B. Verwendung von Cytochalasin-B-induzierten zweikernigen Zellen) ganz deutlich die Bewertungsergebnisse.
Die durch chemische Exposition in der DNA von Lymphozyten induzierten Läsionen, die zur Bildung von strukturellen Chromosomenaberrationen, Schwesterchromatidaustausch und Mikrokernen führen, müssen bestehen bleiben in vivo bis das Blut abgenommen wird und dann in vitro bis der kultivierte Lymphozyt mit der DNA-Synthese beginnt. Daher ist es wichtig, die Zellen direkt nach der ersten Teilung (im Fall von Chromosomenaberrationen oder Mikronuklei) oder nach der zweiten Teilung (Schwesterchromatidaustausch) zu punkten, um die beste Schätzung des induzierten Schadens zu erhalten.
Das Scoring ist ein äußerst wichtiges Element im zytogenetischen Biomonitoring. Die Objektträger müssen randomisiert und kodiert werden, um so weit wie möglich eine Voreingenommenheit des Scorers zu vermeiden. Konsistente Bewertungskriterien, Qualitätskontrolle und standardisierte statistische Analysen und Berichterstattung sollten beibehalten werden. Die zweite Kategorie der Variabilität ist auf Bedingungen zurückzuführen, die mit den Probanden verbunden sind, wie Alter, Geschlecht, Medikation und Infektionen. Individuelle Variationen können auch durch genetische Anfälligkeit für Umwelteinflüsse verursacht werden.
Es ist entscheidend, eine gleichzeitige Kontrollgruppe zu erhalten, die so genau wie möglich auf interne Faktoren wie Geschlecht und Alter sowie auf Faktoren wie Raucherstatus, Virusinfektionen und Impfungen, Alkohol- und Drogenkonsum und Exposition gegenüber Röntgenstrahlen abgestimmt ist . Darüber hinaus ist es notwendig, qualitative (Berufskategorie, Expositionsjahre) und quantitative (z. B. Atemzonenluftproben für chemische Analysen und spezifische Metaboliten, falls möglich) Schätzungen der Exposition gegenüber dem/den mutmaßlich genotoxischen Stoff(en) am Arbeitsplatz zu erhalten. Besonderes Augenmerk sollte auf eine ordnungsgemäße statistische Behandlung der Ergebnisse gelegt werden.
Relevanz des genetischen Biomonitorings für die Krebsrisikobewertung
Die Zahl der Mittel, von denen wiederholt gezeigt wurde, dass sie zytogenetische Veränderungen beim Menschen hervorrufen, ist noch immer relativ begrenzt, aber die meisten bekannten Karzinogene verursachen Schäden in Lymphozytenchromosomen.
Das Ausmaß des Schadens ist eine Funktion der Expositionshöhe, wie dies beispielsweise bei Vinylchlorid, Benzol, Ethylenoxid und alkylierenden Antikrebsmitteln gezeigt wurde. Auch wenn die zytogenetischen Endpunkte im Hinblick auf den Nachweis von Expositionen, die in heutigen beruflichen Situationen auftreten, nicht sehr empfindlich oder spezifisch sind, haben positive Ergebnisse solcher Tests oft dazu geführt, dass Hygienekontrollen durchgeführt wurden, selbst wenn kein direkter Hinweis auf somatische Chromosomenschäden vorliegt nachteilige gesundheitliche Folgen.
Die meisten Erfahrungen mit der Anwendung des zytogenetischen Biomonitorings stammen aus beruflichen Situationen mit „hoher Exposition“. Sehr wenige Expositionen wurden durch mehrere unabhängige Studien bestätigt, und die meisten davon wurden unter Verwendung von Chromosomenaberrations-Biomonitoring durchgeführt. Die Datenbank der International Agency for Research on Cancer listet in ihren aktualisierten Bänden 43–50 der IARC-Monographien insgesamt 14 berufsbedingte Karzinogene in den Gruppen 1, 2A oder 2B auf, für die in den meisten Fällen positive humanzytogenetische Daten vorliegen unterstützt durch entsprechende Tierzytogenetik (Tabelle 3). Diese begrenzte Datenbasis deutet darauf hin, dass karzinogene Chemikalien tendenziell klastogen sind und dass klastogene Wirkung tendenziell mit bekannten menschlichen Karzinogenen in Verbindung gebracht wird. Es ist jedoch ganz klar, dass nicht alle Karzinogene bei Menschen oder Versuchstieren zytogenetische Schäden hervorrufen in vivo. Fälle, in denen die Tierdaten positiv und die Humanbefunde negativ sind, können Unterschiede in der Expositionshöhe darstellen. Auch die komplexen und langfristigen Expositionen des Menschen bei der Arbeit sind möglicherweise nicht mit kurzfristigen Tierversuchen vergleichbar.
Tabelle 3. Bewiesene, wahrscheinliche und mögliche Karzinogene beim Menschen, für die eine berufliche Exposition besteht und für die zytogenetische Endpunkte sowohl bei Menschen als auch bei Versuchstieren gemessen wurden
Zytogene Befunde1 |
||||||
Humans |
Tiere |
|||||
Agent/Exposition |
CA |
SCE |
MN |
CA |
SCE |
MN |
GRUPPE 1, Menschliche Karzinogene |
||||||
Arsen und Arsenverbindungen |
? |
? |
|
+ |
|
+ |
Asbest |
|
? |
|
- |
|
- |
Benzol |
+ |
|
|
+ |
+ |
+ |
Bis(chlormethyl)ether und Chlormethylmethylether (technische Qualität) |
(+) |
|
|
- |
|
|
Cyclophosphamid |
+ |
+ |
|
+ |
+ |
+ |
Sechswertige Chromverbindungen |
+ |
+ |
|
+ |
+ |
+ |
Melphalan |
+ |
+ |
|
+ |
|
|
Nickelverbindungen |
+ |
- |
|
? |
|
|
Radon |
+ |
|
|
- |
|
|
Tabakrauch |
+ |
+ |
+ |
|
+ |
|
Vinylchlorid |
+ |
? |
|
+ |
+ |
+ |
GRUPPE 2A, Wahrscheinliche menschliche Karzinogene |
||||||
Acrylnitril |
- |
|
|
- |
|
- |
Adriamycin |
+ |
+ |
|
+ |
+ |
+ |
Cadmium und Cadmiumverbindungen |
- |
(-) |
|
- |
|
|
Cisplatin |
|
+ |
|
+ |
+ |
|
Epichlorhydrin |
+ |
|
|
? |
+ |
- |
Ethylendibromid |
- |
- |
|
- |
+ |
- |
Ethylenoxid |
+ |
+ |
+ |
+ |
+ |
+ |
Formaldehyd |
? |
? |
|
- |
|
- |
GRUPPE 2B, Mögliche menschliche Karzinogene |
||||||
Chlorphenoxy-Herbizide (2,4-D und 2,4,5-T) |
- |
- |
|
+ |
+ |
- |
DDT |
? |
|
|
+ |
|
- |
Dimethylformamid |
(+) |
|
|
|
- |
- |
Bleiverbindungen |
? |
? |
|
? |
- |
? |
Styrol |
+ |
? |
+ |
? |
+ |
+ |
2,3,7,8-Tetrachlordibenzo-para-dioxin |
? |
|
|
- |
- |
- |
Schweißrauch |
+ |
+ |
|
- |
- |
|
1 CA, Chromosomenaberration; SCE, Schwesterchromatid-Austausch; MN, Mikronuklei.
(–) = negativer Zusammenhang für eine Studie; – = negative Beziehung;
(+) = positive Beziehung für eine Studie; + = positive Beziehung;
? = nicht schlüssig; leerer Bereich = nicht untersucht
Quelle: IARC, 1987; aktualisiert durch die Bände 43–50 der IARC-Monographien.
Studien zur Genotoxizität bei exponierten Menschen umfassen verschiedene andere Endpunkte als chromosomale Endpunkte, wie z. B. DNA-Schäden, DNA-Reparaturaktivität und Addukte in DNA und Proteinen. Einige dieser Endpunkte können für die Vorhersage einer karzinogenen Gefahr relevanter sein als andere. Stabile genetische Veränderungen (z. B. chromosomale Umlagerungen, Deletionen und Punktmutationen) sind von hoher Relevanz, da bekannt ist, dass diese Arten von Schäden mit der Karzinogenese zusammenhängen. Die Bedeutung von DNA-Addukten hängt von ihrer chemischen Identifizierung und dem Nachweis ab, dass sie aus der Exposition resultieren. Einige Endpunkte, wie SCE, UDS, SSB, DNA-Strangbruch, sind potenzielle Indikatoren und/oder Marker für genetische Ereignisse; ihr Wert wird jedoch in Ermangelung eines mechanistischen Verständnisses ihrer Fähigkeit, zu genetischen Ereignissen zu führen, reduziert. Der relevanteste genetische Marker beim Menschen wäre eindeutig die Induktion einer spezifischen Mutation, die direkt mit Krebs bei Nagetieren in Verbindung gebracht wurde, die dem untersuchten Mittel ausgesetzt waren (Abbildung 5).
Abbildung 5. Relevanz verschiedener genetischer Biomonitoring-Effekte für das potenzielle Krebsrisiko
Ethische Überlegungen zum genetischen Biomonitoring
Schnelle Fortschritte bei molekulargenetischen Techniken, die beschleunigte Sequenzierung des menschlichen Genoms und die Identifizierung der Rolle von Tumorsuppressorgenen und Proto-Onkogenen bei der menschlichen Karzinogenese werfen ethische Fragen bei der Interpretation, Kommunikation und Verwendung dieser Art von Genen auf persönliche Informationen. Sich schnell verbessernde Techniken zur Analyse menschlicher Gene werden bald die Identifizierung von noch mehr vererbten Anfälligkeitsgenen in gesunden, asymptomatischen Personen ermöglichen (US Office of Technology Assessment 1990), die sich zur Verwendung beim genetischen Screening eignen.
Viele Fragen von sozialem und ethischem Interesse werden aufgeworfen, wenn die Anwendung des genetischen Screenings bald Realität wird. Bereits heute werden etwa 50 genetische Merkmale des Stoffwechsels, der Enzympolymorphismen und der DNA-Reparatur für spezifische Krankheitsempfindlichkeiten vermutet, und für etwa 300 genetische Krankheiten steht ein diagnostischer DNA-Test zur Verfügung. Soll überhaupt ein genetisches Screening am Arbeitsplatz durchgeführt werden? Wer entscheidet, wer getestet wird, und wie werden die Informationen bei Einstellungsentscheidungen verwendet? Wer hat Zugang zu den Informationen aus dem genetischen Screening und wie werden die Ergebnisse den betroffenen Personen mitgeteilt? Viele dieser Fragen sind stark mit gesellschaftlichen Normen und vorherrschenden ethischen Werten verknüpft. Das Hauptziel muss die Verhütung von Krankheiten und menschlichem Leid sein, aber der eigene Wille und die ethischen Prämissen des Einzelnen müssen respektiert werden. Einige der relevanten ethischen Fragen, die rechtzeitig vor Beginn jeder Arbeitsplatz-Biomonitoring-Studie beantwortet werden müssen, sind in Tabelle 4 aufgeführt und werden auch im Kapitel diskutiert Ethische Fragen.
Tabelle 4. Einige ethische Grundsätze in Bezug auf die Notwendigkeit des Wissens in berufsgenetischen Biomonitoring-Studien
Gruppen, denen Informationen gegeben werden |
|||
Informationen gegeben |
Personen untersucht |
Arbeitsmedizinische Einheit |
Arbeitgeber |
Was wird studiert |
|||
Warum wird die Studie durchgeführt |
|||
Gibt es Risiken |
|||
Vertraulichkeitsprobleme |
|||
Bereitschaft für mögliche hygienische Verbesserungen, Expositionsreduktionen angezeigt |
In die Planungsphase jeder genetischen Biomonitoring-Studie müssen Zeit und Mühe investiert werden, und alle erforderlichen Parteien – die Arbeitnehmer, Arbeitgeber und das medizinische Personal des kooperierenden Arbeitsplatzes – müssen vor der Studie gut informiert und die Ergebnisse bekannt gegeben werden sie auch nach dem Studium. Bei richtiger Sorgfalt und zuverlässigen Ergebnissen kann genetisches Biomonitoring dazu beitragen, sicherere Arbeitsplätze zu gewährleisten und die Gesundheit der Arbeitnehmer zu verbessern.
Es ist seit langem bekannt, dass jeder Mensch anders auf Umweltchemikalien reagiert. Die jüngste Explosion in der Molekularbiologie und Genetik hat zu einem klareren Verständnis der molekularen Grundlage einer solchen Variabilität geführt. Zu den wichtigsten Determinanten der individuellen Reaktion auf Chemikalien gehören wichtige Unterschiede zwischen mehr als einem Dutzend Superfamilien von Enzymen, die zusammenfassend bezeichnet werden xenobiotisch- (körperfremd) bzw Droge-metabolisierend Enzyme. Obwohl die Rolle dieser Enzyme klassischerweise als Entgiftung angesehen wird, wandeln dieselben Enzyme auch eine Reihe von inerten Verbindungen in hochgiftige Zwischenprodukte um. Kürzlich wurden viele subtile sowie grobe Unterschiede in den diese Enzyme kodierenden Genen identifiziert, die nachweislich zu deutlichen Variationen in der Enzymaktivität führen. Es ist nun klar, dass jedes Individuum eine unterschiedliche Ergänzung von Xenobiotika-metabolisierenden Enzymaktivitäten besitzt; Diese Vielfalt könnte als „metabolischer Fingerabdruck“ betrachtet werden. Es ist das komplexe Zusammenspiel dieser vielen verschiedenen Enzym-Superfamilien, das letztendlich nicht nur das Schicksal und das Toxizitätspotenzial einer Chemikalie bei einem bestimmten Individuum bestimmt, sondern auch die Bewertung der Exposition. In diesem Artikel haben wir uns entschieden, die Superfamilie der Cytochrom-P450-Enzyme zu verwenden, um die bemerkenswerten Fortschritte zu veranschaulichen, die beim Verständnis der individuellen Reaktion auf Chemikalien erzielt wurden. Die Entwicklung relativ einfacher DNA-basierter Tests zur Identifizierung spezifischer Genveränderungen in diesen Enzymen liefert nun genauere Vorhersagen der individuellen Reaktion auf Chemikalienexposition. Wir hoffen, dass das Ergebnis eine präventive Toxikologie sein wird. Mit anderen Worten, jeder Einzelne könnte etwas über die Chemikalien erfahren, auf die er oder sie besonders empfindlich reagiert, und so eine zuvor unvorhersehbare Toxizität oder Krebs vermeiden.
Obwohl dies im Allgemeinen nicht anerkannt wird, sind Menschen täglich einem Sperrfeuer unzähliger verschiedener Chemikalien ausgesetzt. Viele dieser Chemikalien sind hochgiftig und stammen aus einer Vielzahl von Umwelt- und Nahrungsquellen. Die Beziehung zwischen solchen Expositionen und der menschlichen Gesundheit war und ist ein Hauptaugenmerk biomedizinischer Forschungsbemühungen weltweit.
Was sind einige Beispiele für dieses chemische Bombardement? Mehr als 400 Chemikalien aus Rotwein wurden isoliert und charakterisiert. Mindestens 1,000 Chemikalien werden schätzungsweise durch eine angezündete Zigarette produziert. Es gibt unzählige Chemikalien in Kosmetika und parfümierten Seifen. Eine weitere wichtige Quelle der Exposition gegenüber Chemikalien ist die Landwirtschaft: Allein in den Vereinigten Staaten werden Ackerland jedes Jahr mehr als 75,000 Chemikalien in Form von Pestiziden, Herbiziden und Düngemitteln ausgesetzt; Nach der Aufnahme durch Pflanzen und Weidetiere sowie Fische in nahe gelegenen Gewässern nimmt der Mensch (am Ende der Nahrungskette) diese Chemikalien auf. Zwei weitere Quellen für große Konzentrationen von Chemikalien, die in den Körper aufgenommen werden, sind (a) chronisch eingenommene Medikamente und (b) die Exposition gegenüber gefährlichen Stoffen am Arbeitsplatz über ein ganzes Berufsleben hinweg.
Es ist inzwischen allgemein bekannt, dass die Exposition gegenüber Chemikalien viele Aspekte der menschlichen Gesundheit beeinträchtigen und chronische Krankheiten und die Entwicklung vieler Krebsarten verursachen kann. In den letzten zehn Jahren begann man, die molekulare Grundlage vieler dieser Beziehungen zu enträtseln. Darüber hinaus hat sich die Erkenntnis herauskristallisiert, dass sich Menschen in ihrer Anfälligkeit für die schädlichen Wirkungen einer Exposition gegenüber Chemikalien deutlich unterscheiden.
Gegenwärtige Bemühungen, die Reaktion des Menschen auf eine Exposition gegenüber Chemikalien vorherzusagen, kombinieren zwei grundlegende Ansätze (Abbildung 1): die Überwachung des Ausmaßes der Exposition des Menschen durch biologische Marker (Biomarker) und die Vorhersage der wahrscheinlichen Reaktion einer Person auf ein bestimmtes Expositionsniveau. Obwohl diese beiden Ansätze äußerst wichtig sind, sollte betont werden, dass sich die beiden deutlich voneinander unterscheiden. Dieser Artikel konzentriert sich auf die Genetische Faktoren zugrunde liegende individuelle Anfälligkeit für eine bestimmte chemische Belastung. Dieses Forschungsfeld wird weit gefasst Ökogenetik, oder Pharmakogenetik (siehe Kalow 1962 und 1992). Viele der jüngsten Fortschritte bei der Bestimmung der individuellen Anfälligkeit für chemische Toxizität sind aus einer größeren Wertschätzung der Prozesse entstanden, durch die Menschen und andere Säugetiere Chemikalien entgiften, und der bemerkenswerten Komplexität der beteiligten Enzymsysteme.
Abbildung 1. Die Wechselbeziehungen zwischen Expositionsbeurteilung, ethnischen Unterschieden, Alter, Ernährung, Ernährung und genetischer Anfälligkeitsbeurteilung – die alle beim individuellen Toxizitäts- und Krebsrisiko eine Rolle spielen
Wir werden zunächst die Variabilität toxischer Reaktionen beim Menschen beschreiben. Wir werden dann einige der Enzyme vorstellen, die für eine solche Variation der Reaktion aufgrund von Unterschieden im Metabolismus fremder Chemikalien verantwortlich sind. Als nächstes werden die Geschichte und Nomenklatur der Cytochrom-P450-Superfamilie detailliert beschrieben. Fünf menschliche P450-Polymorphismen sowie mehrere Nicht-P450-Polymorphismen werden kurz beschrieben; diese sind für menschliche Unterschiede in der toxischen Reaktion verantwortlich. Wir werden dann ein Beispiel diskutieren, um den Punkt zu betonen, dass genetische Unterschiede bei Individuen die Expositionsbewertung beeinflussen können, wie durch Umweltüberwachung bestimmt. Abschließend diskutieren wir die Rolle dieser Xenobiotika-metabolisierenden Enzyme in kritischen Lebensfunktionen.
Variation der toxischen Reaktion in der menschlichen Bevölkerung
Toxikologen und Pharmakologen sprechen gemeinhin von der durchschnittlichen tödlichen Dosis für 50 % der Bevölkerung (LD50), die durchschnittliche maximal tolerierte Dosis für 50 % der Bevölkerung (MTD50) und die durchschnittliche wirksame Dosis eines bestimmten Medikaments für 50 % der Bevölkerung (ED50). Wie wirken sich diese Dosen jedoch auf jeden von uns individuell aus? Mit anderen Worten, ein hochsensibles Individuum kann 500-mal stärker betroffen oder 500-mal wahrscheinlicher betroffen sein als das resistenteste Individuum in einer Population; für diese Leute, die LD50 (und MTD50 und ED50) Werte hätten wenig Bedeutung. LD50, MTD50 und ED50 Werte sind nur relevant, wenn sie sich auf die Gesamtbevölkerung beziehen.
Figure 2 veranschaulicht eine hypothetische Dosis-Wirkungs-Beziehung für eine toxische Reaktion von Individuen in einer gegebenen Population. Dieses generische Diagramm könnte bronchogenes Karzinom als Reaktion auf die Anzahl der gerauchten Zigaretten, Chlorakne als Funktion des Dioxinspiegels am Arbeitsplatz, Asthma als Funktion der Luftkonzentration von Ozon oder Aldehyd, Sonnenbrand als Reaktion auf ultraviolettes Licht, verringerte Gerinnungszeit usw. darstellen eine Funktion der Einnahme von Aspirin oder Magen-Darm-Beschwerden als Reaktion auf die Anzahl der Jalapeno Paprika verzehrt. Im Allgemeinen gilt in jedem dieser Fälle, je größer die Exposition, desto größer die toxische Reaktion. Der Großteil der Bevölkerung zeigt den Mittelwert und die Standardabweichung der toxischen Reaktion als Funktion der Dosis. Der „resistente Ausreißer“ (unten rechts in Abbildung 2) ist eine Person, die bei höheren Dosen oder Expositionen weniger stark anspricht. Ein „empfindlicher Ausreißer“ (oben links) ist eine Person, die auf eine relativ geringe Dosis oder Exposition übertrieben reagiert. Diese Ausreißer mit extrem unterschiedlichen Reaktionen im Vergleich zur Mehrheit der Individuen in der Bevölkerung können wichtige genetische Varianten darstellen, die Wissenschaftlern dabei helfen können, die zugrunde liegenden molekularen Mechanismen einer toxischen Reaktion zu verstehen.
Abbildung 2. Generische Beziehung zwischen jeder toxischen Reaktion und der Dosis eines umweltbedingten, chemischen oder physikalischen Mittels
Unter Verwendung dieser Ausreißer in Familienstudien haben Wissenschaftler in einer Reihe von Laboratorien begonnen, die Bedeutung der Mendelschen Vererbung für eine bestimmte toxische Reaktion zu erkennen. Anschließend kann man sich molekularbiologischen und genetischen Studien zuwenden, um den zugrunde liegenden Mechanismus auf Genebene zu lokalisieren (Genotyp) verantwortlich für die umweltbedingte Krankheit (Phänotyp).
Xenobiotika- oder Arzneimittel-metabolisierende Enzyme
Wie reagiert der Körper auf die unzähligen exogenen Chemikalien, denen wir ausgesetzt sind? Menschen und andere Säugetiere haben hochkomplexe metabolische Enzymsysteme entwickelt, die mehr als ein Dutzend verschiedene Superfamilien von Enzymen umfassen. Nahezu jede Chemikalie, der Menschen ausgesetzt sind, wird durch diese Enzyme modifiziert, um die Entfernung der Fremdsubstanz aus dem Körper zu erleichtern. Gemeinsam werden diese Enzyme häufig als bezeichnet Arzneimittel metabolisierende Enzyme or Xenobiotika metabolisierende Enzyme. Eigentlich sind beide Begriffe irreführend. Erstens verstoffwechseln viele dieser Enzyme nicht nur Medikamente, sondern Hunderttausende von Umwelt- und Nahrungschemikalien. Zweitens haben alle diese Enzyme auch normale Körperverbindungen als Substrate; Keines dieser Enzyme verstoffwechselt nur fremde Chemikalien.
Seit mehr als vier Jahrzehnten werden die durch diese Enzyme vermittelten Stoffwechselprozesse üblicherweise entweder als Phase-I- oder als Phase-II-Reaktionen klassifiziert (Abbildung 3). Reaktionen der Phase I („Funktionalisierung“) umfassen im Allgemeinen relativ geringfügige strukturelle Modifikationen der Ausgangschemikalie durch Oxidation, Reduktion oder Hydrolyse, um einen besser wasserlöslichen Metaboliten herzustellen. Häufig bieten Phase-I-Reaktionen einen „Handgriff“ für die weitere Modifikation einer Verbindung durch nachfolgende Phase-II-Reaktionen. Phase-I-Reaktionen werden in erster Linie durch eine Superfamilie äußerst vielseitiger Enzyme vermittelt, die zusammen als Cytochrome P450 bezeichnet werden, obwohl auch andere Enzym-Superfamilien beteiligt sein können (Abbildung 4).
Abbildung 3. Die klassische Bezeichnung von Phase-I- und Phase-II-Fremdstoff- oder Arzneimittel-metabolisierenden Enzymen
Abbildung 4. Beispiele für Arzneimittel metabolisierende Enzyme
Phase-II-Reaktionen umfassen die Kopplung eines wasserlöslichen endogenen Moleküls an eine Chemikalie (Ausgangschemikalie oder Phase-I-Metabolit), um die Ausscheidung zu erleichtern. Phase-II-Reaktionen werden häufig als "Konjugations"- oder "Derivatisierungs"-Reaktionen bezeichnet. Die Enzym-Superfamilien, die Phase-II-Reaktionen katalysieren, werden im Allgemeinen nach der beteiligten endogenen konjugierenden Einheit benannt: zum Beispiel Acetylierung durch die N-Acetyltransferasen, Sulfatierung durch die Sulfotransferasen, Glutathion-Konjugation durch die Glutathion-Transferasen und Glucuronidierung durch die UDP-Glucuronosyltransferasen (Abbildung 4). . Obwohl das Hauptorgan des Arzneimittelstoffwechsels die Leber ist, sind die Konzentrationen einiger Arzneimittel metabolisierender Enzyme im Gastrointestinaltrakt, den Keimdrüsen, der Lunge, dem Gehirn und den Nieren ziemlich hoch, und solche Enzyme sind zweifellos bis zu einem gewissen Grad in jeder lebenden Zelle vorhanden.
Xenobiotika-metabolisierende Enzyme sind zweischneidig Swords
Je mehr wir über die biologischen und chemischen Prozesse erfahren, die zu Fehlentwicklungen der menschlichen Gesundheit führen, desto offensichtlicher wird, dass Arzneimittel metabolisierende Enzyme auf ambivalente Weise funktionieren (Abbildung 3). In den meisten Fällen werden fettlösliche Chemikalien in leichter ausgeschiedene wasserlösliche Metaboliten umgewandelt. Es ist jedoch klar, dass dieselben Enzyme in vielen Fällen in der Lage sind, andere inerte Chemikalien in hochreaktive Moleküle umzuwandeln. Diese Zwischenprodukte können dann mit zellulären Makromolekülen wie Proteinen und DNA interagieren. Somit besteht für jede Chemikalie, der Menschen ausgesetzt sind, das Potenzial für konkurrierende Stoffwechselwege metabolische Aktivierung und Entgiftung.
Kurze Überprüfung der Genetik
In der Humangenetik ist jedes Gen (loci) befindet sich auf einem der 23 Chromosomenpaare. Die Zwei Allele (einer auf jedem Chromosom des Paares vorhanden) können gleich oder voneinander verschieden sein. Zum Beispiel die B und b Allele, in denen B (braune Augen) dominiert b (blaue Augen): Individuen des braunäugigen Phänotyps können entweder die haben BB or Bb Genotypen, wohingegen Individuen des blauäugigen Phänotyps nur die haben können bb Genotyp.
A Polymorphismus ist definiert als zwei oder mehr stabil vererbte Phänotypen (Merkmale) – die von denselben Genen abstammen – die in der Population aufrechterhalten werden, oft aus Gründen, die nicht unbedingt offensichtlich sind. Damit ein Gen polymorph ist, darf das Genprodukt für die Entwicklung, die Fortpflanzungskraft oder andere kritische Lebensprozesse nicht wesentlich sein. Tatsächlich ist ein „ausgewogener Polymorphismus“, bei dem die Heterozygote einen deutlichen Überlebensvorteil gegenüber beiden Homozygoten hat (z. B. Resistenz gegen Malaria und das Sichelzellen-Hämoglobin-Allel), eine häufige Erklärung dafür, dass ein Allel in der Population auf einem ansonsten unerklärlichen hohen Wert gehalten wird Frequenzen (vgl González und Nebert 1990).
Menschliche Polymorphismen von Xenobiotika-metabolisierenden Enzymen
Genetische Unterschiede im Metabolismus verschiedener Medikamente und Umweltchemikalien sind seit mehr als vier Jahrzehnten bekannt (Kalow 1962 und 1992). Diese Unterschiede werden häufig als bezeichnet pharmakogenetisch oder allgemeiner ökogenetische Polymorphismen. Diese Polymorphismen stellen abweichende Allele dar, die mit einer relativ hohen Häufigkeit in der Bevölkerung vorkommen und im Allgemeinen mit Aberrationen in der Enzymexpression oder -funktion assoziiert sind. In der Vergangenheit wurden Polymorphismen normalerweise nach unerwarteten Reaktionen auf Therapeutika identifiziert. In jüngerer Zeit hat die rekombinante DNA-Technologie es Wissenschaftlern ermöglicht, die genauen Veränderungen in Genen zu identifizieren, die für einige dieser Polymorphismen verantwortlich sind. Polymorphismen wurden nun in vielen Arzneimittel metabolisierenden Enzymen charakterisiert – einschließlich sowohl Phase-I- als auch Phase-II-Enzymen. Da immer mehr Polymorphismen identifiziert werden, wird es immer deutlicher, dass jedes Individuum ein bestimmtes Komplement von Arzneimittel-metabolisierenden Enzymen besitzen kann. Diese Vielfalt könnte man als „metabolischen Fingerabdruck“ bezeichnen. Es ist das komplexe Zusammenspiel der verschiedenen Superfamilien der arzneimittelmetabolisierenden Enzyme in jedem Individuum, das letztendlich seine oder ihre besondere Reaktion auf eine bestimmte Chemikalie bestimmt (Kalow 1962 und 1992; Nebert 1988; Gonzalez und Nebert 1990; Nebert und Weber 1990).
Expression menschlicher Xenobiotika-metabolisierender Enzyme in der Zelle KULTUR
Wie könnten wir bessere Prädiktoren für menschliche toxische Reaktionen auf Chemikalien entwickeln? Fortschritte bei der Definition der Vielzahl von Enzymen, die Arzneimittel metabolisieren, müssen von genauen Kenntnissen darüber begleitet werden, welche Enzyme das Stoffwechselschicksal einzelner Chemikalien bestimmen. Daten aus Laborstudien an Nagetieren haben sicherlich nützliche Informationen geliefert. Signifikante Unterschiede zwischen den Spezies bei Enzymen, die Fremdstoffe metabolisieren, erfordern jedoch Vorsicht bei der Extrapolation von Daten auf menschliche Populationen. Um diese Schwierigkeit zu überwinden, haben viele Laboratorien Systeme entwickelt, in denen verschiedene Zelllinien in Kultur manipuliert werden können, um funktionelle menschliche Enzyme zu produzieren, die stabil und in hohen Konzentrationen sind (Gonzalez, Crespi und Gelboin 1991). Die erfolgreiche Produktion menschlicher Enzyme wurde in einer Vielzahl unterschiedlicher Zelllinien aus Quellen wie Bakterien, Hefen, Insekten und Säugetieren erreicht.
Um den Stoffwechsel von Chemikalien noch genauer zu definieren, mehrere Enzyme wurden auch erfolgreich in einer einzelnen Zelllinie produziert (Gonzalez, Crespi und Gelboin 1991). Solche Zelllinien liefern wertvolle Einblicke in die genauen Enzyme, die an der metabolischen Verarbeitung einer bestimmten Verbindung und wahrscheinlich toxischer Metaboliten beteiligt sind. Wenn diese Informationen dann mit dem Wissen über das Vorhandensein und die Menge eines Enzyms in menschlichen Geweben kombiniert werden können, sollten diese Daten wertvolle Prädiktoren für das Ansprechen liefern.
Cytochrom P450
Geschichte und Nomenklatur
Die Cytochrom-P450-Superfamilie ist eine der am besten untersuchten Superfamilien von Arzneimittel metabolisierenden Enzymen, die eine große individuelle Variabilität in der Reaktion auf Chemikalien aufweist. Cytochrom P450 ist ein praktischer Oberbegriff, der verwendet wird, um eine große Superfamilie von Enzymen zu beschreiben, die für den Metabolismus unzähliger endogener und exogener Substrate von entscheidender Bedeutung sind. Der Begriff Cytochrom P450 wurde erstmals 1962 geprägt, um ein Unbekanntes zu beschreiben Pigment in Zellen, die, wenn sie reduziert und mit Kohlenmonoxid gebunden wurden, einen charakteristischen Absorptionspeak bei 450 nm erzeugten. Seit den frühen 1980er Jahren hat die cDNA-Klonierungstechnologie zu bemerkenswerten Einblicken in die Vielzahl von Cytochrom-P450-Enzymen geführt. Bis heute wurden mehr als 400 unterschiedliche Cytochrom-P450-Gene in Tieren, Pflanzen, Bakterien und Hefen identifiziert. Es wurde geschätzt, dass jede Säugetierart, wie der Mensch, 60 oder mehr unterschiedliche P450-Gene besitzen kann (Nebert und Nelson 1991). Die Vielzahl der P450-Gene hat die Entwicklung eines standardisierten Nomenklatursystems erforderlich gemacht (Nebert et al. 1987; Nelson et al. 1993). Das erstmals 1987 vorgeschlagene und alle zwei Jahre aktualisierte Nomenklatursystem basiert auf der divergenten Entwicklung von Aminosäuresequenzvergleichen zwischen P450-Proteinen. Die P450-Gene werden in Familien und Unterfamilien unterteilt: Enzyme innerhalb einer Familie zeigen mehr als 40 % Aminosäureähnlichkeit, und diejenigen innerhalb derselben Unterfamilie zeigen 55 % Ähnlichkeit. P450-Gene werden mit dem Wurzelsymbol benannt CYP gefolgt von einer arabischen Zahl, die die P450-Familie bezeichnet, einem Buchstaben, der die Unterfamilie bezeichnet, und einer weiteren arabischen Zahl, die das individuelle Gen bezeichnet (Nelson et al. 1993; Nebert et al. 1991). Daher, CYP1A1 repräsentiert das P450-Gen 1 in Familie 1 und Unterfamilie A.
Ab Februar 1995 gibt es 403 CYP Gene in der Datenbank, bestehend aus 59 Familien und 105 Unterfamilien. Dazu gehören acht niedere eukaryotische Familien, 15 Pflanzenfamilien und 19 Bakterienfamilien. Die 15 menschlichen P450-Genfamilien umfassen 26 Unterfamilien, von denen 22 auf chromosomale Stellen im größten Teil des Genoms kartiert wurden. Einige Sequenzen sind über viele Arten eindeutig ortholog – zum Beispiel nur eine CYP17 (Steroid 17α-Hydroxylase)-Gen wurde in allen bisher untersuchten Wirbeltieren gefunden; andere Sequenzen innerhalb einer Unterfamilie sind stark dupliziert, was die Identifizierung orthologer Paare unmöglich macht (z. B. die CYP2C Unterfamilie). Interessanterweise teilen Mensch und Hefe ein orthologes Gen in der CYP51 Familie. Für Leser, die weitere Informationen über die P450-Superfamilie suchen, stehen zahlreiche umfassende Übersichtsartikel zur Verfügung (Nelson et al. 1993; Nebert et al. 1991; Nebert und McKinnon 1994; Guengerich 1993; Gonzalez 1992).
Der Erfolg des P450-Nomenklatursystems hat zur Entwicklung ähnlicher Terminologiesysteme für die UDP-Glucuronosyltransferasen (Burchell et al. 1991) und Flavin-enthaltende Monooxygenasen (Lawton et al. 1994) geführt. Ähnliche Nomenklatursysteme, die auf divergenter Evolution basieren, werden auch für mehrere andere Superfamilien von Arzneimittel metabolisierenden Enzymen entwickelt (z. B. Sulfotransferasen, Epoxidhydrolasen und Aldehyddehydrogenasen).
Kürzlich teilten wir die Säuger-P450-Gen-Superfamilie in drei Gruppen ein (Nebert und McKinnon 1994) – diejenigen, die hauptsächlich am Stoffwechsel von Fremdchemikalien beteiligt sind, diejenigen, die an der Synthese verschiedener Steroidhormone beteiligt sind, und diejenigen, die an anderen wichtigen endogenen Funktionen beteiligt sind. Es sind die fremdstoffmetabolisierenden P450-Enzyme, denen die größte Bedeutung für die Vorhersage der Toxizität zukommt.
Xenobiotika metabolisierende P450-Enzyme
P450-Enzyme, die am Metabolismus fremder Verbindungen und Arzneimittel beteiligt sind, kommen fast immer innerhalb von Familien vor CYP1, CYP2, CYP3 und CYP4. Diese P450-Enzyme katalysieren eine Vielzahl von Stoffwechselreaktionen, wobei ein einziges P450 oft in der Lage ist, viele verschiedene Verbindungen zu metabolisieren. Darüber hinaus können mehrere P450-Enzyme eine einzelne Verbindung an verschiedenen Stellen metabolisieren. Eine Verbindung kann auch an derselben einzelnen Stelle von mehreren P450 metabolisiert werden, wenn auch mit unterschiedlichen Raten.
Eine äußerst wichtige Eigenschaft der Arzneimittel metabolisierenden P450-Enzyme besteht darin, dass viele dieser Gene durch genau die Substanzen induzierbar sind, die als ihre Substrate dienen. Andererseits werden andere P450-Gene durch Nichtsubstrate induziert. Dieses Phänomen der Enzyminduktion liegt vielen Arzneimittelwechselwirkungen von therapeutischer Bedeutung zugrunde.
Obwohl diese speziellen P450-Enzyme in vielen Geweben vorhanden sind, werden sie in relativ hohen Konzentrationen in der Leber, dem primären Ort des Arzneimittelstoffwechsels, gefunden. Einige der Xenobiotika metabolisierenden P450-Enzyme zeigen Aktivität gegenüber bestimmten endogenen Substraten (z. B. Arachidonsäure). Es wird jedoch allgemein angenommen, dass die meisten dieser Xenobiotika metabolisierenden P450-Enzyme keine wichtige physiologische Rolle spielen – obwohl dies noch nicht experimentell nachgewiesen wurde. Die selektive homozygote Disruption oder „Knock-out“ einzelner Xenobiotika-metabolisierender P450-Gene mittels Gen-Targeting-Methoden in Mäusen wird wahrscheinlich bald eindeutige Informationen in Bezug auf die physiologische Rolle der Xenobiotika-metabolisierenden P450s liefern (für eine Übersicht von Gen-Targeting, siehe Capecchi 1994).
Im Gegensatz zu P450-Familien, die für Enzyme codieren, die hauptsächlich an physiologischen Prozessen beteiligt sind, zeigen Familien, die Fremdstoffe metabolisierende P450-Enzyme codieren, eine ausgeprägte Artspezifität und enthalten häufig viele aktive Gene pro Unterfamilie (Nelson et al. 1993; Nebert et al. 1991). Angesichts des offensichtlichen Mangels an physiologischen Substraten ist es möglich, dass P450-Enzyme in Familien vorkommen CYP1, CYP2, CYP3 und CYP4 die in den letzten mehreren hundert Millionen Jahren erschienen sind, haben sich als Mittel zur Entgiftung von Fremdchemikalien entwickelt, die in der Umwelt und in der Ernährung angetroffen werden. Die Evolution der Xenobiotika metabolisierenden P450 hätte eindeutig über einen Zeitraum stattgefunden, der weit vor der Synthese der meisten synthetischen Chemikalien liegt, denen Menschen heute ausgesetzt sind. Die Gene in diesen vier Genfamilien könnten sich in Tieren aufgrund ihrer Exposition gegenüber pflanzlichen Metaboliten während der letzten 1.2 Milliarden Jahre entwickelt und auseinander entwickelt haben – ein Prozess, der beschreibend als „Tier-Pflanze-Kriegsführung“ bezeichnet wird (Gonzalez und Nebert 1990). Tier-Pflanze-Krieg ist das Phänomen, bei dem Pflanzen neue Chemikalien (Phytoalexine) als Abwehrmechanismus entwickelten, um die Aufnahme durch Tiere zu verhindern, und die Tiere wiederum mit der Entwicklung neuer P450-Gene reagierten, um sich an die sich diversifizierenden Substrate anzupassen. Weitere Impulse für diesen Vorschlag liefern die kürzlich beschriebenen Beispiele von Pflanzen-Insekten- und Pflanzen-Pilz-Chemical Warfare, die P450-Entgiftung von toxischen Substraten beinhalten (Nebert 1994).
Das Folgende ist eine kurze Einführung in mehrere der Human-Xenobiotika-metabolisierenden P450-Enzym-Polymorphismen, bei denen angenommen wird, dass genetische Determinanten der toxischen Reaktion von hoher Bedeutung sind. Bis vor kurzem wurden P450-Polymorphismen im Allgemeinen durch unerwartete Schwankungen in der Patientenreaktion auf verabreichte therapeutische Mittel nahegelegt. Mehrere P450-Polymorphismen werden tatsächlich nach dem Medikament benannt, mit dem der Polymorphismus zuerst identifiziert wurde. In jüngerer Zeit konzentrierten sich Forschungsbemühungen auf die Identifizierung der genauen P450-Enzyme, die am Stoffwechsel von Chemikalien beteiligt sind, für die eine Varianz beobachtet wird, und auf die genaue Charakterisierung der beteiligten P450-Gene. Wie zuvor beschrieben, kann die messbare Aktivität eines P450-Enzyms gegenüber einer Modellchemikalie als Phänotyp bezeichnet werden. Allele Unterschiede in einem P450-Gen für jedes Individuum werden als P450-Genotyp bezeichnet. Da die Analyse von P450-Genen immer genauer untersucht wird, wird die genaue molekulare Grundlage der zuvor dokumentierten phänotypischen Varianz immer klarer.
Die CYP1A-Unterfamilie
Das CYP1A Unterfamilie umfasst zwei Enzyme in Menschen und allen anderen Säugetieren: diese werden unter der Standard-P1-Nomenklatur als CYP1A1 und CYP2A450 bezeichnet. Diese Enzyme sind von erheblichem Interesse, da sie an der metabolischen Aktivierung vieler Prokarzinogene beteiligt sind und auch durch mehrere toxikologisch bedenkliche Verbindungen, einschließlich Dioxin, induziert werden. Zum Beispiel aktiviert CYP1A1 metabolisch viele Verbindungen, die im Zigarettenrauch gefunden werden. CYP1A2 aktiviert metabolisch viele Arylamine, die mit Harnblasenkrebs in Verbindung gebracht werden und in der chemischen Farbstoffindustrie vorkommen. CYP1A2 aktiviert auch metabolisch 4-(Methylnitrosamino)-1-(3-pyridyl)-1-butanon (NNK), ein aus Tabak gewonnenes Nitrosamin. CYP1A1 und CYP1A2 werden aufgrund der Induktion durch im Rauch vorhandene polyzyklische Kohlenwasserstoffe auch in höheren Konzentrationen in den Lungen von Zigarettenrauchern gefunden. Die Niveaus der CYP1A1- und CYP1A2-Aktivität gelten daher als wichtige Determinanten der individuellen Reaktion auf viele potenziell toxische Chemikalien.
Toxikologisches Interesse an der CYP1A Unterfamilie wurde durch einen Bericht aus dem Jahr 1973 stark intensiviert, der den Grad der CYP1A1-Induzierbarkeit bei Zigarettenrauchern mit der individuellen Anfälligkeit für Lungenkrebs korrelierte (Kellermann, Shaw und Luyten-Kellermann 1973). Die molekularen Grundlagen der CYP1A1- und CYP1A2-Induktion standen im Mittelpunkt zahlreicher Labors. Der Induktionsprozess wird durch ein als Ah-Rezeptor bezeichnetes Protein vermittelt, an das Dioxine und strukturell verwandte Chemikalien binden. Der Name Ah ist abgeleitet von der aryl hKohlenwasserstoffnatur vieler CYP1A-Induktoren. Interessanterweise führen Unterschiede in dem Gen, das den Ah-Rezeptor codiert, zwischen Mäusestämmen zu deutlichen Unterschieden in der chemischen Reaktion und Toxizität. Ein Polymorphismus im Ah-Rezeptorgen scheint auch beim Menschen vorzukommen: Etwa ein Zehntel der Bevölkerung zeigt eine hohe Induktion von CYP1A1 und ist möglicherweise einem größeren Risiko als die anderen neun Zehntel der Bevölkerung für die Entwicklung bestimmter chemisch induzierter Krebsarten ausgesetzt. Die Rolle des Ah-Rezeptors bei der Kontrolle von Enzymen in der CYP1A Subfamilie und ihre Rolle als Determinante der menschlichen Reaktion auf Chemikalienexposition waren Gegenstand mehrerer neuerer Übersichten (Nebert, Petersen und Puga 1991; Nebert, Puga und Vasiliou 1993).
Gibt es andere Polymorphismen, die den Gehalt an CYP1A-Proteinen in einer Zelle kontrollieren könnten? Ein Polymorphismus in der CYP1A1 Gen wurde ebenfalls identifiziert, und dies scheint das Lungenkrebsrisiko bei japanischen Zigarettenrauchern zu beeinflussen, obwohl derselbe Polymorphismus das Risiko bei anderen ethnischen Gruppen nicht zu beeinflussen scheint (Nebert und McKinnon 1994).
CYP2C19
Schwankungen in der Rate, mit der Individuen das Antikonvulsivum (S)-Mephenytoin metabolisieren, sind seit vielen Jahren gut dokumentiert (Guengerich 1989). Zwischen 2 % und 5 % der Kaukasier und bis zu 25 % der Asiaten weisen einen Mangel an dieser Aktivität auf und sind möglicherweise einem höheren Toxizitätsrisiko durch das Medikament ausgesetzt. Es ist seit langem bekannt, dass dieser Enzymdefekt ein Mitglied des Menschen betrifft CYP2C Unterfamilie, aber die genaue molekulare Grundlage dieses Mangels war Gegenstand beträchtlicher Kontroversen. Der Hauptgrund für diese Schwierigkeit waren die sechs oder mehr Gene im Menschen CYP2C Unterfamilie. Kürzlich wurde jedoch gezeigt, dass eine Einzelbasen-Mutation in der CYP2C19 -Gen ist die Hauptursache für diesen Mangel (Goldstein und de Morais 1994). Ein einfacher DNA-Test, basierend auf der Polymerase-Kettenreaktion (PCR), wurde ebenfalls entwickelt, um diese Mutation schnell in menschlichen Populationen zu identifizieren (Goldstein und de Morais 1994).
CYP2D6
Die vielleicht am ausführlichsten charakterisierte Variation in einem P450-Gen ist diejenige, an der die beteiligt ist CYP2D6 Gen. Mehr als ein Dutzend Beispiele für Mutationen, Umlagerungen und Deletionen, die dieses Gen betreffen, wurden beschrieben (Meyer 1994). Dieser Polymorphismus wurde erstmals vor 20 Jahren durch die klinische Variabilität der Reaktion der Patienten auf das Antihypertensivum Debrisoquin nahegelegt. Änderungen in der CYP2D6 Gene, die zu einer veränderten Enzymaktivität führen, werden daher zusammenfassend als die bezeichnet Debrisoquiner Polymorphismus.
Vor dem Aufkommen von DNA-basierten Studien wurden Personen basierend auf Metabolitenkonzentrationen in Urinproben als langsame oder extensive Metabolisierer (PMs, EMs) von Debrisoquin klassifiziert. Es ist jetzt klar, dass Änderungen in der CYP2D6 -Gen kann dazu führen, dass Individuen nicht nur einen schlechten oder ausgedehnten Debrisoquin-Metabolismus, sondern auch einen ultraschnellen Metabolismus aufweisen. Die meisten Änderungen in der CYP2D6 Gen sind mit einem teilweisen oder vollständigen Mangel an Enzymfunktion verbunden; Kürzlich wurden jedoch Personen in zwei Familien beschrieben, die mehrere funktionelle Kopien des besitzen CYP2D6 Gen, was zu einem ultraschnellen Metabolismus von CYP2D6-Substraten führt (Meyer 1994). Diese bemerkenswerte Beobachtung liefert neue Einblicke in das breite Spektrum der CYP2D6-Aktivität, die zuvor in Bevölkerungsstudien beobachtet wurde. Veränderungen der CYP2D6-Funktion sind angesichts der mehr als 30 häufig verschriebenen Medikamente, die von diesem Enzym metabolisiert werden, von besonderer Bedeutung. Die CYP2D6-Funktion eines Individuums ist daher eine Hauptdeterminante sowohl der therapeutischen als auch der toxischen Reaktion auf die verabreichte Therapie. In der Tat wurde kürzlich argumentiert, dass die Berücksichtigung des CYP2D6-Status eines Patienten für die sichere Anwendung von psychiatrischen und kardiovaskulären Arzneimitteln notwendig ist.
Die Rolle des CYP2D6 Polymorphismus als Determinante der individuellen Anfälligkeit für menschliche Krankheiten wie Lungenkrebs und Parkinson-Krankheit war ebenfalls Gegenstand intensiver Studien (Nebert und McKinnon 1994; Meyer 1994). Während Schlussfolgerungen angesichts der unterschiedlichen Art der verwendeten Studienprotokolle schwer zu definieren sind, scheinen die meisten Studien auf einen Zusammenhang zwischen schnellen Metabolisierern von Debrisoquin (EM-Phänotyp) und Lungenkrebs hinzuweisen. Die Gründe für eine solche Assoziation sind derzeit unklar. Es wurde jedoch gezeigt, dass das CYP2D6-Enzym NNK, ein aus Tabak gewonnenes Nitrosamin, metabolisiert.
Mit der Verbesserung DNA-basierter Assays, die eine noch genauere Beurteilung des CYP2D6-Status ermöglichen, wird erwartet, dass die genaue Beziehung von CYP2D6 zum Krankheitsrisiko geklärt wird. Während der schnelle Metabolisierer mit einer Anfälligkeit für Lungenkrebs in Verbindung gebracht werden kann, scheint der langsame Metabolisierer (PM-Phänotyp) mit der Parkinson-Krankheit unbekannter Ursache assoziiert zu sein. Während diese Studien auch schwer zu vergleichen sind, scheint es, dass PM-Personen mit einer verminderten Fähigkeit, CYP2D6-Substrate (z. B. Debrisoquin) zu metabolisieren, ein 2- bis 2.5-fach erhöhtes Risiko haben, an der Parkinson-Krankheit zu erkranken.
CYP2E1
Das CYP2E1 Das Gen kodiert für ein Enzym, das viele Chemikalien verstoffwechselt, darunter Medikamente und viele niedermolekulare Karzinogene. Dieses Enzym ist auch deshalb von Interesse, weil es durch Alkohol stark induzierbar ist und eine Rolle bei Leberschäden spielen kann, die durch Chemikalien wie Chloroform, Vinylchlorid und Tetrachlorkohlenstoff verursacht werden. Das Enzym wird hauptsächlich in der Leber gefunden, und der Enzymspiegel variiert deutlich zwischen Individuen. Genaue Prüfung der CYP2E1 -Gen hat zur Identifizierung mehrerer Polymorphismen geführt (Nebert und McKinnon 1994). Es wurde eine Beziehung zwischen dem Vorhandensein bestimmter struktureller Variationen in der CYP2E1 Gen und offensichtlich verringertes Lungenkrebsrisiko in einigen Studien; Es gibt jedoch deutliche interethnische Unterschiede, die einer Klärung dieser möglichen Beziehung bedürfen.
Die CYP3A-Unterfamilie
Beim Menschen wurden vier Enzyme als Mitglieder der identifiziert CYP3A Unterfamilie aufgrund ihrer Ähnlichkeit in der Aminosäuresequenz. Die CYP3A-Enzyme metabolisieren viele häufig verschriebene Medikamente wie Erythromycin und Cyclosporin. Der krebserregende Lebensmittelkontaminant Aflatoxin B1 ist ebenfalls ein CYP3A-Substrat. Ein Mitglied des Menschen CYP3A Unterfamilie, bezeichnet CYP3A4, ist das wichtigste P450 in der menschlichen Leber und kommt auch im Gastrointestinaltrakt vor. Wie bei vielen anderen P450-Enzymen ist der CYP3A4-Spiegel von Person zu Person sehr unterschiedlich. Ein zweites Enzym mit der Bezeichnung CYP3A5 findet sich nur in etwa 25 % der Lebern; die genetische Grundlage dieses Befundes wurde nicht aufgeklärt. Die Bedeutung der CYP3A4- oder CYP3A5-Variabilität als Faktor für genetische Determinanten der toxischen Reaktion wurde noch nicht nachgewiesen (Nebert und McKinnon 1994).
Nicht-P450-Polymorphismen
Zahlreiche Polymorphismen existieren auch innerhalb anderer Xenobiotika-metabolisierender Enzym-Superfamilien (z. B. Glutathiontransferasen, UDP-Glucuronosyltransferasen, para-Oxonasen, Dehydrogenasen, N-Acetyltransferasen und Flavin-enthaltende Monooxygenasen). Da die endgültige Toxizität jedes durch P450 erzeugten Zwischenprodukts von der Effizienz nachfolgender Phase-II-Entgiftungsreaktionen abhängt, ist die kombinierte Rolle mehrerer Enzympolymorphismen wichtig bei der Bestimmung der Anfälligkeit für chemisch induzierte Krankheiten. Das metabolische Gleichgewicht zwischen Phase-I- und Phase-II-Reaktionen (Abbildung 3) ist daher wahrscheinlich ein Hauptfaktor bei chemisch induzierten menschlichen Krankheiten und genetischen Determinanten der toxischen Reaktion.
Der GSTM1-Genpolymorphismus
Ein gut untersuchtes Beispiel eines Polymorphismus in einem Phase-II-Enzym ist dasjenige, an dem ein Mitglied der Glutathion-S-Transferase-Enzymsuperfamilie mit der Bezeichnung GST mu oder GSTM1 beteiligt ist. Dieses spezielle Enzym ist von erheblichem toxikologischem Interesse, da es anscheinend an der anschließenden Entgiftung toxischer Metaboliten beteiligt ist, die aus Chemikalien im Zigarettenrauch durch das CYP1A1-Enzym produziert werden. Der identifizierte Polymorphismus in diesem Glutathion-Transferase-Gen beinhaltet ein völliges Fehlen eines funktionellen Enzyms bei nicht weniger als der Hälfte aller untersuchten Kaukasier. Dieses Fehlen eines Phase-II-Enzyms scheint mit einer erhöhten Anfälligkeit für Lungenkrebs verbunden zu sein. Durch die Gruppierung von Personen nach beiden Varianten CYP1A1 Gene und die Deletion oder Anwesenheit eines funktionellen GSM1 Gens wurde gezeigt, dass das Risiko, an rauchinduziertem Lungenkrebs zu erkranken, signifikant variiert (Kawajiri, Watanabe und Hayashi 1994). Insbesondere Personen, die eine Seltenheit zeigen CYP1A1 Genveränderung, in Kombination mit einem Fehlen der GSM1 Gen, hatten ein höheres Risiko (bis zu neunfach) an Lungenkrebs zu erkranken, wenn sie einer relativ geringen Menge an Zigarettenrauch ausgesetzt waren. Interessanterweise scheint es interethnische Unterschiede in der Bedeutung von Genvarianten zu geben, die weitere Untersuchungen erfordern, um die genaue Rolle solcher Veränderungen bei der Krankheitsanfälligkeit aufzuklären (Kalow 1962; Nebert und McKinnon 1994; Kawajiri, Watanabe und Hayashi 1994).
Synergistischer Effekt von zwei oder mehr Polymorphismen auf die Toxizität Antwort
Eine toxische Reaktion auf ein Umweltmittel kann durch die Kombination zweier pharmakogenetischer Defekte bei demselben Individuum stark übertrieben werden, beispielsweise die kombinierten Wirkungen des N-Acetyltransferase (NAT2)-Polymorphismus und des Glucose-6-Phosphat-Dehydrogenase (G6PD)-Polymorphismus .
Die berufliche Exposition gegenüber Arylaminen stellt ein ernstes Risiko für Harnblasenkrebs dar. Seit den eleganten Studien von Cartwright im Jahr 1954 ist klar geworden, dass der N-Acetylator-Status eine Determinante von Azofarbstoff-induziertem Blasenkrebs ist. Es besteht eine hochsignifikante Korrelation zwischen dem Slow-Acetylator-Phänotyp und dem Auftreten von Blasenkrebs sowie dem Grad der Invasivität dieses Krebses in der Blasenwand. Im Gegenteil, es besteht eine signifikante Assoziation zwischen dem Phänotyp des schnellen Acetylierers und dem Auftreten von kolorektalen Karzinomen. Die N-Acetyltransferase (NAT1, NAT2)-Gene wurden geklont und sequenziert, und DNA-basierte Assays sind nun in der Lage, mehr als ein Dutzend allelische Varianten nachzuweisen, die für den Phänotyp des langsamen Acetylierers verantwortlich sind. Das NAT2 Das Gen ist polymorph und für den größten Teil der Variabilität der toxischen Reaktion auf Umweltchemikalien verantwortlich (Weber 1987; Grant 1993).
Glucose-6-Phosphat-Dehydrogenase (G6PD) ist ein Enzym, das für die Bildung und Aufrechterhaltung von NADPH entscheidend ist. Niedrige oder fehlende G6PD-Aktivität kann aufgrund des Fehlens normaler Spiegel von reduziertem Glutathion (GSH) in den roten Blutkörperchen zu schwerer arzneimittel- oder xenobiotikainduzierter Hämolyse führen. G6PD-Mangel betrifft weltweit mindestens 300 Millionen Menschen. Mehr als 10 % der afroamerikanischen Männer weisen den weniger schweren Phänotyp auf, während bestimmte sardische Gemeinschaften den schwereren „mediterranen Typ“ mit einer Häufigkeit von bis zu einer von drei Personen aufweisen. Das G6PD Das Gen wurde geklont und auf dem X-Chromosom lokalisiert, und zahlreiche verschiedene Punktmutationen sind für den großen Grad an phänotypischer Heterogenität verantwortlich, die bei G6PD-defizienten Individuen beobachtet wird (Beutler 1992).
Es wurde festgestellt, dass Thiozalsulfon, ein Arylamin-Sulfat-Medikament, eine bimodale Verteilung der hämolytischen Anämie in der behandelten Population verursacht. Bei der Behandlung mit bestimmten Arzneimitteln sind Personen mit der Kombination aus G6PD-Mangel und dem langsamen Acetylierer-Phänotyp stärker betroffen als Personen mit dem G6PD-Mangel allein oder dem langsamen Acetylierer-Phänotyp allein. G6PD-defiziente langsame Acetylierer sind mindestens 40-mal anfälliger für Thiozalsulfon-induzierte Hämolyse als normale G6PD-schnelle Acetylierer.
Wirkung genetischer Polymorphismen auf die Expositionsabschätzung
Die Expositionsabschätzung und das Biomonitoring (Abbildung 1) erfordern auch Informationen über die genetische Ausstattung jedes Individuums. Bei identischer Exposition gegenüber einer gefährlichen Chemikalie kann der Gehalt an Hämoglobin-Addukten (oder anderen Biomarkern) zwischen Personen um zwei oder drei Größenordnungen variieren, abhängig vom metabolischen Fingerabdruck jeder Person.
Dieselbe kombinierte Pharmakogenetik wurde bei Arbeitern in Chemiefabriken in Deutschland untersucht (Tabelle 1). Hämoglobin-Addukte bei Arbeitern, die Anilin und Acetanilid ausgesetzt waren, sind bei langsamen Acetylierern mit G6PD-Mangel im Vergleich zu den anderen möglichen kombinierten pharmakogenetischen Phänotypen bei weitem am höchsten. Diese Studie hat wichtige Implikationen für die Expositionsbewertung. Diese Daten zeigen, dass, obwohl zwei Personen am Arbeitsplatz möglicherweise der gleichen Umgebungskonzentration gefährlicher Chemikalien ausgesetzt sind, die Höhe der Exposition (über Biomarker wie Hämoglobinaddukte) auf zwei oder mehr Größenordnungen geringer geschätzt werden kann auf die zugrunde liegende genetische Veranlagung des Individuums. Ebenso kann das resultierende Risiko einer gesundheitlichen Beeinträchtigung um zwei oder mehr Größenordnungen variieren.
Tabelle 1: Hämoglobinaddukte bei Arbeitern, die gegenüber Anilin und Acetanilid exponiert waren
Acetylator-Status | G6PD-Mangel | |||
Schnell | Bremst | Nein | Ja | Hgb-Addukte |
+ | + | 2 | ||
+ | + | 30 | ||
+ | + | 20 | ||
+ | + | 100 |
Quelle: Adaptiert von Lewalter und Korallus 1985.
Genetische Unterschiede in der Bindung sowie im Stoffwechsel
Es sollte betont werden, dass die gleichen Argumente, die hier für den Metabolismus gemacht wurden, auch für die Bindung gemacht werden können. Vererbbare Unterschiede in der Bindung von Umweltmitteln werden die toxische Reaktion stark beeinflussen. Zum Beispiel Unterschiede in der Maus cdm -Gen kann die individuelle Empfindlichkeit gegenüber Cadmium-induzierter Hodennekrose tiefgreifend beeinflussen (Taylor, Heiniger und Meier 1973). Unterschiede in der Bindungsaffinität des Ah-Rezeptors wirken sich wahrscheinlich auf dioxininduzierte Toxizität und Krebs aus (Nebert, Petersen und Puga 1991; Nebert, Puga und Vasiliou 1993).
Abbildung 5 fasst die Rolle des Metabolismus und der Bindung bei Toxizität und Krebs zusammen. Toxische Stoffe, wie sie in der Umwelt oder nach Metabolisierung oder Bindung vorkommen, lösen ihre Wirkungen entweder über einen genotoxischen Weg (bei dem Schäden an der DNA auftreten) oder einen nicht-genotoxischen Weg (bei dem DNA-Schäden und Mutagenese nicht auftreten müssen) aus. Interessanterweise wurde kürzlich klar, dass „klassische“ DNA-schädigende Mittel über einen von reduziertem Glutathion (GSH) abhängigen nichtgenotoxischen Signaltransduktionsweg wirken können, der in Abwesenheit von DNA und außerhalb des Zellkerns auf oder nahe der Zelloberfläche initiiert wird (Devary et al. 1993). Genetische Unterschiede im Metabolismus und in der Bindung bleiben jedoch die Hauptdeterminanten bei der Kontrolle unterschiedlicher individueller toxischer Reaktionen.
Abbildung 5. Die allgemeinen Mittel, durch die Toxizität auftritt
Rolle von Arzneimittel-metabolisierenden Enzymen in der Zellfunktion
Genetisch basierte Variationen in der Funktion von Arzneimittel metabolisierenden Enzymen sind von großer Bedeutung bei der Bestimmung der individuellen Reaktion auf Chemikalien. Diese Enzyme sind entscheidend für die Bestimmung des Schicksals und des Zeitverlaufs einer fremden Chemikalie nach der Exposition.
Wie in Abbildung 5 dargestellt, kann die Bedeutung von Arzneimittel metabolisierenden Enzymen für die individuelle Anfälligkeit gegenüber Chemikalienexposition tatsächlich ein weitaus komplexeres Problem darstellen, als aus dieser einfachen Diskussion des Xenobiotika-Stoffwechsels hervorgeht. Mit anderen Worten, während der letzten zwei Jahrzehnte wurden genotoxische Mechanismen (Messungen von DNA-Addukten und Proteinaddukten) stark betont. Was aber, wenn nicht-genotoxische Mechanismen bei der Auslösung toxischer Reaktionen mindestens genauso wichtig sind wie genotoxische Mechanismen?
Wie bereits erwähnt, sind die physiologischen Rollen vieler Arzneimittel metabolisierender Enzyme, die am Xenobiotika-Metabolismus beteiligt sind, nicht genau definiert worden. Nebert (1994) hat vorgeschlagen, dass aufgrund ihrer Anwesenheit auf diesem Planeten für mehr als 3.5 Milliarden Jahre Arzneimittel-metabolisierende Enzyme ursprünglich (und sind es heute immer noch hauptsächlich) für die Regulierung der zellulären Spiegel vieler Nicht-Peptid-Liganden verantwortlich waren, die für die Transkriptionsaktivierung wichtig sind von Genen, die Wachstum, Differenzierung, Apoptose, Homöostase und neuroendokrine Funktionen beeinflussen. Darüber hinaus tritt die Toxizität der meisten, wenn nicht aller Umweltstoffe auf Agonisten or Antagonist Wirkung auf diese Signaltransduktionswege (Nebert 1994). Auf der Grundlage dieser Hypothese kann die genetische Variabilität in Arzneimittel metabolisierenden Enzymen ziemlich dramatische Auswirkungen auf viele kritische biochemische Prozesse innerhalb der Zelle haben, was zu wichtigen Unterschieden in der toxischen Reaktion führt. Es ist in der Tat möglich, dass ein solches Szenario auch vielen idiosynkratischen Nebenwirkungen zugrunde liegt, die bei Patienten auftreten, die häufig verschriebene Medikamente einnehmen.
Schlussfolgerungen
Das letzte Jahrzehnt hat bemerkenswerte Fortschritte in unserem Verständnis der genetischen Grundlage unterschiedlicher Reaktionen auf Chemikalien in Arzneimitteln, Nahrungsmitteln und Umweltschadstoffen gebracht. Arzneimittel metabolisierende Enzyme haben einen tiefgreifenden Einfluss darauf, wie Menschen auf Chemikalien reagieren. Da sich unser Bewusstsein für die Vielzahl von Enzymen, die Arzneimittel metabolisieren, weiter entwickelt, sind wir zunehmend in der Lage, das toxische Risiko für viele Arzneimittel und Umweltchemikalien besser einzuschätzen. Dies wird vielleicht am deutlichsten im Fall des CYP2D6-Cytochrom-P450-Enzyms veranschaulicht. Unter Verwendung relativ einfacher DNA-basierter Tests ist es möglich, die wahrscheinliche Reaktion eines Medikaments vorherzusagen, das hauptsächlich durch dieses Enzym metabolisiert wird; Diese Vorhersage wird die sicherere Verwendung wertvoller, aber potenziell toxischer Medikamente gewährleisten.
Die Identifizierung weiterer Polymorphismen (Phänotypen) von arzneimittelmetabolisierenden Enzymen wird in Zukunft zweifelsohne explodieren. Diese Informationen werden von verbesserten, minimalinvasiven DNA-basierten Tests zur Identifizierung von Genotypen in menschlichen Populationen begleitet.
Solche Studien sollten bei der Bewertung der Rolle von Chemikalien bei den vielen Umweltkrankheiten gegenwärtig unbekannter Herkunft besonders aufschlussreich sein. Die Berücksichtigung mehrerer arzneimittelmetabolisierender Enzympolymorphismen in Kombination (z. B. Tabelle 1) dürfte ebenfalls ein besonders fruchtbares Forschungsgebiet darstellen. Solche Studien werden die Rolle von Chemikalien bei der Verursachung von Krebs klären. Insgesamt sollten diese Informationen die Formulierung zunehmend individueller Ratschläge zur Vermeidung von Chemikalien ermöglichen, die wahrscheinlich von individueller Bedeutung sind. Dies ist das Gebiet der präventiven Toxikologie. Eine solche Beratung wird zweifellos allen Menschen bei der Bewältigung der ständig zunehmenden chemischen Belastung, der wir ausgesetzt sind, sehr helfen.
HAFTUNGSAUSSCHLUSS: Die ILO übernimmt keine Verantwortung für auf diesem Webportal präsentierte Inhalte, die in einer anderen Sprache als Englisch präsentiert werden, der Sprache, die für die Erstproduktion und Peer-Review von Originalinhalten verwendet wird. Bestimmte Statistiken wurden seitdem nicht aktualisiert die Produktion der 4. Auflage der Encyclopaedia (1998)."