27. Monitoramento Biológico
Editor do Capítulo: Robert Lauwerys
Conteúdo
Princípios gerais
Vito Foà e Lorenzo Alessio
Garantia da Qualidade
D. Gompertz
Metais e Compostos Organometálicos
P. Hoet e Robert Lauwerys
Solventes orgânicos
Masayuki Ikeda
Químicos Genotóxicos
marja sorsa
Pesticidas
Marco Maroni e Adalberto Ferioli
Clique em um link abaixo para ver a tabela no contexto do artigo.
1. ACGIH, DFG e outros valores limite para metais
2. Exemplos de produtos químicos e monitoramento biológico
3. Monitoramento biológico para solventes orgânicos
4. Genotoxicidade de produtos químicos avaliados pela IARC
5. Biomarcadores e algumas amostras de células/tecidos e genotoxicidade
6. Carcinógenos humanos, exposição ocupacional e pontos finais citogenéticos
8. Exposição da produção e uso de pesticidas
9. Toxicidade aguda de OP em diferentes níveis de inibição de ACHE
10. Variações de DOR e PCHE e condições de saúde selecionadas
11. Atividades da colinesterase de pessoas saudáveis não expostas
12. Fosfatos de alquil urinários e pesticidas OP
13. Medições de alquil fosfatos urinários e OP
14. Metabólitos de carbamato urinário
15. Metabólitos de ditiocarbamato urinário
16. Índices propostos para monitoramento biológico de agrotóxicos
17. Valores-limite biológicos recomendados (a partir de 1996)
Aponte para uma miniatura para ver a legenda da figura, clique para ver a figura no contexto do artigo.
28. Epidemiologia e Estatística
Editores de Capítulo: Franco Merletti, Colin L. Soskolne e Paolo Vineis
Método Epidemiológico Aplicado à Saúde e Segurança Ocupacional
Franco Merletti, Colin L. Soskolne e Paolo Vineis
Avaliação de exposição
M. Gerald Ott
Medidas resumidas de exposição na vida profissional
Colin L. Soskolne
Medindo os efeitos das exposições
Shelia Hoar Zahm
Estudo de Caso: Medidas
Franco Merletti, Colin L. Soskolne e Paola Vineis
Opções no Projeto de Estudo
Sven Hernberg
Questões de validade no desenho do estudo
Annie J. Sasco
Impacto do erro de medição aleatória
Paolo Vineis e Colin L. Soskolne
Métodos estatísticos
Annibale Biggeri e Mário Braga
Avaliação de causalidade e ética na pesquisa epidemiológica
Paulo Vineis
Estudos de Caso Ilustrando Questões Metodológicas na Vigilância de Doenças Profissionais
Jung-Der Wang
Questionários em Pesquisa Epidemiológica
Steven D. Stellman e Colin L. Soskolne
Perspectiva Histórica do Amianto
Lawrence Garfinkel
Clique em um link abaixo para ver a tabela no contexto do artigo.
1. Cinco medidas resumidas selecionadas de exposição na vida profissional
2. Medidas de ocorrência da doença
3. Medidas de associação para um estudo de coorte
4. Medidas de associação para estudos de caso-controle
5. Layout geral da tabela de frequência para dados de coorte
6. Exemplo de layout de dados de controle de caso
7. Dados de controle de caso de layout - um controle por caso
8. Coorte hipotética de 1950 indivíduos para T2
9. Índices de tendência central e dispersão
10. Um experimento binomial e probabilidades
11. Possíveis resultados de um experimento binomial
12. Distribuição binomial, 15 sucessos/30 tentativas
13. Distribuição binomial, p = 0.25; 30 tentativas
14. Erro e potência tipo II; x = 12, n = 30, a = 0.05
15. Erro e potência tipo II; x = 12, n = 40, a = 0.05
16. 632 trabalhadores expostos ao amianto por 20 anos ou mais
17. O/E número de mortes entre 632 trabalhadores do amianto
Aponte para uma miniatura para ver a legenda da figura, clique para ver a figura no contexto do artigo.
29. Ergonomia
Editores de Capítulo: Wolfgang Laurig e Joachim Vedder
Conteúdo
Visão geral
Wolfgang Laurig e Joachim Vedder
A natureza e os objetivos da ergonomia
William T.Singleton
Análise de Atividades, Tarefas e Sistemas de Trabalho
Véronique De Keyser
Ergonomia e Padronização
Friedhelm Nachreiner
Lista de verificação
Pranab Kumar Nag
Antropometria
Melchiorre Masali
trabalho muscular
Juhani Smolander e Veikko Louhevaara
Posturas no Trabalho
Ilkka Kuorinka
Biomecânica
Frank darby
Fadiga Geral
Étienne Grandjean
Fadiga e Recuperação
Rolf Helbig e Walter Rohmert
carga de trabalho mental
Hacker Winfried
vigilância
Herbert Heuer
Fadiga mental
Pedro Richter
Organização do Trabalho
Eberhard Ulich e Gudela Grote
Privação de sono
Kazutaka Kogi
workstations
Roland Kadefors
Ferramentas
TM Fraser
Controles, Indicadores e Painéis
Karl HE Kroemer
Processamento e Design de Informação
Andries F. Sanders
Projetando para grupos específicos
Piada H. Grady-van den Nieuwboer
Estudo de Caso: A Classificação Internacional de Limitação Funcional em Pessoas
Diferenças culturais
Houshang Shahnavaz
Trabalhadores Idosos
Antoine Laville e Serge Volkoff
Trabalhadores com Necessidades Especiais
Piada H. Grady-van den Nieuwboer
Projeto de sistema na fabricação de diamantes
Issacar Gilad
Desconsiderando os princípios de design ergonômico: Chernobyl
Vladimir M. Munipov
Clique em um link abaixo para ver a tabela no contexto do artigo.
1. Lista central antropométrica básica
2. Fadiga e recuperação dependentes dos níveis de atividade
3. Regras de efeitos de combinação de dois fatores de tensão na deformação
4. Diferenciando entre várias consequências negativas da tensão mental
5. Princípios orientados ao trabalho para a estruturação da produção
6. Participação no contexto organizacional
7. Participação do usuário no processo de tecnologia
8. Jornada de trabalho irregular e privação de sono
9. Aspectos do sono de avanço, âncora e retardo
10. Movimentos de controle e efeitos esperados
11. Relações controle-efeito de controles manuais comuns
12. Regras para arranjo de controles
Aponte para uma miniatura para ver a legenda da figura, clique para ver a figura no contexto do artigo.
30. Higiene Ocupacional
Editor de Capítulo: Robert F. Herrick
Conteúdo
Objetivos, Definições e Informações Gerais
Berenice I. Ferrari Goelzer
Reconhecimento de perigos
Linnea Lillienberg
Avaliação do Ambiente de Trabalho
Lori A. Todd
Higiene Ocupacional: Controle de Exposições por Intervenção
James Stewart
A base biológica para avaliação de exposição
Dick Heederik
limites de exposição ocupacional
Dennis J. Paustenbach
1. Perigos de produtos químicos; agentes biológicos e físicos
2. Limites de exposição ocupacional (OELs) - vários países
31. Proteção Pessoal
Editor de Capítulo: Robert F. Herrick
Conteúdo
Visão geral e filosofia de proteção pessoal
Robert F. Herrick
Protetores oculares e faciais
Kikuzi Kimura
Proteção para Pés e Pernas
Toyohiko Miura
Proteção de cabeça
Isabelle Balty e Alain Mayer
Proteção auditiva
John R. Franks e Elliott H. Berger
Roupa de proteção
S. Zack Mansdorf
Proteção respiratória
Thomas J Nelson
Clique em um link abaixo para visualizar a tabela no contexto do artigo.
1. Requisitos de transmissão (ISO 4850-1979)
2. Escalas de proteção - soldagem a gás e soldagem por brasagem
3. Escalas de proteção - corte de oxigênio
4. Escalas de proteção - corte a arco de plasma
5. Escalas de proteção - soldagem a arco elétrico ou goivagem
6. Escalas de proteção - soldagem a arco plasma direta
7. Capacete de segurança: Norma ISO 3873-1977
8. Classificação de redução de ruído de um protetor auditivo
9. Calculando a redução de ruído ponderada A
10. Exemplos de categorias de perigo dérmico
11. Requisitos de desempenho físico, químico e biológico
12. Perigos materiais associados a atividades específicas
13. Fatores de proteção atribuídos de ANSI Z88 2 (1992)
Aponte para uma miniatura para ver a legenda da figura, clique para ver a figura no contexto do artigo.
32. Sistemas de Registro e Vigilância
Editor de Capítulo: Steven D. Stellman
Conteúdo
Sistemas de Vigilância e Notificação de Doenças Ocupacionais
Steven B. Markowitz
Vigilância de Riscos Ocupacionais
David H. Wegman e Steven D. Stellman
Vigilância em países em desenvolvimento
David Koh e Kee-Seng Chia
Desenvolvimento e Aplicação de um Sistema de Classificação de Lesões e Doenças Ocupacionais
Elyce Biddle
Análise de risco de lesões e doenças não fatais no local de trabalho
John W. Ruser
Estudo de Caso: Proteção ao Trabalhador e Estatísticas de Acidentes e Doenças Profissionais - HVBG, Alemanha
Martin Butz e Burkhard Hoffmann
Estudo de caso: Wismut - uma exposição de urânio revisitada
Heinz Otten e Horst Schulz
Estratégias e Técnicas de Medição para Avaliação da Exposição Ocupacional em Epidemiologia
Frank Bochmann e Helmut Blome
Estudo de caso: pesquisas de saúde ocupacional na China
Clique em um link abaixo para visualizar a tabela no contexto do artigo.
1. Angiossarcoma do fígado - registro mundial
2. Doença ocupacional, EUA, 1986 versus 1992
3. Mortes nos EUA por pneumoconiose e mesotelioma pleural
4. Exemplo de lista de doenças ocupacionais de notificação obrigatória
5. Estrutura do código de relatórios de doenças e lesões, EUA
6. Lesões e doenças ocupacionais não fatais, EUA 1993
7. Risco de lesões e doenças ocupacionais
8. Risco relativo para condições de movimento repetitivo
9. Acidentes de trabalho, Alemanha, 1981-93
10. Retificadores em acidentes de trabalho em metal, Alemanha, 1984-93
11. Doença ocupacional, Alemanha, 1980-93
12. Doenças infecciosas, Alemanha, 1980-93
13. Exposição à radiação nas minas de Wismut
14. Doenças ocupacionais nas minas de urânio de Wismut 1952-90
Aponte para uma miniatura para ver a legenda da figura, clique para ver a figura no contexto do artigo.
33. Toxicologia
Editora do Capítulo: Ellen K. Silbergeld
Introdução
Ellen K. Silbergeld, Editora do Capítulo
Definições e Conceitos
Bo Holmberg, Johan Hogberg e Gunnar Johanson
Toxicocinética
Dušan Djuríc
Órgão alvo e efeitos críticos
Marek Jakubowski
Efeitos da idade, sexo e outros fatores
Spomenka Telišman
Determinantes Genéticos da Resposta Tóxica
Daniel W. Nebert e Ross A. McKinnon
Introdução e Conceitos
Philip G. Watanabe
Lesão celular e morte celular
Benjamin F. Trump e Irene K. Berezsky
Toxicologia Genética
R. Rita Misra e Michael P. Waalkes
Imunotoxicologia
Joseph G. Vos e Henk van Loveren
Toxicologia de órgãos-alvo
Ellen K. Silbergeld
Biomarcadores
Philippe Grandjean
Avaliação de Toxicidade Genética
David M. DeMarini e James Huff
Teste de Toxicidade In Vitro
Joanne Zurlo
Relacionamentos de atividade de estrutura
Ellen K. Silbergeld
Regulação de Toxicologia em Saúde e Segurança
Ellen K. Silbergeld
Princípios de Identificação de Perigos - A Abordagem Japonesa
Masayuki Ikeda
A Abordagem dos Estados Unidos para Avaliação de Risco de Tóxicos Reprodutivos e Agentes Neurotóxicos
Ellen K. Silbergeld
Abordagens para identificação de perigos - IARC
Harri Vainio e Julian Wilbourn
Apêndice - Avaliações gerais de carcinogenicidade para humanos: IARC Monographs Volumes 1-69 (836)
Avaliação de risco cancerígeno: outras abordagens
Cees A. van der Heijden
Clique em um link abaixo para ver a tabela no contexto do artigo.
Aponte para uma miniatura para ver a legenda da figura, clique para ver a figura no contexto do artigo.
Este artigo é uma adaptação da 3ª edição da Enciclopédia de Saúde e Segurança Ocupacional.
Os dois conceitos de fadiga e descanso são familiares a todos por experiência pessoal. A palavra “fadiga” é usada para denotar condições muito diferentes, que causam uma redução na capacidade de trabalho e resistência. O uso muito variado do conceito de fadiga resultou em uma confusão quase caótica e alguns esclarecimentos das idéias atuais são necessários. Por muito tempo, a fisiologia distinguiu entre fadiga muscular e fadiga geral. A primeira é um fenômeno doloroso agudo localizado nos músculos: a fadiga geral é caracterizada por uma sensação de diminuição da vontade de trabalhar. Este artigo trata apenas da fadiga geral, que também pode ser chamada de “fadiga psíquica” ou “fadiga nervosa” e o resto que ela necessita.
A fadiga geral pode dever-se a causas bastante diversas, das quais as mais importantes são apresentadas na figura 1. O efeito é como se, ao longo do dia, todas as várias tensões vividas se acumulassem no organismo, produzindo gradualmente uma sensação de aumento fadiga. Esse sentimento leva à decisão de interromper o trabalho; seu efeito é o de um prelúdio fisiológico para o sono.
Figura 1. Apresentação esquemática do efeito cumulativo das causas cotidianas da fadiga
A fadiga é uma sensação salutar quando se pode deitar e descansar. Porém, se a pessoa desconsidera essa sensação e se obriga a continuar trabalhando, a sensação de cansaço aumenta até se tornar angustiante e finalmente avassaladora. Esta experiência quotidiana demonstra claramente o significado biológico do cansaço que desempenha um papel na manutenção da vida, semelhante ao desempenhado por outras sensações como, por exemplo, a sede, a fome, o medo, etc.
O descanso é representado na figura 1 como o esvaziamento de um barril. O fenômeno do repouso pode ocorrer normalmente se o organismo permanecer imperturbável ou se pelo menos uma parte essencial do corpo não for submetida a estresse. Isso explica o papel decisivo desempenhado nos dias de trabalho por todas as pausas de trabalho, desde a pequena pausa durante o trabalho até o sono noturno. O símile do barril ilustra como é necessário para a vida normal atingir um certo equilíbrio entre a carga total suportada pelo organismo e a soma das possibilidades de repouso.
Interpretação neurofisiológica da fadiga
O progresso da neurofisiologia nas últimas décadas contribuiu muito para uma melhor compreensão dos fenômenos desencadeados pela fadiga no sistema nervoso central.
O fisiologista Hess foi o primeiro a observar que a estimulação elétrica de algumas estruturas diencefálicas, e mais especialmente de algumas estruturas do núcleo medial do tálamo, produzia gradualmente um efeito inibidor que se manifestava na deterioração da capacidade de reação. e com tendência a dormir. Se a estimulação continuasse por um certo tempo, o relaxamento geral era seguido por sonolência e, finalmente, pelo sono. Mais tarde foi provado que a partir dessas estruturas, uma inibição ativa pode se estender até o córtex cerebral onde se concentram todos os fenômenos conscientes. Isso se reflete não apenas no comportamento, mas também na atividade elétrica do córtex cerebral. Outros experimentos também conseguiram iniciar inibições de outras regiões subcorticais.
A conclusão que se pode tirar de todos esses estudos é que existem estruturas localizadas no diencéfalo e no mesencéfalo que representam um sistema inibidor eficaz e que desencadeiam a fadiga com todos os fenômenos que a acompanham.
Inibição e ativação
Numerosos experimentos realizados em animais e humanos mostraram que a disposição geral de ambos para a reação depende não apenas desse sistema de inibição, mas essencialmente também de um sistema que funciona de maneira antagônica, conhecido como sistema de ativação reticular ascendente. Sabemos por experimentos que a formação reticular contém estruturas que controlam o grau de vigília e, consequentemente, as disposições gerais para uma reação. Existem ligações nervosas entre essas estruturas e o córtex cerebral onde as influências ativadoras são exercidas sobre a consciência. Além disso, o sistema ativador recebe estimulação dos órgãos sensoriais. Outras conexões nervosas transmitem impulsos do córtex cerebral – a área de percepção e pensamento – para o sistema de ativação. Com base nesses conceitos neurofisiológicos, pode-se estabelecer que os estímulos externos, assim como as influências originárias das áreas da consciência, podem, ao passar pelo sistema ativador, estimular uma disposição para uma reação.
Além disso, muitas outras investigações permitem concluir que a estimulação do sistema ativador freqüentemente se espalha também dos centros vegetativos e faz com que o organismo se oriente para o gasto de energia, para o trabalho, luta, fuga, etc. (conversão ergotrópica de os órgãos internos). Inversamente, parece que a estimulação do sistema inibidor na esfera do sistema nervoso vegetativo faz com que o organismo tenda ao repouso, reconstituição de suas reservas de energia, fenômenos de assimilação (conversão trofotrópica).
Pela síntese de todos esses achados neurofisiológicos, pode-se estabelecer a seguinte concepção de fadiga: o estado e a sensação de fadiga são condicionados pela reação funcional da consciência no córtex cerebral, que é, por sua vez, regido por dois sistemas mutuamente antagônicos— o sistema inibidor e o sistema ativador. Assim, a disposição do ser humano para o trabalho depende a cada momento do grau de ativação dos dois sistemas: se o sistema inibidor for dominante, o organismo estará em estado de fadiga; quando o sistema ativador é dominante, ele exibirá uma maior disposição para o trabalho.
Esta concepção psicofisiológica da fadiga permite compreender alguns dos seus sintomas, por vezes difíceis de explicar. Assim, por exemplo, uma sensação de fadiga pode desaparecer repentinamente quando ocorre algum evento externo inesperado ou quando surge uma tensão emocional. É claro em ambos os casos que o sistema ativador foi estimulado. Inversamente, se o ambiente for monótono ou o trabalho parecer enfadonho, o funcionamento do sistema ativador é diminuído e o sistema inibidor torna-se dominante. Isso explica porque a fadiga aparece em uma situação monótona sem que o organismo seja submetido a nenhuma carga de trabalho.
A Figura 2 representa esquematicamente a noção dos sistemas mutuamente antagônicos de inibição e ativação.
Figura 2. Apresentação esquemática do controle de disposição para o trabalho por meio de sistemas inibidores e ativadores
Fadiga clínica
É uma questão de experiência comum que a fadiga pronunciada que ocorre dia após dia produzirá gradualmente um estado de fadiga crônica. A sensação de cansaço é então intensificada e surge não só à noite, depois do trabalho, mas também durante o dia, às vezes até antes do início do trabalho. Um sentimento de mal-estar, frequentemente de natureza emotiva, acompanha este estado. Os seguintes sintomas são frequentemente observados em pessoas que sofrem de fadiga: emotividade psíquica aumentada (comportamento anti-social, incompatibilidade), tendência à depressão (ansiedade desmotivada) e falta de energia com perda de iniciativa. Estes efeitos psíquicos são frequentemente acompanhados por um mal-estar inespecífico e manifestam-se por sintomas psicossomáticos: dores de cabeça, vertigens, distúrbios funcionais cardíacos e respiratórios, perda de apetite, distúrbios digestivos, insónias, etc.
Tendo em vista a tendência a sintomas mórbidos que acompanham a fadiga crônica, pode-se chamá-la com justiça de fadiga clínica. Existe uma tendência para o aumento do absentismo e, em particular, para mais ausências por períodos curtos. Isso parece ser causado tanto pela necessidade de repouso quanto pelo aumento da morbidade. O estado de fadiga crônica ocorre particularmente entre pessoas expostas a conflitos ou dificuldades psíquicas. Às vezes é muito difícil distinguir as causas externas e internas. De fato, é quase impossível distinguir causa e efeito na fadiga clínica: uma atitude negativa em relação ao trabalho, aos superiores ou ao local de trabalho pode tanto ser a causa da fadiga clínica quanto o resultado.
A pesquisa mostrou que os operadores de central e o pessoal de supervisão empregados em serviços de telecomunicações exibiram um aumento significativo nos sintomas fisiológicos de fadiga após o trabalho (tempo de reação visual, frequência de fusão de cintilação, testes de destreza). As investigações médicas revelaram que nestes dois grupos de trabalhadoras houve um aumento significativo de quadros neuróticos, irritabilidade, dificuldade para dormir e sensação crônica de lassidão, em comparação com um grupo semelhante de mulheres empregadas nos ramos técnicos dos correios, telefone e serviços telegráficos. O acúmulo de sintomas nem sempre se deveu a uma atitude negativa por parte das mulheres que afetava seu trabalho ou suas condições de trabalho.
Medidas preventivas
Não há cura para a fadiga, mas muito pode ser feito para aliviar o problema, prestando atenção às condições gerais de trabalho e ao ambiente físico do local de trabalho. Por exemplo, muito pode ser alcançado com a organização correta das horas de trabalho, provisão de períodos de descanso adequados e cantinas e banheiros adequados; férias pagas adequadas também devem ser dadas aos trabalhadores. O estudo ergonômico do posto de trabalho também pode auxiliar na redução do cansaço ao garantir que assentos, mesas e bancadas tenham dimensões adequadas e que o fluxo de trabalho seja organizado corretamente. Além disso, controle de ruído, ar condicionado, aquecimento, ventilação e iluminação podem ter um efeito benéfico em retardar o início da fadiga nos trabalhadores.
A monotonia e a tensão também podem ser aliviadas pelo uso controlado de cores e decoração nos ambientes, intervalos de música e, às vezes, pausas para exercícios físicos para trabalhadores sedentários. A formação dos trabalhadores e, em particular, do pessoal de supervisão e de gestão também desempenha um papel importante.
O estudo e caracterização de produtos químicos e outros agentes para propriedades tóxicas é frequentemente realizado com base em órgãos e sistemas de órgãos específicos. Neste capítulo, dois alvos foram selecionados para uma discussão aprofundada: o sistema imunológico e o gene. Esses exemplos foram escolhidos para representar um sistema de órgão alvo complexo e um alvo molecular dentro das células. Para uma discussão mais abrangente da toxicologia dos órgãos-alvo, o leitor deve consultar os textos de toxicologia padrão, como Casarett e Doull e Hayes. O Programa Internacional de Segurança Química (IPCS) também publicou vários documentos de critérios sobre toxicologia de órgãos-alvo, por sistema de órgãos.
Os estudos de toxicologia de órgãos-alvo são geralmente realizados com base em informações que indicam o potencial de efeitos tóxicos específicos de uma substância, seja de dados epidemiológicos ou de estudos gerais de toxicidade aguda ou crônica, ou com base em preocupações especiais para proteger certas funções de órgãos, como como reprodução ou desenvolvimento fetal. Em alguns casos, testes específicos de toxicidade de órgãos-alvo são expressamente exigidos por autoridades estatutárias, como testes de neurotoxicidade sob a lei de pesticidas dos EUA (consulte “A abordagem dos Estados Unidos para avaliação de risco de tóxicos reprodutivos e agentes neurotóxicos” e testes de mutagenicidade sob a Norma Japonesa de Produtos Químicos). Lei de Controle de Substâncias (consulte “Princípios de identificação de perigos: A abordagem japonesa”).
Conforme discutido em “órgão-alvo e efeitos críticos”, a identificação de um órgão crítico é baseada na detecção do órgão ou sistema de órgãos que primeiro responde adversamente ou às doses ou exposições mais baixas. Esta informação é então usada para projetar investigações toxicológicas específicas ou testes de toxicidade mais definidos que são projetados para obter indicações mais sensíveis de intoxicação no órgão-alvo. Estudos de toxicologia de órgãos-alvo também podem ser usados para determinar mecanismos de ação, de uso na avaliação de risco (consulte “A abordagem dos Estados Unidos para avaliação de risco de tóxicos reprodutivos e agentes neurotóxicos”).
Métodos de estudos de toxicidade de órgãos-alvo
Os órgãos-alvo podem ser estudados pela exposição de organismos intactos e análise detalhada da função e histopatologia no órgão-alvo, ou pela exposição in vitro de células, fatias de tecido ou órgãos inteiros mantidos por períodos curtos ou longos em cultura (consulte “Mecanismos de toxicologia: Introdução e conceitos”). Em alguns casos, tecidos de seres humanos também podem estar disponíveis para estudos de toxicidade de órgãos-alvo, e isso pode fornecer oportunidades para validar suposições de extrapolação entre espécies. No entanto, deve-se ter em mente que tais estudos não fornecem informações sobre a toxicocinética relativa.
Em geral, os estudos de toxicidade de órgãos-alvo compartilham as seguintes características comuns: exame histopatológico detalhado do órgão-alvo, incluindo exame post mortem, peso do tecido e exame de tecidos fixados; estudos bioquímicos de vias críticas no órgão-alvo, como sistemas enzimáticos importantes; estudos funcionais da capacidade do órgão e constituintes celulares para realizar funções metabólicas esperadas e outras; e análise de biomarcadores de exposição e efeitos precoces em células de órgãos-alvo.
O conhecimento detalhado da fisiologia, bioquímica e biologia molecular dos órgãos-alvo pode ser incorporado aos estudos dos órgãos-alvo. Por exemplo, como a síntese e secreção de proteínas de baixo peso molecular é um aspecto importante da função renal, os estudos de nefrotoxicidade geralmente incluem atenção especial a esses parâmetros (IPCS 1991). Como a comunicação célula a célula é um processo fundamental da função do sistema nervoso, os estudos de órgãos-alvo na neurotoxicidade podem incluir medições neuroquímicas e biofísicas detalhadas da síntese, captação, armazenamento, liberação e ligação do receptor de neurotransmissores, bem como medições eletrofisiológicas de alterações na membrana potencial associado a esses eventos.
Um alto grau de ênfase está sendo colocado no desenvolvimento de métodos in vitro para toxicidade de órgãos-alvo, para substituir ou reduzir o uso de animais inteiros. Avanços substanciais nesses métodos foram alcançados para tóxicos reprodutivos (Heindel e Chapin 1993).
Em resumo, os estudos de toxicidade de órgãos-alvo são geralmente realizados como um teste de ordem superior para determinar a toxicidade. A seleção de órgãos-alvo específicos para avaliação posterior depende dos resultados dos testes de nível de triagem, como os testes agudos ou subcrônicos usados pela OCDE e pela União Européia; alguns órgãos-alvo e sistemas de órgãos podem ser candidatos a priori para investigação especial devido a preocupações de prevenir certos tipos de efeitos adversos à saúde.
A Necessidade de Validade
A epidemiologia visa fornecer uma compreensão da experiência da doença nas populações. Em particular, pode ser usado para obter informações sobre as causas ocupacionais de problemas de saúde. Esse conhecimento vem de estudos realizados em grupos de pessoas com uma doença, comparando-os com pessoas sem essa doença. Outra abordagem é examinar quais doenças as pessoas que trabalham em determinados empregos com exposições específicas adquirem e comparar esses padrões de doenças com os de pessoas não expostas de maneira semelhante. Esses estudos fornecem estimativas de risco de doença para exposições específicas. Para que as informações desses estudos possam ser utilizadas para estabelecer programas de prevenção, para o reconhecimento de doenças profissionais e para que os trabalhadores afetados por exposições sejam devidamente compensados, esses estudos devem ser válidos.
Validade pode ser definida como a capacidade de um estudo de refletir o verdadeiro estado das coisas. Um estudo válido é, portanto, aquele que mede corretamente a associação (positiva, negativa ou ausente) entre uma exposição e uma doença. Ele descreve a direção e a magnitude de um risco real. Dois tipos de validade são distinguidos: validade interna e validade externa. A validade interna é a capacidade de um estudo refletir o que realmente aconteceu entre os sujeitos do estudo; a validade externa reflete o que poderia ocorrer na população.
A validade está relacionada com a veracidade de uma medição. A validade deve ser diferenciada da precisão da medida, que é uma função do tamanho do estudo e da eficiência do desenho do estudo.
Validade interna
Diz-se que um estudo é internamente válido quando está livre de vieses e, portanto, reflete verdadeiramente a associação entre exposição e doença existente entre os participantes do estudo. Um risco de doença observado em associação com uma exposição pode de fato resultar de uma associação real e, portanto, ser válido, mas também pode refletir a influência de vieses. Um viés dará uma imagem distorcida da realidade.
Três tipos principais de preconceitos, também chamados erros sistemáticos, são geralmente distinguidos:
Eles serão apresentados brevemente abaixo, usando exemplos do ambiente de saúde ocupacional.
Viés de seleção
O viés de seleção ocorrerá quando a entrada no estudo for influenciada pelo conhecimento do status de exposição do potencial participante do estudo. Este problema é, portanto, encontrado apenas quando a doença já ocorreu no momento (antes) da pessoa entrar no estudo. Normalmente, no cenário epidemiológico, isso acontecerá em estudos de caso-controle ou em estudos de coorte retrospectivos. Isso significa que uma pessoa terá mais chances de ser considerada um caso se souber que ela foi exposta. Três conjuntos de circunstâncias podem levar a tal evento, que também dependerá da gravidade da doença.
Viés de auto-seleção
Isso pode ocorrer quando as pessoas que sabem que foram expostas a produtos nocivos conhecidos ou considerados nocivos no passado e que estão convencidas de que sua doença é o resultado da exposição consultarão um médico para sintomas que outras pessoas, não tão expostas, podem ter ignorado. Isso é particularmente provável de acontecer para doenças que apresentam poucos sintomas perceptíveis. Um exemplo pode ser a perda precoce da gravidez ou o aborto espontâneo entre enfermeiras que lidam com drogas usadas no tratamento do câncer. Essas mulheres estão mais conscientes do que a maioria da fisiologia reprodutiva e, por estarem preocupadas com sua capacidade de ter filhos, podem ser mais propensas a reconhecer ou rotular como aborto espontâneo o que outras mulheres considerariam apenas como um atraso no início da menstruação. Outro exemplo de um estudo de coorte retrospectivo, citado por Rothman (1986), envolve um estudo do Centro de Controle de Doenças sobre leucemia entre soldados que estiveram presentes durante um teste atômico dos Estados Unidos em Nevada. Das tropas presentes no local de teste, 76% foram rastreadas e constituíram a coorte. Destes, 82% foram encontrados pelos investigadores, mas outros 18% contataram os próprios investigadores depois de ouvir a publicidade sobre o estudo. Quatro casos de leucemia estavam presentes entre os 82% rastreados pelo CDC e quatro casos estavam presentes entre os 18% autorreferidos. Isso sugere fortemente que a capacidade dos investigadores de identificar pessoas expostas estava ligada ao risco de leucemia.
Viés de diagnóstico
Isso ocorrerá quando os médicos estiverem mais propensos a diagnosticar uma determinada doença, uma vez que sabem a que o paciente foi exposto anteriormente. Por exemplo, quando a maioria das tintas era à base de chumbo, um sintoma de doença dos nervos periféricos chamado neurite periférica com paralisia também era conhecido como “pulso caído” dos pintores. Conhecer a ocupação do paciente facilitou o diagnóstico da doença mesmo em seus estágios iniciais, enquanto a identificação do agente causal seria muito mais difícil em participantes da pesquisa sem exposição ocupacional conhecida ao chumbo.
Viés resultante da recusa em participar de um estudo
Quando as pessoas, saudáveis ou doentes, são convidadas a participar de um estudo, vários fatores desempenham um papel para determinar se elas concordarão ou não. A disposição para responder a questionários variavelmente longos, que às vezes indagam sobre questões delicadas, e ainda mais para doar sangue ou outras amostras biológicas, pode ser determinada pelo grau de interesse próprio da pessoa. Alguém que tenha conhecimento de uma exposição potencial passada pode estar disposto a aceitar este inquérito na esperança de que ajude a encontrar a causa da doença, enquanto alguém que considere não ter sido exposto a nada perigoso, ou que não esteja interessado em saber, pode recusar o convite para participar do estudo. Isso pode levar a uma seleção das pessoas que finalmente serão os participantes do estudo em comparação com todos aqueles que poderiam ter sido.
Viés de informação
Isso também é chamado de viés de observação e diz respeito ao resultado da doença em estudos de acompanhamento e avaliação de exposição em estudos de caso-controle.
Avaliação de resultados diferenciais em estudos prospectivos de acompanhamento (coorte)
Dois grupos são definidos no início do estudo: um grupo exposto e um grupo não exposto. Surgirão problemas de viés diagnóstico se a busca de casos diferir entre esses dois grupos. Por exemplo, considere um grupo de pessoas expostas a uma liberação acidental de dioxina em uma determinada indústria. Para o grupo altamente exposto, um sistema de acompanhamento ativo é estabelecido com exames médicos e monitoramento biológico em intervalos regulares, enquanto o restante da população trabalhadora recebe apenas cuidados de rotina. É altamente provável que mais doenças sejam identificadas no grupo sob vigilância rigorosa, o que levaria a uma potencial superestimação do risco.
Perdas diferenciais em estudos de coorte retrospectivos
O mecanismo inverso ao descrito no parágrafo anterior pode ocorrer em estudos de coorte retrospectivos. Nesses estudos, a maneira usual de proceder é começar com os arquivos de todas as pessoas que trabalharam em uma determinada indústria no passado e avaliar doenças ou mortalidade subseqüentes ao emprego. Infelizmente, em quase todos os estudos, os arquivos estão incompletos, e o fato de uma pessoa estar desaparecida pode estar relacionado ao estado de exposição, ao estado de doença ou a ambos. Por exemplo, em um estudo recente realizado na indústria química em trabalhadores expostos a aminas aromáticas, foram encontrados oito tumores em um grupo de 777 trabalhadores submetidos a triagem citológica de tumores urinários. Ao todo, apenas 34 registros foram encontrados ausentes, correspondendo a uma perda de 4.4% do arquivo de avaliação de exposição, mas para os casos de câncer de bexiga, os dados de exposição estavam ausentes em dois casos em oito, ou 25%. Isso mostra que os arquivos de pessoas que se tornaram casos eram mais propensos a se perder do que os arquivos de outros trabalhadores. Isso pode ocorrer devido a mudanças de cargo mais frequentes dentro da empresa (que podem estar ligadas a efeitos de exposição), pedido de demissão, demissão ou mero acaso.
Avaliação diferencial da exposição em estudos de caso-controle
Em estudos de caso-controle, a doença já ocorreu no início do estudo e serão buscadas informações sobre exposições no passado. O viés pode resultar da atitude do entrevistador ou do participante do estudo em relação à investigação. As informações geralmente são coletadas por entrevistadores treinados que podem ou não estar cientes da hipótese subjacente à pesquisa. Por exemplo, em um estudo de caso-controle populacional de câncer de bexiga realizado em uma região altamente industrializada, a equipe do estudo pode estar ciente do fato de que certos produtos químicos, como aminas aromáticas, são fatores de risco para câncer de bexiga. Se eles também souberem quem desenvolveu a doença e quem não a desenvolveu, provavelmente conduzirão entrevistas mais aprofundadas com os participantes que têm câncer de bexiga do que com os controles. Eles podem insistir em informações mais detalhadas sobre ocupações passadas, buscando sistematicamente a exposição a aminas aromáticas, enquanto que, para os controles, podem registrar ocupações de maneira mais rotineira. O viés resultante é conhecido como viés de suspeita de exposição.
Os próprios participantes também podem ser responsáveis por tal viés. Isso é chamado viés de recordação para distingui-lo do viés do entrevistador. Ambos têm suspeita de exposição como mecanismo para o viés. As pessoas doentes podem suspeitar de uma origem ocupacional para sua doença e, portanto, tentarão lembrar com a maior precisão possível todos os agentes perigosos aos quais possam ter sido expostos. No caso de manipulação de produtos indefinidos, eles podem estar inclinados a lembrar os nomes de produtos químicos precisos, especialmente se uma lista de produtos suspeitos for disponibilizada a eles. Por outro lado, os controles podem ter menos probabilidade de passar pelo mesmo processo de pensamento.
Confundindo
A confusão existe quando a associação observada entre exposição e doença é em parte o resultado de uma mistura do efeito da exposição em estudo e outro fator. Digamos, por exemplo, que estamos encontrando um risco aumentado de câncer de pulmão entre os soldadores. Somos tentados a concluir imediatamente que existe uma associação causal entre a exposição aos fumos de soldagem e o câncer de pulmão. No entanto, também sabemos que fumar é de longe o principal fator de risco para o câncer de pulmão. Portanto, se houver informações disponíveis, começamos a verificar o status de fumante dos soldadores e outros participantes do estudo. Podemos descobrir que os soldadores são mais propensos a fumar do que os não soldadores. Nessa situação, sabe-se que fumar está associado ao câncer de pulmão e, ao mesmo tempo, em nosso estudo, o tabagismo também está associado a ser soldador. Em termos epidemiológicos, isso significa que o tabagismo, associado tanto ao câncer de pulmão quanto à soldagem, está confundindo a associação entre soldagem e câncer de pulmão.
Modificação de interação ou efeito
Em contraste com todas as questões listadas acima, ou seja, seleção, informação e confusão, que são vieses, a interação não é um viés devido a problemas no desenho ou análise do estudo, mas reflete a realidade e sua complexidade. Um exemplo desse fenômeno é o seguinte: a exposição ao radônio é um fator de risco para o câncer de pulmão, assim como o tabagismo. Além disso, o fumo e a exposição ao radônio têm efeitos diferentes no risco de câncer de pulmão, dependendo se atuam em conjunto ou isoladamente. A maioria dos estudos ocupacionais sobre esse tópico foi realizada entre mineradores subterrâneos e, às vezes, forneceu resultados conflitantes. No geral, parece haver argumentos a favor de uma interação do fumo e da exposição ao radônio na produção de câncer de pulmão. Isso significa que o risco de câncer de pulmão é aumentado pela exposição ao radônio, mesmo em não fumantes, mas que o tamanho do aumento do risco do radônio é muito maior entre os fumantes do que entre os não fumantes. Em termos epidemiológicos, dizemos que o efeito é multiplicativo. Em contraste com a confusão, descrita acima, a interação precisa ser cuidadosamente analisada e descrita na análise, em vez de simplesmente controlada, pois reflete o que está acontecendo no nível biológico e não é apenas uma consequência de um desenho de estudo ruim. Sua explicação leva a uma interpretação mais válida dos resultados de um estudo.
Validade externa
Esse problema pode ser resolvido somente depois de garantir que a validade interna seja garantida. Se estivermos convencidos de que os resultados observados no estudo refletem associações reais, podemos nos perguntar se podemos ou não extrapolar esses resultados para a população maior da qual os próprios participantes do estudo foram retirados, ou mesmo para outras populações idênticas ou pelo menos muito semelhantes. A dúvida mais comum é se os resultados obtidos para os homens também se aplicam às mulheres. Durante anos, os estudos e, em particular, as investigações epidemiológicas ocupacionais foram realizados exclusivamente entre os homens. Estudos entre químicos realizados nas décadas de 1960 e 1970 nos Estados Unidos, Reino Unido e Suécia encontraram riscos aumentados de cânceres específicos, como leucemia, linfoma e câncer pancreático. Com base no que sabíamos sobre os efeitos da exposição a solventes e alguns outros produtos químicos, já poderíamos ter deduzido na época que o trabalho de laboratório também acarretava risco cancerígeno para as mulheres. Isso, de fato, foi demonstrado quando o primeiro estudo entre mulheres químicas foi finalmente publicado em meados da década de 1980, que encontrou resultados semelhantes aos dos homens. Vale a pena notar que outros cânceres em excesso encontrados foram tumores de mama e ovário, tradicionalmente considerados relacionados apenas a fatores endógenos ou à reprodução, mas para os quais fatores ambientais recém-suspeitados, como pesticidas, podem desempenhar um papel. Muito mais trabalho precisa ser feito sobre os determinantes ocupacionais dos cânceres femininos.
Estratégias para um Estudo Válido
Um estudo perfeitamente válido nunca pode existir, mas cabe ao pesquisador tentar evitar, ou pelo menos minimizar, tantos vieses quanto possível. Muitas vezes, isso pode ser feito melhor no estágio de projeto do estudo, mas também pode ser realizado durante a análise.
Desenho do estudo
O viés de seleção e informação só pode ser evitado por meio de um desenho cuidadoso de um estudo epidemiológico e da implementação escrupulosa de todas as diretrizes do dia a dia, incluindo atenção meticulosa à garantia de qualidade, para a condução do estudo em condições de campo. A confusão pode ser tratada no estágio de projeto ou análise.
Seleção
Os critérios para considerar um participante como um caso devem ser explicitamente definidos. Não se pode, ou pelo menos não se deve, tentar estudar condições clínicas mal definidas. Uma forma de minimizar o impacto que o conhecimento da exposição pode ter na avaliação da doença é incluir apenas casos graves que teriam sido diagnosticados independentemente de qualquer informação sobre a história do paciente. No campo do câncer, os estudos muitas vezes serão limitados a casos com comprovação histológica da doença para evitar a inclusão de lesões limítrofes. Isso também significa que os grupos em estudo estão bem definidos. Por exemplo, é bem conhecido na epidemiologia do câncer que cânceres de diferentes tipos histológicos dentro de um determinado órgão podem ter fatores de risco diferentes. Se o número de casos for suficiente, é melhor separar o adenocarcinoma do pulmão do carcinoma de células escamosas do pulmão. Quaisquer que sejam os critérios finais para entrada no estudo, eles devem sempre ser claramente definidos e descritos. Por exemplo, o código exato da doença deve ser indicado usando a Classificação Internacional de Doenças (CID) e também, para o câncer, a Classificação Internacional de Doenças-Oncologia (CID-O).
Esforços devem ser feitos uma vez que os critérios são especificados para maximizar a participação no estudo. A decisão de se recusar a participar raramente é feita ao acaso e, portanto, leva ao viés. Os estudos devem, antes de tudo, ser apresentados aos médicos que estão atendendo os pacientes. Sua aprovação é necessária para abordar os pacientes e, portanto, eles terão que ser convencidos a apoiar o estudo. Um argumento que costuma ser persuasivo é que o estudo é do interesse da saúde pública. No entanto, nesta fase, é melhor não discutir a hipótese exata que está sendo avaliada, a fim de evitar influenciar indevidamente os médicos envolvidos. Não se deve pedir aos médicos que assumam funções suplementares; é mais fácil convencer o pessoal de saúde a apoiar um estudo se os investigadores do estudo fornecerem meios para realizar quaisquer tarefas adicionais, além dos cuidados de rotina, exigidas pelo estudo. Os entrevistadores e coletores de dados devem desconhecer o estado da doença de seus pacientes.
Atenção semelhante deve ser dada às informações fornecidas aos participantes. O objetivo do estudo deve ser descrito em termos amplos e neutros, mas também deve ser convincente e persuasivo. É importante que as questões de confidencialidade e interesse para a saúde pública sejam totalmente compreendidas, evitando o jargão médico. Na maioria das configurações, o uso de incentivos financeiros ou outros não é considerado apropriado, embora deva ser fornecida uma compensação por qualquer despesa que um participante possa incorrer. Por último, mas não menos importante, a população em geral deve ser suficientemente alfabetizada cientificamente para entender a importância de tal pesquisa. Tanto os benefícios quanto os riscos da participação devem ser explicados a cada participante potencial quando eles precisarem preencher questionários e/ou fornecer amostras biológicas para armazenamento e/ou análise. Nenhuma coerção deve ser aplicada na obtenção de consentimento prévio e totalmente informado. Quando os estudos são exclusivamente baseados em registros, deve ser garantida a aprovação prévia dos órgãos responsáveis por garantir a confidencialidade de tais registros. Nesses casos, o consentimento do participante individual geralmente pode ser dispensado. Em vez disso, a aprovação do sindicato e dos funcionários do governo será suficiente. As investigações epidemiológicas não são uma ameaça à vida privada de um indivíduo, mas um auxílio potencial para melhorar a saúde da população. A aprovação de um conselho de revisão institucional (ou comitê de revisão ética) será necessária antes da realização de um estudo, e muito do que foi declarado acima será esperado por eles para sua revisão.
Dados Pessoais
Em estudos prospectivos de acompanhamento, os meios para avaliação da doença ou do estado de mortalidade devem ser idênticos para participantes expostos e não expostos. Em particular, fontes diferentes não devem ser usadas, como apenas verificar em um registro central de mortalidade para participantes não expostos e usar vigilância ativa intensiva para participantes expostos. Da mesma forma, a causa da morte deve ser obtida de maneiras estritamente comparáveis. Isso significa que se for utilizado um sistema de acesso a documentos oficiais para a população não exposta, que muitas vezes é a população em geral, nunca se deve planejar obter informações ainda mais precisas por meio de prontuários ou entrevistas dos próprios participantes ou de seus familiares para o subgrupo exposto.
Em estudos de coorte retrospectivos, esforços devem ser feitos para determinar quão próxima a população em estudo é comparada à população de interesse. Deve-se ter cuidado com possíveis perdas diferenciais em grupos expostos e não expostos, usando várias fontes sobre a composição da população. Por exemplo, pode ser útil comparar listas de folha de pagamento com listas de filiação sindical ou outras listas profissionais. As discrepâncias devem ser conciliadas e o protocolo adotado para o estudo deve ser rigorosamente seguido.
Em estudos de caso-controle, existem outras opções para evitar vieses. Os entrevistadores, a equipe do estudo e os participantes do estudo não precisam estar cientes da hipótese precisa em estudo. Se eles não conhecem a associação que está sendo testada, é menos provável que tentem fornecer a resposta esperada. Manter o pessoal do estudo no escuro quanto à hipótese de pesquisa é, de fato, muitas vezes muito impraticável. O entrevistador quase sempre saberá as exposições de maior interesse potencial, bem como quem é um caso e quem é um controle. Devemos, portanto, contar com sua honestidade e também com sua formação em metodologia de pesquisa básica, que deve fazer parte de sua formação profissional; a objetividade é a marca registrada em todos os estágios da ciência.
É mais fácil não informar os participantes do estudo sobre o objeto exato da pesquisa. Boas explicações básicas sobre a necessidade de coletar dados para uma melhor compreensão da saúde e da doença geralmente são suficientes e satisfarão as necessidades da revisão ética.
Confundindo
A confusão é o único viés que pode ser tratado no estágio de desenho do estudo ou, desde que informações adequadas estejam disponíveis, no estágio de análise. Se, por exemplo, a idade for considerada um potencial confundidor da associação de interesse porque a idade está associada ao risco de doença (ou seja, o câncer se torna mais frequente em idades mais avançadas) e também à exposição (as condições de exposição variam com a idade ou com fatores relacionados à idade, como qualificação, cargo e tempo de emprego), existem várias soluções. O mais simples é limitar o estudo a uma faixa etária específica - por exemplo, inscrever apenas homens caucasianos de 40 a 50 anos. Isso fornecerá elementos para uma análise simples, mas também terá a desvantagem de limitar a aplicação dos resultados a um único sexo idade/grupo racial. Outra solução é a correspondência por idade. Isso significa que, para cada caso, é necessário um referente da mesma idade. Essa é uma ideia atraente, mas deve-se ter em mente a possível dificuldade de atender a esse requisito à medida que o número de fatores de correspondência aumenta. Além disso, uma vez que um fator tenha sido pareado, torna-se impossível avaliar seu papel na ocorrência da doença. A última solução é ter informações suficientes sobre potenciais fatores de confusão no banco de dados do estudo para verificá-los na análise. Isso pode ser feito por meio de uma análise estratificada simples ou com ferramentas mais sofisticadas, como a análise multivariada. No entanto, deve-se lembrar que a análise nunca será capaz de compensar um estudo mal planejado ou mal conduzido.
Conclusão
O potencial de ocorrência de vieses na pesquisa epidemiológica está estabelecido há muito tempo. Isso não era muito preocupante quando as associações estudadas eram fortes (como é o caso do tabagismo e do câncer de pulmão) e, portanto, alguma imprecisão não causava um problema muito grave. No entanto, agora que chegou a hora de avaliar fatores de risco mais fracos, a necessidade de melhores ferramentas torna-se fundamental. Isso inclui a necessidade de excelentes designs de estudo e a possibilidade de combinar as vantagens de vários designs tradicionais, como os estudos de caso-controle ou coorte, com abordagens mais inovadoras, como estudos de caso-controle aninhados em uma coorte. Além disso, o uso de biomarcadores pode fornecer os meios para obter avaliações mais precisas de exposições atuais e possivelmente passadas, bem como para os estágios iniciais da doença.
Fadiga e recuperação são processos periódicos em todos os organismos vivos. A fadiga pode ser descrita como um estado caracterizado por uma sensação de cansaço combinada com uma redução ou variação indesejada no desempenho da atividade (Rohmert 1973).
Nem todas as funções do organismo humano se cansam com o uso. Mesmo dormindo, por exemplo, respiramos e nosso coração bate sem parar. Obviamente, as funções básicas de respiração e atividade cardíaca são possíveis ao longo da vida sem fadiga e sem pausas para recuperação.
Por outro lado, depois de um trabalho pesado bastante prolongado, verificamos que há uma redução na capacidade – que chamamos de fadiga. Isso não se aplica apenas à atividade muscular. Os órgãos sensoriais ou os centros nervosos também ficam cansados. É, no entanto, o objetivo de cada célula equilibrar a capacidade perdida por sua atividade, um processo que chamamos de recuperação.
Estresse, tensão, fadiga e recuperação
Os conceitos de fadiga e recuperação no trabalho humano estão intimamente relacionados aos conceitos ergonômicos de estresse e tensão (Rohmert 1984) (figura 1).
Figura 1. Estresse, tensão e fadiga
Estresse significa a soma de todos os parâmetros de trabalho no sistema de trabalho que influenciam as pessoas no trabalho, que são percebidos ou sentidos principalmente no sistema receptor ou que colocam demandas no sistema efetor. Os parâmetros de estresse resultam da tarefa de trabalho (trabalho muscular, trabalho não muscular - dimensões e fatores orientados para a tarefa) e das condições físicas, químicas e sociais sob as quais o trabalho deve ser realizado (ruído, clima, iluminação, vibração , trabalho por turnos, etc.—dimensões e fatores orientados para a situação).
A intensidade/dificuldade, a duração e a composição (ou seja, a distribuição simultânea e sucessiva dessas demandas específicas) dos fatores de estresse resultam em estresse combinado, que todos os efeitos exógenos de um sistema de trabalho exercem sobre a pessoa que trabalha. Este estresse combinado pode ser enfrentado ativamente ou passivamente, dependendo especificamente do comportamento da pessoa que trabalha. O caso ativo envolverá atividades voltadas para a eficiência do sistema de trabalho, enquanto o caso passivo induzirá reações (voluntárias ou involuntárias), que se preocupam principalmente com a minimização do estresse. A relação entre o estresse e a atividade é influenciada decisivamente pelas características e necessidades individuais do trabalhador. Os principais fatores de influência são os que determinam o desempenho e estão relacionados à motivação e concentração e os relacionados à disposição, que podem ser referidos como habilidades e habilidades.
As tensões relevantes para o comportamento, que se manifestam em certas atividades, causam tensões individualmente diferentes. As tensões podem ser indicadas pela reação de indicadores fisiológicos ou bioquímicos (por exemplo, aumento da frequência cardíaca) ou podem ser percebidas. Assim, as tensões são suscetíveis de “escalonamento psicofísico”, que estima a tensão experimentada pelo trabalhador. Em uma abordagem comportamental, a existência de tensão também pode ser derivada de uma análise de atividade. A intensidade com que os indicadores de tensão (fisiológico-bioquímico, comportamental ou psicofísico) reagem depende da intensidade, duração e combinação de fatores de estresse, bem como das características individuais, habilidades, habilidades e necessidades da pessoa que trabalha.
Apesar das tensões constantes, os indicadores derivados dos campos de atividade, desempenho e tensão podem variar ao longo do tempo (efeito temporal). Tais variações temporais devem ser interpretadas como processos de adaptação dos sistemas orgânicos. Os efeitos positivos causam redução do esforço/melhoria da atividade ou desempenho (por exemplo, por meio de treinamento). No caso negativo, no entanto, eles resultarão em aumento da tensão/redução da atividade ou desempenho (por exemplo, fadiga, monotonia).
Os efeitos positivos podem entrar em ação se as habilidades e habilidades disponíveis forem aprimoradas no próprio processo de trabalho, por exemplo, quando o limite de estimulação do treinamento for ligeiramente excedido. Os efeitos negativos provavelmente aparecerão se os chamados limites de resistência (Rohmert 1984) forem excedidos no decorrer do processo de trabalho. Essa fadiga leva a uma redução das funções fisiológicas e psicológicas, que podem ser compensadas pela recuperação.
Para restaurar o desempenho original, são necessários períodos de descanso ou pelo menos períodos com menos estresse (Luczak 1993).
Quando o processo de adaptação é levado além de limites definidos, o sistema orgânico empregado pode ser danificado de forma a causar uma deficiência parcial ou total de suas funções. Uma redução irreversível das funções pode ocorrer quando o estresse é muito alto (dano agudo) ou quando a recuperação é impossível por mais tempo (dano crônico). Um exemplo típico de tal dano é a perda auditiva induzida por ruído.
Modelos de Fadiga
A fadiga pode ser multifacetada, dependendo da forma e combinação de tensão, e uma definição geral dela ainda não é possível. Os processos biológicos da fadiga em geral não são mensuráveis de forma direta, de modo que as definições se orientam principalmente para os sintomas de fadiga. Esses sintomas de fadiga podem ser divididos, por exemplo, nas três categorias a seguir.
No processo de fadiga, todos esses três sintomas podem desempenhar um papel, mas podem aparecer em momentos diferentes.
As reações fisiológicas em sistemas orgânicos, particularmente os envolvidos no trabalho, podem aparecer primeiro. Mais tarde, a sensação de esforço pode ser afetada. As mudanças no desempenho se manifestam geralmente em uma regularidade de trabalho decrescente ou em uma quantidade crescente de erros, embora a média do desempenho ainda não seja afetada. Pelo contrário, com motivação adequada, o trabalhador pode até tentar manter o desempenho por meio da força de vontade. O próximo passo pode ser uma clara redução de desempenho, terminando com uma quebra de desempenho. Os sintomas fisiológicos podem levar a um colapso do organismo, incluindo mudanças na estrutura da personalidade e exaustão. O processo de fadiga é explicado na teoria da desestabilização sucessiva (Luczak 1983).
A principal tendência de fadiga e recuperação é mostrada na figura 2.
Figura 2. Tendência principal de fadiga e recuperação
Prognóstico de Fadiga e Recuperação
No campo da ergonomia há um interesse especial em prever a fadiga dependente da intensidade, duração e composição dos fatores de estresse e determinar o tempo de recuperação necessário. A Tabela 1 mostra esses diferentes níveis de atividade e períodos de consideração e possíveis motivos de fadiga e diferentes possibilidades de recuperação.
Tabela 1. Fadiga e recuperação dependentes dos níveis de atividade
Nível de atividade |
de Payback |
Fadiga de |
Recuperação por |
Vida de trabalho |
Décadas |
esforço excessivo para |
Aposentadoria |
Fases da vida profissional |
Anos |
esforço excessivo para |
Férias |
Seqüências de |
Meses/semanas |
Mudança desfavorável |
Fim de semana, grátis |
Um turno de trabalho |
Um dia |
Estresse acima |
Tempo livre, descanso |
tarefas |
horas |
Estresse acima |
Período de descanso |
Parte de uma tarefa |
Minutos |
Estresse acima |
Mudança de estresse |
Na análise ergonômica de estresse e fadiga para determinar o tempo de recuperação necessário, considerar o período de um dia de trabalho é o mais importante. Os métodos de tais análises começam com a determinação dos diferentes fatores de estresse em função do tempo (Laurig 1992) (figura 3).
Figura 3. Estresse em função do tempo
Os fatores de estresse são determinados a partir do conteúdo específico do trabalho e das condições de trabalho. O conteúdo do trabalho pode ser a produção de força (p. para produzir informações (por exemplo, ao programar, traduzir) e a produção de informações (por exemplo, ao projetar, resolver problemas). As condições de trabalho incluem aspectos físicos (por exemplo, ruído, vibração, calor), químicos (agentes químicos) e sociais (por exemplo, colegas, trabalho em turnos).
No caso mais fácil, haverá um único fator de estresse importante, enquanto os outros podem ser negligenciados. Nesses casos, principalmente quando os fatores de estresse resultam do trabalho muscular, muitas vezes é possível calcular os intervalos de descanso necessários, pois os conceitos básicos são conhecidos.
Por exemplo, o descanso suficiente permitido no trabalho muscular estático depende da força e duração da contração muscular como em uma função exponencial vinculada pela multiplicação de acordo com a fórmula:
de
RA = Subsídio de descanso em porcentagem de t
t = duração da contração (período de trabalho) em minutos
T = duração máxima possível da contração em minutos
f = a força necessária para a força estática e
F = força máxima.
A conexão entre força, tempo de espera e permissão de descanso é mostrada na figura 4.
Figura 4. Porcentagens de descanso permitidas para várias combinações de forças de retenção e tempo
Existem leis semelhantes para trabalho muscular dinâmico pesado (Rohmert 1962), trabalho muscular leve ativo (Laurig 1974) ou trabalho muscular industrial diferente (Schmidtke 1971). Mais raramente você encontra leis comparáveis para trabalho não-físico, por exemplo, para computação (Schmidtke 1965). Uma visão geral dos métodos existentes para determinar as tolerâncias de descanso principalmente para trabalho muscular e não muscular isolado é dada por Laurig (1981) e Luczak (1982).
Mais difícil é a situação em que existe uma combinação de diferentes fatores de estresse, conforme mostrado na figura 5, que afetam a pessoa que trabalha simultaneamente (Laurig 1992).
Figura 5. A combinação de dois fatores de estresse
A combinação de dois fatores de tensão, por exemplo, pode levar a diferentes reações de deformação dependendo das leis de combinação. O efeito combinado de diferentes fatores de estresse pode ser indiferente, compensatório ou cumulativo.
No caso de leis de combinação indiferentes, os diferentes fatores de estresse afetam diferentes subsistemas do organismo. Cada um desses subsistemas pode compensar a tensão sem que a tensão seja alimentada em um subsistema comum. A deformação geral depende do fator de tensão mais alto e, portanto, as leis de superposição não são necessárias.
Um efeito compensatório é dado quando a combinação de diferentes fatores de estresse leva a uma tensão menor do que cada fator de estresse sozinho. A combinação de trabalho muscular e baixas temperaturas pode reduzir o esforço geral, pois as baixas temperaturas permitem que o corpo perca o calor produzido pelo trabalho muscular.
Um efeito cumulativo surge se vários fatores de estresse são sobrepostos, ou seja, eles devem passar por um “gargalo” fisiológico. Um exemplo é a combinação de trabalho muscular e estresse térmico. Ambos os fatores de estresse afetam o sistema circulatório como um gargalo comum com tensão cumulativa resultante.
Possíveis efeitos de combinação entre trabalho muscular e condições físicas são descritos em Bruder (1993) (ver tabela 2).
Tabela 2. Regras de efeitos de combinação de dois fatores de tensão na deformação
Frio |
vibração |
Iluminação |
Ruído |
|
Trabalho dinâmico pesado |
- |
+ |
0 |
0 |
Trabalho muscular leve ativo |
+ |
+ |
0 |
0 |
Trabalho muscular estático |
+ |
+ |
0 |
0 |
0 efeito indiferente; + efeito cumulativo; – efeito compensatório.
Fonte: Adaptado de Bruder 1993.
Para o caso da combinação de mais de dois fatores de estresse, que é a situação normal na prática, apenas um conhecimento científico limitado está disponível. O mesmo se aplica à combinação sucessiva de fatores de estresse (ou seja, o efeito de tensão de diferentes fatores de estresse que afetam o trabalhador sucessivamente). Para tais casos, na prática, o tempo de recuperação necessário é determinado medindo parâmetros fisiológicos ou psicológicos e usando-os como valores integradores.
Os erros na medição da exposição podem ter diferentes impactos na relação exposição-doença em estudo, dependendo de como os erros são distribuídos. Se um estudo epidemiológico foi conduzido às cegas (ou seja, as medições foram feitas sem conhecimento da doença ou estado de saúde dos participantes do estudo), esperamos que o erro de medição seja distribuído uniformemente entre os estratos de doença ou estado de saúde.
A Tabela 1 fornece um exemplo: suponha que recrutamos uma coorte de pessoas expostas no trabalho a um tóxico, a fim de investigar uma doença frequente. Determinamos o status de exposição apenas no recrutamento (T0), e não em outros pontos no tempo durante o acompanhamento. No entanto, digamos que alguns indivíduos, de fato, mudem seu status de exposição no ano seguinte: no tempo T1, 250 das 1,200 pessoas expostas originais deixaram de ser expostas, enquanto 150 das 750 pessoas não expostas originais passaram a ser expostas ao tóxico. Portanto, no tempo T1, 1,100 indivíduos estão expostos e 850 não estão expostos. Como consequência, temos “classificação incorreta” de exposição, com base em nossa medição inicial do status de exposição no tempo T0. Esses indivíduos são então rastreados após 20 anos (no tempo T2) e avalia-se o risco cumulativo de doença. (A suposição feita no exemplo é que apenas a exposição de mais de um ano é uma preocupação.)
Tabela 1. Coorte hipotética de 1950 indivíduos (expostos e não expostos ao trabalho), recrutados no tempo T0 e cujo estado de doença é verificado no tempo T2
Horário |
|||
T0 |
T1 |
T2 |
Trabalhadores expostos 1200 250 abandonam a exposição 1100 (1200-250+150)
Casos de doença no tempo T2 = 220 entre trabalhadores expostos
Trabalhadores não expostos 750 150 exposição inicial 850 (750-150+250)
Casos de doença no tempo T2 = 85 entre trabalhadores não expostos
A risco verdadeiro da doença no tempo T2 é de 20% entre os trabalhadores expostos (220/1100),
e 10% em trabalhadores não expostos (85/850) (razão de risco = 2.0).
Risco estimado em T2 da doença entre aqueles classificados como expostos em T0: 20%
(ou seja, risco verdadeiro nos expostos) ´ 950 (ou seja, 1200-250)+ 10%
(ou seja, risco verdadeiro em não expostos) ´ 250 = (190+25)/1200 = 17.9%
Risco estimado em T2 de doença entre aqueles classificados como não expostos em
T0: 20% (ou seja, risco verdadeiro nos expostos) ´ 150 +10%
(ou seja, risco verdadeiro em não expostos) ´ 600 (ou seja, 750-150) = (30+60)/750 = 12%
Taxa de risco estimada = 17.9% / 12% = 1.49
A classificação incorreta depende, neste exemplo, do desenho do estudo e das características da população, e não das limitações técnicas da medição da exposição. O efeito da classificação incorreta é tal que a razão “verdadeira” de 2.0 entre o risco cumulativo entre pessoas expostas e não expostas torna-se uma razão “observada” de 1.49 (tabela 1). Essa subestimação da razão de risco decorre de uma “indefinição” da relação entre exposição e doença, que ocorre quando a classificação incorreta da exposição, como neste caso, é distribuída uniformemente de acordo com a doença ou estado de saúde (ou seja, a medição da exposição é não influenciada pelo fato de a pessoa sofrer ou não da doença que estamos estudando).
Por outro lado, pode ocorrer subestimação ou superestimação da associação de interesse quando a classificação incorreta da exposição não é distribuída uniformemente pelo resultado de interesse. No exemplo, podemos ter viés, e não apenas uma indefinição da relação etiológica, se a classificação da exposição depender da doença ou do estado de saúde dos trabalhadores. Isso pode ocorrer, por exemplo, se decidirmos coletar amostras biológicas de um grupo de trabalhadores expostos e de um grupo de trabalhadores não expostos, a fim de identificar precocemente alterações relacionadas à exposição no trabalho. As amostras dos trabalhadores expostos podem então ser analisadas de forma mais precisa do que as amostras dos não expostos; a curiosidade científica pode levar o pesquisador a medir biomarcadores adicionais entre as pessoas expostas (incluindo, por exemplo, adutos de DNA em linfócitos ou marcadores urinários de dano oxidativo ao DNA), na suposição de que essas pessoas são cientificamente “mais interessantes”. Esta é uma atitude bastante comum que, no entanto, pode levar a sérios vieses.
Há muito debate sobre o papel das estatísticas na pesquisa epidemiológica sobre relações causais. Em epidemiologia, a estatística é principalmente uma coleção de métodos para avaliar dados baseados em populações humanas (e também em animais). Em particular, a estatística é uma técnica para a quantificação e medição de fenômenos incertos. Todas as investigações científicas que lidam com aspectos não determinísticos e variáveis da realidade poderiam se beneficiar da metodologia estatística. Em epidemiologia, a variabilidade é intrínseca à unidade de observação – uma pessoa não é uma entidade determinística. Embora os projetos experimentais sejam melhorados em termos de atender melhor às suposições das estatísticas em termos de variação aleatória, por razões éticas e práticas, essa abordagem não é muito comum. Em vez disso, a epidemiologia está engajada na pesquisa observacional que tem associada a ela fontes aleatórias e outras fontes de variabilidade.
A teoria estatística está preocupada em como controlar a variabilidade não estruturada nos dados para fazer inferências válidas a partir de observações empíricas. Na falta de qualquer explicação para o comportamento variável do fenômeno estudado, a estatística o assume como acaso— isto é, desvios não sistemáticos de algum estado médio da natureza (ver Greenland 1990 para uma crítica dessas suposições).
A ciência depende da empiria evidência para demonstrar se seus modelos teóricos de eventos naturais têm alguma validade. De fato, os métodos usados da teoria estatística determinam o grau em que as observações no mundo real se conformam com a visão dos cientistas, em forma de modelo matemático, de um fenômeno. Métodos estatísticos, baseados em matemática, devem, portanto, ser cuidadosamente selecionados; há muitos exemplos sobre “como mentir com estatísticas”. Portanto, os epidemiologistas devem estar cientes da adequação das técnicas que aplicam para medir o risco de doença. Em particular, é necessário muito cuidado ao interpretar resultados estatisticamente significativos e estatisticamente não significativos.
O primeiro significado da palavra estatística refere-se a qualquer quantidade resumida calculada em um conjunto de valores. Índices descritivos ou estatísticas como a média aritmética, a mediana ou a moda são amplamente utilizados para resumir as informações em uma série de observações. Historicamente, esses descritores resumidos foram usados para fins administrativos pelos estados e, portanto, foram nomeados estatística. Em epidemiologia, as estatísticas comumente vistas derivam das comparações inerentes à natureza da epidemiologia, que faz perguntas como: “Uma população tem maior risco de doença do que outra?” Ao fazer tais comparações, o risco relativo é uma medida popular da força da associação entre uma característica individual e a probabilidade de adoecer, e é mais comumente aplicado na pesquisa etiológica; o risco atribuível também é uma medida de associação entre as características individuais e a ocorrência da doença, mas enfatiza o ganho em número de casos poupados por uma intervenção que remove o fator em questão – é aplicado principalmente em saúde pública e medicina preventiva.
O segundo significado da palavra estatística relaciona-se com a coleção de técnicas e a teoria subjacente de inferência estatística. Esta é uma forma particular de lógica indutiva que especifica as regras para obter uma generalização válida a partir de um conjunto particular de observações empíricas. Essa generalização seria válida desde que algumas suposições fossem atendidas. Esta é a segunda maneira pela qual um uso inculto da estatística pode nos enganar: na epidemiologia observacional, é muito difícil ter certeza das suposições implícitas nas técnicas estatísticas. Portanto, a análise de sensibilidade e os estimadores robustos devem ser companheiros de qualquer análise de dados conduzida corretamente. As conclusões finais também devem se basear no conhecimento geral e não devem depender exclusivamente das descobertas do teste de hipóteses estatísticas.
Definições
A unidade estatística é o elemento sobre o qual são feitas as observações empíricas. Pode ser uma pessoa, um espécime biológico ou um pedaço de matéria-prima a ser analisado. Normalmente, as unidades estatísticas são escolhidas independentemente pelo pesquisador, mas às vezes projetos mais complexos podem ser configurados. Por exemplo, em estudos longitudinais, uma série de determinações é feita em um conjunto de pessoas ao longo do tempo; as unidades estatísticas deste estudo são o conjunto de determinações, que não são independentes, mas estruturadas por suas respectivas conexões com cada sujeito estudado. A falta de independência ou correlação entre as unidades estatísticas merece atenção especial na análise estatística.
A variável é uma característica individual medida em uma determinada unidade estatística. Deve ser contrastado com um constante, uma característica individual fixa – por exemplo, em um estudo sobre seres humanos, ter cabeça ou tórax são constantes, enquanto o gênero de um único membro do estudo é uma variável.
As variáveis são avaliadas usando diferentes escalas de medida. A primeira distinção é entre escalas qualitativas e quantitativas. Variáveis qualitativas fornecem diferentes modalidades or Categorias. Se cada modalidade não pode ser classificada ou ordenada em relação a outras - por exemplo, cor de cabelo ou modalidades de gênero - denotamos a variável como nominal. Se as categorias puderem ser ordenadas – como o grau de gravidade de uma doença – a variável é chamada ordinal. Quando uma variável é constituída por um valor numérico, dizemos que a escala é quantitativa. UMA discreto escala denota que a variável pode assumir apenas alguns valores definidos - por exemplo, valores inteiros para o número de casos de doença. UMA contínuo escala é usada para aquelas medidas que resultam em reais números. As escalas contínuas são ditas intervalo escalas quando o valor nulo tem um significado puramente convencional. Ou seja, um valor zero não significa quantidade zero – por exemplo, uma temperatura de zero grau Celsius não significa energia térmica zero. Neste caso, apenas diferenças entre valores fazem sentido (esta é a razão do termo escala “intervalada”). Um valor nulo real denota um relação escala. Para uma variável medida nessa escala, razões de valores também fazem sentido: de fato, uma razão dupla significa o dobro da quantidade. Por exemplo, dizer que um corpo tem uma temperatura duas vezes maior que um segundo corpo significa que ele tem duas vezes a energia térmica do segundo corpo, providenciou que a temperatura é medida em uma escala proporcional (por exemplo, em graus Kelvin). O conjunto de valores permitidos para uma determinada variável é chamado de domínio da variável.
Paradigmas Estatísticos
A estatística lida com a maneira de generalizar a partir de um conjunto de observações particulares. Este conjunto de medidas empíricas é chamado de amostra. A partir de uma amostra, calculamos algumas estatísticas descritivas para resumir as informações coletadas.
A informação básica geralmente necessária para caracterizar um conjunto de medidas diz respeito à sua tendência central e à sua variabilidade. A escolha entre várias alternativas depende da escala usada para medir um fenômeno e dos propósitos para os quais as estatísticas são computadas. Na tabela 1 são descritas diferentes medidas de tendência central e variabilidade (ou, dispersão) associadas à escala de medida apropriada.
Tabela 1. Índices de tendência central e dispersão por escala de medida
Escala de medição |
||||
Qualitativo |
Quantitativo |
|||
Índices |
Definição |
Nominal |
Ordinal |
Intervalo/razão |
Média aritmética |
Soma dos valores observados dividido pelo número total de observações |
|
|
x |
Mediana |
Valor do ponto médio da distribuição observada |
|
x |
x |
Moda |
valor mais frequente |
x |
x |
x |
Variação |
Valores mais baixos e mais altos da distribuição |
|
x |
x |
variação |
Soma da diferença ao quadrado de cada valor da média dividida pelo número total de observações menos 1 |
|
|
x |
As estatísticas descritivas calculadas são chamadas estimativas quando os usamos como substitutos para a quantidade análoga da população da qual a amostra foi selecionada. As contrapartes populacionais das estimativas são constantes chamadas parâmetros. Estimativas de um mesmo parâmetro podem ser obtidas por diferentes métodos estatísticos. Uma estimativa deve ser válida e precisa.
O paradigma da amostra populacional implica que a validade pode ser assegurada pela forma como a amostra é selecionada da população. A amostragem aleatória ou probabilística é a estratégia usual: se cada membro da população tem a mesma probabilidade de ser incluído na amostra, então, em média, nossa amostra deve ser representativa da população e, além disso, qualquer desvio de nossa expectativa pode ser explicado por acaso. A probabilidade de um determinado desvio de nossa expectativa também pode ser calculada, desde que a amostragem aleatória tenha sido realizada. O mesmo tipo de raciocínio se aplica às estimativas calculadas para nossa amostra em relação aos parâmetros populacionais. Tomamos, por exemplo, a média aritmética de nossa amostra como uma estimativa do valor médio da população. Qualquer diferença, se existir, entre a média da amostra e a média da população é atribuída a flutuações aleatórias no processo de seleção dos membros incluídos na amostra. Podemos calcular a probabilidade de qualquer valor dessa diferença, desde que a amostra tenha sido selecionada aleatoriamente. Se o desvio entre a estimativa amostral e o parâmetro populacional não puder ser explicado ao acaso, a estimativa é dita tendencioso. O desenho da observação ou experimento dá validade às estimativas e o paradigma estatístico fundamental é o da amostragem aleatória.
Na medicina, um segundo paradigma é adotado quando a comparação entre diferentes grupos é o objetivo do estudo. Um exemplo típico é o ensaio clínico controlado: um conjunto de pacientes com características semelhantes é selecionado com base em critérios pré-definidos. Nenhuma preocupação com a representatividade é feita nesta fase. Cada paciente inscrito no estudo é designado por um procedimento aleatório para o grupo de tratamento – que receberá a terapia padrão mais o novo medicamento a ser avaliado – ou para o grupo de controle – recebendo a terapia padrão e um placebo. Nesse desenho, a alocação aleatória dos pacientes para cada grupo substitui a seleção aleatória dos membros da amostra. A estimativa da diferença entre os dois grupos pode ser avaliada estatisticamente porque, na hipótese de não eficácia da nova droga, podemos calcular a probabilidade de qualquer diferença diferente de zero.
Em epidemiologia, não temos a possibilidade de reunir aleatoriamente grupos de pessoas expostas e não expostas. Nesse caso, ainda podemos usar métodos estatísticos, como se os grupos analisados tivessem sido selecionados ou alocados aleatoriamente. A correção dessa suposição depende principalmente do desenho do estudo. Este ponto é particularmente importante e ressalta a importância do desenho do estudo epidemiológico sobre as técnicas estatísticas na pesquisa biomédica.
Sinal e ruído
O termo variável aleatória refere-se a uma variável para a qual está associada uma probabilidade definida a cada valor que pode assumir. Os modelos teóricos para a distribuição da probabilidade de uma variável aleatória são modelos populacionais. As contrapartes da amostra são representadas pela distribuição de frequência da amostra. Esta é uma maneira útil de relatar um conjunto de dados; consiste em um plano cartesiano com a variável de interesse ao longo do eixo horizontal e a frequência ou frequência relativa ao longo do eixo vertical. Uma exibição gráfica nos permite ver prontamente qual é (são) o(s) valor(es) mais frequente(s) e como a distribuição está concentrada em torno de determinados valores centrais como a média aritmética.
Para as variáveis aleatórias e suas distribuições de probabilidade, usamos os termos parâmetros, valor médio esperado (em vez de média aritmética) e variação. Esses modelos teóricos descrevem a variabilidade em um determinado fenômeno. Na teoria da informação, o sinal é representado pela tendência central (por exemplo, o valor médio), enquanto o ruído é medido por um índice de dispersão (como a variância).
Para ilustrar a inferência estatística, usaremos o modelo binomial. Nas seções a seguir, serão introduzidos os conceitos de estimativas pontuais e intervalos de confiança, testes de hipóteses e probabilidade de decisões errôneas e poder de um estudo.
Tabela 2. Possíveis resultados de um experimento binomial (sim = 1, não = 0) e suas probabilidades (n = 3)
Trabalhador |
Probabilidade |
||
A |
B |
C |
|
0 |
0 |
0 |
|
1 |
0 |
0 |
|
0 |
1 |
0 |
|
0 |
0 |
1 |
|
0 |
1 |
1 |
|
1 |
0 |
1 |
|
1 |
1 |
0 |
|
1 |
1 |
1 |
Um Exemplo: A Distribuição Binomial
Na pesquisa biomédica e na epidemiologia, o modelo mais importante de variação estocástica é a distribuição binomial. Baseia-se no fato de que a maioria dos fenômenos se comporta como uma variável nominal com apenas duas categorias: por exemplo, a presença/ausência de doença: vivo/morto ou recuperado/doente. Nessas circunstâncias, estamos interessados na probabilidade de sucesso – ou seja, no evento de interesse (por exemplo, presença de doença, vivo ou recuperação) – e nos fatores ou variáveis que podem alterá-la. Vamos considerar n = 3 trabalhadores, e suponha que estamos interessados na probabilidade, p, de ter uma deficiência visual (sim/não). O resultado de nossa observação pode ser os resultados possíveis na tabela 2.
Tabela 3. Possíveis resultados de um experimento binomial (sim = 1, não = 0) e suas probabilidades (n = 3)
Número de sucessos |
Probabilidade |
0 |
|
1 |
|
2 |
|
3 |
A probabilidade de qualquer uma dessas combinações de eventos é facilmente obtida considerando p, a probabilidade (individual) de sucesso, constante para cada sujeito e independente de outros resultados. Como estamos interessados no número total de sucessos e não em uma sequência ordenada específica, podemos reorganizar a tabela da seguinte maneira (ver tabela 3) e, em geral, expressar a probabilidade de x sucessos P (x) como:
onde x é o número de sucessos e a notação x! denota o fatorial de x, Isto é, x! = x×(x–1)×(x–2)…×1.
Quando consideramos o evento “estar/não estar doente”, a probabilidade individual, refere-se ao estado em que o sujeito se presume; em epidemiologia, essa probabilidade é chamada de “prevalência”. Para estimar p, usamos a proporção amostral:
p = x/n
com variação:
Em uma hipotética série infinita de amostras replicadas do mesmo tamanho n, obteríamos diferentes proporções amostrais p = x/n, com probabilidades dadas pela fórmula binomial. O valor “verdadeiro” de é estimado por cada proporção de amostra, e um intervalo de confiança para p, ou seja, o conjunto de valores prováveis para p, dados os dados observados e um nível de confiança predefinido (digamos 95%), é estimado a partir da distribuição binomial como o conjunto de valores para p que dá uma probabilidade de x maior que um valor pré-especificado (digamos 2.5%). Para um experimento hipotético em que observamos x = 15 sucessos em n = 30 tentativas, a probabilidade estimada de sucesso é:
Tabela 4. Distribuição binomial. Probabilidades para diferentes valores de para x = 15 sucessos em n = 30 tentativas
Probabilidade |
|
0.200 |
0.0002 |
0.300 |
0.0116 |
0.334 |
0.025 |
0.400 |
0.078 |
0.500 |
0.144 |
0.600 |
0.078 |
0.666 |
0.025 |
0.700 |
0.0116 |
O intervalo de confiança de 95% para p, obtido na tabela 4, é 0.334 – 0.666. Cada entrada da tabela mostra a probabilidade de x = 15 sucessos em n = 30 tentativas calculadas com a fórmula binomial; por exemplo, para = 0.30, obtemos de:
Escolha n grande e p perto de 0.5 podemos usar uma aproximação baseada na distribuição gaussiana:
onde za /2 denota o valor da distribuição gaussiana padrão para uma probabilidade
P (|z| ³ za /2) = a/2;
1 – sendo a o nível de confiança escolhido. Para o exemplo considerado, = 15/30 = 0.5; n = 30 e da tabela gaussiana padrão z0.025 = 1.96. O intervalo de confiança de 95% resulta no conjunto de valores 0.321 – 0.679, obtido substituindo p = 0.5, n = 30 e z0.025 = 1.96 na equação acima para a distribuição gaussiana. Observe que esses valores estão próximos dos valores exatos calculados anteriormente.
Os testes estatísticos de hipóteses compreendem um procedimento de decisão sobre o valor de um parâmetro populacional. Suponhamos, no exemplo anterior, que queremos abordar a proposição de que existe um risco elevado de deficiência visual entre os trabalhadores de uma determinada fábrica. A hipótese científica a ser testada por nossas observações empíricas é então “existe um risco elevado de deficiência visual entre os trabalhadores de uma determinada fábrica”. Os estatísticos demonstram tais hipóteses falsificando a hipótese complementar “não há elevação do risco de deficiência visual”. Isso segue a demonstração matemática por absurdo e, em vez de verificar uma afirmação, a evidência empírica é usada apenas para falsificá-la. A hipótese estatística é chamada de hipótese nula. A segunda etapa envolve a especificação de um valor para o parâmetro dessa distribuição de probabilidade usada para modelar a variabilidade nas observações. Em nossos exemplos, como o fenômeno é binário (ou seja, presença/ausência de deficiência visual), escolhemos a distribuição binomial com parâmetro p, a probabilidade de deficiência visual. A hipótese nula afirma que = 0.25, digamos. Este valor é escolhido a partir da coleção de conhecimento sobre o tema e conhecimento a priori da prevalência usual de deficiência visual em populações não expostas (isto é, não trabalhadoras). Suponha que nossos dados produzam uma estimativa = 0.50, dos 30 trabalhadores examinados.
Podemos rejeitar a hipótese nula?
Se sim, a favor do que alternativa hipótese?
Especificamos uma hipótese alternativa como candidata caso a evidência determine que a hipótese nula seja rejeitada. As hipóteses alternativas não direcionais (bilaterais) afirmam que o parâmetro da população é diferente do valor declarado na hipótese nula; as hipóteses alternativas direcionais (unilaterais) afirmam que o parâmetro da população é maior (ou menor) que o valor nulo.
Tabela 5. Distribuição binomial. Probabilidades de sucesso para = 0.25 em n = 30 tentativas
X |
Probabilidade |
Probabilidade cumulativa |
0 |
0.0002 |
0.0002 |
1 |
0.0018 |
0.0020 |
2 |
0.0086 |
0.0106 |
3 |
0.0269 |
0.0374 |
4 |
0.0604 |
0.0979 |
5 |
0.1047 |
0.2026 |
6 |
0.1455 |
0.3481 |
7 |
0.1662 |
0.5143 |
8 |
0.1593 |
0.6736 |
9 |
0.1298 |
0.8034 |
10 |
0.0909 |
0.8943 |
11 |
0.0551 |
0.9493 |
12 |
0.0291 |
0.9784 |
13 |
0.0134 |
0.9918 |
14 |
0.0054 |
0.9973 |
15 |
0.0019 |
0.9992 |
16 |
0.0006 |
0.9998 |
17 |
0.0002 |
1.0000 |
. |
. |
. |
30 |
0.0000 |
1.0000 |
Sob a hipótese nula, podemos calcular a distribuição de probabilidade dos resultados do nosso exemplo. A Tabela 5 mostra, para = 0.25 e n = 30, as probabilidades (ver equação (1)) e as probabilidades cumulativas:
A partir desta tabela, obtemos a probabilidade de ter x ³15 trabalhadores com deficiência visual
P(x ³15) = 1 - P(x15) = 1 - 0.9992 = 0.0008
Isso significa que é altamente improvável que observemos 15 ou mais trabalhadores com deficiência visual se eles vivenciassem a prevalência da doença das populações não expostas. Portanto, poderíamos rejeitar a hipótese nula e afirmar que há maior prevalência de deficiência visual na população de trabalhadores estudada.
Quando n×p ³ 5 e n×(1-) ³ 5, podemos usar a aproximação Gaussiana:
Da tabela da distribuição Gaussiana padrão obtemos:
P(|z|>2.95) = 0.0008
de acordo com os resultados exatos. A partir dessa aproximação, podemos ver que a estrutura básica de um teste estatístico de hipótese consiste na relação entre sinal e ruído. No nosso caso, o sinal é (p-), o desvio observado da hipótese nula, enquanto o ruído é o desvio padrão de P:
Quanto maior a razão, menor a probabilidade do valor nulo.
Ao tomar decisões sobre hipóteses estatísticas, podemos incorrer em dois tipos de erros: um erro tipo I, rejeição da hipótese nula quando ela é verdadeira; ou um erro tipo II, aceitação da hipótese nula quando esta é falsa. O nível de probabilidade, ou valor p, é a probabilidade de um erro tipo I, denotado pela letra grega a. Isso é calculado a partir da distribuição de probabilidade das observações sob a hipótese nula. Costuma-se predefinir um nível de erro a (por exemplo, 5%, 1%) e rejeitar a hipótese nula quando o resultado de nossa observação tem uma probabilidade igual ou menor que esse chamado nível crítico.
A probabilidade de um erro tipo II é denotada pela letra grega β. Para calculá-lo, precisamos especificar, na hipótese alternativa, o valor de α para o parâmetro a ser testado (no nosso exemplo, valor de α para ). Hipóteses alternativas genéricas (diferente de, maior que, menor que) não são úteis. Na prática, interessa o valor β para um conjunto de hipóteses alternativas, ou seu complemento, que é chamado de poder estatístico do teste. Por exemplo, fixando o valor do erro α em 5%, da tabela 5, encontramos:
P(x ³12) <0.05
sob a hipótese nula = 0.25. Se fôssemos observar pelo menos x = 12 sucessos, rejeitaríamos a hipótese nula. Os valores β correspondentes e a potência para x = 12 são dados pela tabela 6.
Tabela 6. Erro tipo II e potência para x = 12, n = 30, α = 0.05
β |
Potência |
|
0.30 |
0.9155 |
0.0845 |
0.35 |
0.7802 |
0.2198 |
0.40 |
0.5785 |
0.4215 |
0.45 |
0.3592 |
0.6408 |
0.50 |
0.1808 |
0.8192 |
0.55 |
0.0714 |
0.9286 |
Neste caso, nossos dados não podem discriminar se é maior que o valor nulo de 0.25, mas menor que 0.50, porque o poder do estudo é muito baixo (<80%) para esses valores de <0.50 - ou seja, a sensibilidade do nosso estudo é de 8% para = 0.3, 22% para = 0.35,…, 64% para = 0.45.
A única maneira de obter um β mais baixo, ou um nível de poder mais alto, seria aumentar o tamanho do estudo. Por exemplo, na tabela 7 relatamos β e poder para n = 40; como esperado, devemos ser capazes de detectar um valor maior que 0.40.
Tabela 7. Erro tipo II e potência para x = 12, n = 40, α = 0.05
β |
Potência |
|
0.30 |
0.5772 |
0.4228 |
0.35 |
0.3143 |
0.6857 |
0.40 |
0.1285 |
0.8715 |
0.45 |
0.0386 |
0.8614 |
0.50 |
0.0083 |
0.9917 |
0.55 |
0.0012 |
0.9988 |
O desenho do estudo é baseado no escrutínio cuidadoso do conjunto de hipóteses alternativas que merecem consideração e garantem poder ao estudo fornecendo um tamanho de amostra adequado.
Na literatura epidemiológica, a relevância de fornecer estimativas de risco confiáveis tem sido enfatizada. Portanto, é mais importante relatar intervalos de confiança (seja 95% ou 90%) do que um p-valor de um teste de uma hipótese. Seguindo o mesmo raciocínio, atenção deve ser dada à interpretação dos resultados de estudos de pequeno porte: devido ao baixo poder, mesmo efeitos intermediários podem passar despercebidos e, por outro lado, efeitos de grande magnitude podem não ser replicados posteriormente.
Métodos Avançados
O grau de complexidade dos métodos estatísticos utilizados no contexto da medicina do trabalho tem vindo a aumentar ao longo dos últimos anos. Os principais desenvolvimentos podem ser encontrados na área de modelagem estatística. A família de modelos não Gaussianos de Nelder e Wedderburn (Modelos Lineares Generalizados) tem sido uma das contribuições mais marcantes para o aumento do conhecimento em áreas como a epidemiologia ocupacional, onde as variáveis de resposta relevantes são binárias (por exemplo, sobrevivência/morte) ou contagens (por exemplo, número de acidentes industriais).
Este foi o ponto de partida para uma ampla aplicação de modelos de regressão como alternativa aos tipos mais tradicionais de análise baseados em tabelas de contingência (análise simples e estratificada). Poisson, Cox e regressão logística são agora rotineiramente usadas para a análise de estudos longitudinais e de caso-controle, respectivamente. Esses modelos são a contrapartida da regressão linear para variáveis de resposta categórica e têm a característica elegante de fornecer diretamente a medida epidemiológica relevante de associação. Por exemplo, os coeficientes da regressão de Poisson são o logaritmo das razões de taxas, enquanto os da regressão logística são o logaritmo das razões de chances.
Tendo isso como referência, os desenvolvimentos posteriores na área de modelagem estatística tomaram duas direções principais: modelos para medidas categóricas repetidas e modelos que estendem os Modelos Lineares Generalizados (Modelos Aditivos Generalizados). Em ambos os casos, o objetivo é aumentar a flexibilidade das ferramentas estatísticas para lidar com problemas mais complexos decorrentes da realidade. Modelos de medidas repetidas são necessários em muitos estudos ocupacionais onde as unidades de análise estão no nível subindividual. Por exemplo:
Um desenvolvimento paralelo e provavelmente mais rápido foi observado no contexto das estatísticas bayesianas. A barreira prática de usar métodos bayesianos desmoronou após a introdução de métodos intensivos em computador. Os procedimentos de Monte Carlo, como os esquemas de amostragem de Gibbs, nos permitiram evitar a necessidade de integração numérica para calcular as distribuições posteriores, que representavam a característica mais desafiadora dos métodos bayesianos. O número de aplicações de modelos bayesianos em problemas reais e complexos tem encontrado espaço cada vez maior nos periódicos aplicados. Por exemplo, análises geográficas e correlações ecológicas no nível de pequenas áreas e modelos de previsão de AIDS são cada vez mais abordados usando abordagens bayesianas. Esses desenvolvimentos são bem-vindos porque representam não apenas um aumento no número de soluções estatísticas alternativas que podem ser empregadas na análise de dados epidemiológicos, mas também porque a abordagem bayesiana pode ser considerada uma estratégia mais sólida.
Os artigos anteriores deste capítulo mostraram a necessidade de uma avaliação cuidadosa do desenho do estudo para extrair inferências confiáveis de observações epidemiológicas. Embora tenha sido afirmado que as inferências em epidemiologia observacional são fracas devido à natureza não experimental da disciplina, não há superioridade embutida de ensaios controlados randomizados ou outros tipos de desenho experimental sobre a observação bem planejada (Cornfield 1954). No entanto, fazer inferências sólidas implica uma análise minuciosa do desenho do estudo para identificar fontes potenciais de viés e confusão. Os resultados falsos positivos e falsos negativos podem se originar de diferentes tipos de viés.
Neste artigo, são discutidas algumas das diretrizes propostas para avaliar a natureza causal das observações epidemiológicas. Além disso, embora a boa ciência seja uma premissa para a pesquisa epidemiológica eticamente correta, há questões adicionais que são relevantes para as preocupações éticas. Portanto, dedicamos algumas discussões à análise dos problemas éticos que podem surgir na realização de estudos epidemiológicos.
Avaliação de causalidade
Vários autores discutiram a avaliação de causalidade em epidemiologia (Hill 1965; Buck 1975; Ahlbom 1984; Maclure 1985; Miettinen 1985; Rothman 1986; Weed 1986; Schlesselman 1987; Maclure 1988; Weed 1988; Karhausen 1995). Um dos principais pontos de discussão é se a epidemiologia utiliza ou deveria utilizar os mesmos critérios de determinação das relações de causa e efeito utilizados em outras ciências.
Causas não devem ser confundidas com mecanismos. Por exemplo, o amianto é uma causa de mesotelioma, enquanto a mutação oncogênica é um mecanismo putativo. Com base nas evidências existentes, é provável que (a) diferentes exposições externas possam atuar nos mesmos estágios mecanicistas e (b) geralmente não há uma sequência fixa e necessária de etapas mecanísticas no desenvolvimento da doença. Por exemplo, a carcinogênese é interpretada como uma sequência de transições estocásticas (probabilísticas), da mutação genética à proliferação celular e à mutação genética novamente, que eventualmente leva ao câncer. Além disso, a carcinogênese é um processo multifatorial, ou seja, diferentes exposições externas são capazes de afetá-la e nenhuma delas é necessária em uma pessoa suscetível. É provável que esse modelo se aplique a várias doenças além do câncer.
Essa natureza multifatorial e probabilística da maioria das relações exposição-doença implica que desvendar o papel desempenhado por uma exposição específica é problemático. Além disso, a natureza observacional da epidemiologia nos impede de realizar experimentos que possam esclarecer as relações etiológicas por meio de uma alteração deliberada do curso dos eventos. A observação de uma associação estatística entre exposição e doença não significa que a associação seja causal. Por exemplo, a maioria dos epidemiologistas interpretou a associação entre a exposição ao escapamento de diesel e o câncer de bexiga como causal, mas outros afirmaram que os trabalhadores expostos ao escapamento de diesel (principalmente motoristas de caminhão e táxi) são mais fumantes do que indivíduos não expostos . A associação observada, de acordo com esta alegação, seria “confundida” por um fator de risco bem conhecido como o tabagismo.
Dada a natureza multifatorial probabilística da maioria das associações exposição-doença, os epidemiologistas desenvolveram diretrizes para reconhecer as relações que provavelmente são causais. Estas são as diretrizes originalmente propostas por Sir Bradford Hill para doenças crônicas (1965):
Esses critérios devem ser considerados apenas como diretrizes gerais ou ferramentas práticas; na verdade, a avaliação causal científica é um processo iterativo centrado na medição da relação exposição-doença. No entanto, os critérios de Hill muitas vezes são usados como uma descrição concisa e prática de procedimentos de inferência causal em epidemiologia.
Vejamos o exemplo da relação entre a exposição ao cloreto de vinila e o angiossarcoma hepático, aplicando os critérios de Hill.
A expressão usual dos resultados de um estudo epidemiológico é uma medida do grau de associação entre exposição e doença (primeiro critério de Hill). Um risco relativo (RR) maior que a unidade significa que existe uma associação estatística entre exposição e doença. Por exemplo, se a taxa de incidência de angiossarcoma hepático é geralmente de 1 em 10 milhões, mas é de 1 em 100,000 entre os expostos ao cloreto de vinila, então o RR é 100 (ou seja, as pessoas que trabalham com cloreto de vinila têm um aumento de 100 vezes risco de desenvolver angiossarcoma em comparação com pessoas que não trabalham com cloreto de vinila).
É mais provável que uma associação seja causal quando o risco aumenta com níveis crescentes de exposição (efeito dose-resposta, segundo critério de Hill) e quando a relação temporal entre exposição e doença faz sentido em bases biológicas (a exposição precede o efeito e o duração deste período de “indução” é compatível com um modelo biológico de doença; terceiro critério de Hill). Além disso, é mais provável que uma associação seja causal quando resultados semelhantes são obtidos por outros que foram capazes de replicar os achados em diferentes circunstâncias (“consistência”, o quarto critério de Hill).
Uma análise científica dos resultados requer uma avaliação da plausibilidade biológica (quinto critério de Hill). Isso pode ser alcançado de diferentes maneiras. Por exemplo, um critério simples é avaliar se a suposta “causa” consegue atingir o órgão-alvo (por exemplo, substâncias inaladas que não atingem o pulmão não conseguem circular no organismo). Além disso, evidências de estudos em animais são úteis: a observação de angiossarcomas hepáticos em animais tratados com cloreto de vinila reforça fortemente a associação observada no homem.
A coerência interna das observações (por exemplo, o RR aumenta de forma semelhante em ambos os sexos) é um importante critério científico (sexto critério de Hill). A causalidade é mais provável quando a relação é muito específica - isto é, envolve causas raras e/ou doenças raras, ou um tipo histológico/subgrupo específico de pacientes (sétimo critério de Hill).
A “indução enumerativa” (a simples enumeração de instâncias de associação entre exposição e doença) é insuficiente para descrever completamente as etapas indutivas no raciocínio causal. Normalmente, o resultado da indução enumerativa produz uma observação complexa e ainda confusa porque diferentes cadeias causais ou, mais frequentemente, uma relação causal genuína e outras exposições irrelevantes estão emaranhadas. Explicações alternativas devem ser eliminadas por meio da “indução eliminativa”, mostrando que uma associação provavelmente é causal porque não é “confundida” com outras. Uma definição simples de uma explicação alternativa é “um fator estranho cujo efeito é misturado com o efeito da exposição de juros, distorcendo assim a estimativa de risco para a exposição de juros” (Rothman 1986).
O papel da indução é expandir o conhecimento, enquanto o papel da dedução é “transmitir a verdade” (Giere 1979). O raciocínio dedutivo examina o desenho do estudo e identifica associações que não são empiricamente verdadeiras, mas apenas logicamente verdadeiras. Tais associações não são uma questão de fato, mas necessidades lógicas. Por exemplo, um viés de seleção ocorre quando o grupo exposto é selecionado entre pessoas doentes (como quando iniciamos um estudo de coorte recrutando como “exposto” ao cloreto de vinila um grupo de casos de angiossarcoma hepático) ou quando o grupo não exposto é selecionado entre pessoas saudáveis. Em ambos os casos, a associação encontrada entre exposição e doença é necessariamente (logicamente), mas não empiricamente verdadeira (Vineis 1991).
Para concluir, mesmo quando se considera sua natureza observacional (não experimental), a epidemiologia não utiliza procedimentos inferenciais que diferem substancialmente da tradição de outras disciplinas científicas (Hume 1978; Schaffner 1993).
Questões éticas na pesquisa epidemiológica
Devido às sutilezas envolvidas na inferência da causalidade, os epidemiologistas devem ter cuidado especial ao interpretar seus estudos. Com efeito, daí decorrem várias preocupações de natureza ética.
As questões éticas na pesquisa epidemiológica tornaram-se um assunto de intensa discussão (Schulte 1989; Soskolne 1993; Beauchamp et al. 1991). A razão é evidente: os epidemiologistas, em particular os epidemiologistas ocupacionais e ambientais, muitas vezes estudam questões com implicações econômicas, sociais e políticas de saúde significativas. Os resultados negativos e positivos relativos à associação entre exposições químicas específicas e doenças podem afetar a vida de milhares de pessoas, influenciar decisões econômicas e, portanto, condicionar seriamente as escolhas políticas. Assim, o epidemiologista pode estar sob pressão e ser tentado ou mesmo encorajado por outros a alterar – marginal ou substancialmente – a interpretação dos resultados de suas investigações.
Entre as várias questões relevantes, transparência de coleta de dados, codificação, computadorização e análise é fundamental como defesa contra alegações de viés por parte do pesquisador. Também crucial, e potencialmente conflitante com essa transparência, é o direito dos sujeitos inscritos em pesquisas epidemiológicas de serem protegidos contra a divulgação de informações pessoais
(confidencialidade questões).
Do ponto de vista das condutas impróprias que podem surgir especialmente no contexto da inferência causal, as questões que devem ser abordadas pelas diretrizes éticas são:
Outras questões cruciais, no caso da epidemiologia ocupacional e ambiental, referem-se ao envolvimento dos trabalhadores nas fases preliminares dos estudos e à divulgação dos resultados de um estudo aos sujeitos que foram inscritos e são diretamente afetados (Schulte 1989 ). Infelizmente, não é prática comum que os trabalhadores inscritos em estudos epidemiológicos estejam envolvidos em discussões colaborativas sobre os objetivos do estudo, sua interpretação e os usos potenciais dos resultados (que podem ser tanto vantajosos quanto prejudiciais para o trabalhador).
Respostas parciais a essas questões foram fornecidas por diretrizes recentes (Beauchamp et al. 1991; CIOMS 1991). No entanto, em cada país, as associações profissionais de epidemiologistas ocupacionais devem se envolver em uma discussão aprofundada sobre questões éticas e, possivelmente, adotar um conjunto de diretrizes éticas adequadas ao contexto local, ao mesmo tempo em que reconhecem padrões normativos de prática internacionalmente aceitos.
A documentação de doenças ocupacionais em um país como Taiwan é um desafio para um médico do trabalho. Por falta de um sistema que incluísse fichas de dados de segurança de materiais (MSDS), os trabalhadores geralmente não conheciam os produtos químicos com os quais trabalham. Como muitas doenças ocupacionais têm latências longas e não apresentam sintomas e sinais específicos até que sejam clinicamente evidentes, o reconhecimento e a identificação da origem ocupacional costumam ser muito difíceis.
Para um melhor controle das doenças ocupacionais, acessamos bancos de dados que fornecem uma lista relativamente completa de produtos químicos industriais e um conjunto de sinais e/ou sintomas específicos. Combinado com a abordagem epidemiológica de conjecturas e refutações (ou seja, considerando e descartando todas as possíveis explicações alternativas), documentamos mais de dez tipos de doenças ocupacionais e um surto de botulismo. Recomendamos que uma abordagem semelhante seja aplicada a qualquer outro país em uma situação semelhante e que um sistema envolvendo uma folha de identificação (por exemplo, MSDS) para cada produto químico seja defendido e implementado como um meio de permitir o reconhecimento imediato e, portanto, a prevenção de doenças ocupacionais doenças.
Hepatite em uma fábrica de impressão colorida
Três trabalhadores de uma gráfica colorida foram internados em hospitais comunitários em 1985 com manifestações de hepatite aguda. Um dos três tinha insuficiência renal aguda sobreposta. Como a hepatite viral tem alta prevalência em Taiwan, devemos considerar uma origem viral entre as etiologias mais prováveis. O uso de álcool e drogas, bem como solventes orgânicos no local de trabalho, também deve ser incluído. Como não havia sistema de MSDS em Taiwan, nem os funcionários nem o empregador estavam cientes de todos os produtos químicos usados na fábrica (Wang 1991).
Tivemos que compilar uma lista de agentes hepatotóxicos e nefrotóxicos de vários bancos de dados toxicológicos. Em seguida, deduzimos todas as inferências possíveis das hipóteses acima. Por exemplo, se o vírus da hepatite A (HAV) fosse a etiologia, deveríamos observar anticorpos (HAV-IgM) entre os trabalhadores afetados; se o vírus da hepatite B fosse a etiologia, deveríamos observar mais portadores de antígenos de superfície da hepatite B (HBsAg) entre os trabalhadores afetados em comparação com os trabalhadores não afetados; se o álcool fosse a principal etiologia, deveríamos observar mais alcoólatras ou alcoólatras crônicos entre os trabalhadores afetados; se algum solvente tóxico (por exemplo, clorofórmio) fosse a etiologia, deveríamos encontrá-lo no local de trabalho.
Fizemos uma avaliação médica completa para cada trabalhador. A etiologia viral foi facilmente refutada, assim como a hipótese do álcool, pois não puderam ser corroboradas pelas evidências.
Em vez disso, 17 dos 25 trabalhadores da fábrica tiveram testes de função hepática anormais, e uma associação significativa foi encontrada entre a presença de função hepática anormal e um histórico de ter trabalhado recentemente em qualquer uma das três salas nas quais um sistema de ar condicionado interconectado havia sido instalado. instalado para resfriar as máquinas de impressão. A associação permaneceu após a estratificação pelo status de portador de hepatite B. Posteriormente, foi determinado que o incidente ocorreu após o uso inadvertido de um “agente de limpeza” (que era tetracloreto de carbono) para limpar uma bomba na máquina de impressão. Além disso, um teste de simulação da operação de limpeza da bomba revelou níveis de tetracloreto de carbono no ar ambiente de 115 a 495 ppm, o que poderia produzir danos hepáticos. Em nova tentativa de refutação, ao eliminar o tetracloreto de carbono do local de trabalho, verificamos que não ocorreram mais novos casos, e todos os trabalhadores afetados melhoraram após afastamento do local de trabalho por 20 dias. Portanto, concluímos que o surto foi devido ao uso de tetracloreto de carbono.
Sintomas neurológicos em uma gráfica colorida
Em setembro de 1986, um aprendiz em uma fábrica de impressão colorida em Chang-Hwa desenvolveu repentinamente fraqueza bilateral aguda e paralisia respiratória. O pai da vítima alegou por telefone que havia vários outros trabalhadores com sintomas semelhantes. Como as gráficas coloridas já foram documentadas como tendo doenças ocupacionais resultantes da exposição a solventes orgânicos, fomos ao local de trabalho para determinar a etiologia com a hipótese de possível intoxicação por solvente em mente (Wang 1991).
Nossa prática comum, no entanto, era considerar todas as conjecturas alternativas, incluindo outros problemas médicos, incluindo a função prejudicada dos neurônios motores superiores, dos neurônios motores inferiores, bem como da junção neuromuscular. Mais uma vez, deduzimos declarações de resultado das hipóteses acima. Por exemplo, se qualquer solvente relatado para produzir polineuropatia (por exemplo, n-hexano, metil butilcetona, acrilamida) fosse a causa, também prejudicaria a velocidade de condução nervosa (NCV); se fossem outros problemas médicos envolvendo os neurônios motores superiores, haveria sinais de consciência prejudicada e/ou movimento involuntário.
As observações de campo revelaram que todos os trabalhadores afetados tiveram uma consciência limpa durante todo o curso clínico. Um estudo NCV de três trabalhadores afetados mostrou neurônios motores inferiores intactos. Não havia movimento involuntário, história de medicação ou picadas antes do aparecimento dos sintomas, e o teste de neostigmina foi negativo. Foi encontrada uma associação significativa entre doença e tomar café da manhã no refeitório da fábrica em 26 ou 27 de setembro; sete dos sete trabalhadores afetados contra sete dos 32 trabalhadores não afetados tomaram café da manhã na fábrica nesses dois dias. Um esforço adicional de teste mostrou que a toxina botulínica tipo A foi detectada em amendoim enlatado fabricado por uma empresa não licenciada, e seu espécime também mostrou um crescimento total de Clostridium botulinum. Um julgamento refutação final foi a remoção de tais produtos do mercado comercial, que não resultou em novos casos. Esta investigação documentou os primeiros casos de botulismo de um produto alimentar comercial em Taiwan.
Lesões cutâneas pré-malignas entre fabricantes de paraquat
Em junho de 1983, dois trabalhadores de uma fábrica de paraquat visitaram uma clínica de dermatologia queixando-se de numerosas máculas hiperpigmentadas bilaterais com alterações hiperceratóticas em partes de suas mãos, pescoço e face expostas ao sol. Algumas amostras de pele também mostraram alterações Bowenoides. Uma vez que lesões cutâneas malignas e pré-malignas foram relatadas entre os trabalhadores da fabricação de bipiridil, uma causa ocupacional foi fortemente suspeitada. No entanto, também tivemos que considerar outras causas alternativas (ou hipóteses) de câncer de pele, como exposição à radiação ionizante, alcatrão de hulha, piche, fuligem ou qualquer outro hidrocarboneto poliaromático (PAH). Para descartar todas essas conjecturas, realizamos um estudo em 1985, visitando todas as 28 fábricas que já se envolveram na fabricação ou embalagem de paraquat e examinando os processos de fabricação, bem como os trabalhadores (Wang et al. 1987; Wang 1993).
Examinamos 228 trabalhadores e nenhum deles já havia sido exposto aos carcinógenos cutâneos mencionados, exceto luz solar e 4'-4'-bipiridina e seus isômeros. Depois de excluir trabalhadores com múltiplas exposições, descobrimos que um de sete administradores e dois de 82 trabalhadores de embalagem de paraquat desenvolveram lesões cutâneas hiperpigmentadas, em comparação com três de três trabalhadores envolvidos apenas na cristalização e centrifugação de bipiridina. Além disso, todos os 17 trabalhadores com lesões hiperqueratóticas ou de Bowen tinham história de exposição direta ao bipiridil e seus isômeros. Quanto mais longa a exposição aos bipiridilos, maior a probabilidade de desenvolvimento de lesões cutâneas, e essa tendência não pode ser explicada pela luz solar ou pela idade, conforme demonstrado pela estratificação e análise de regressão logística. Portanto, a lesão cutânea foi atribuída provisoriamente a uma combinação de exposições ao bipiridil e à luz solar. Fizemos novas tentativas de refutação para acompanhar se algum novo caso ocorreu após incluir todos os processos envolvendo exposição a bipiridilos. Nenhum novo caso foi encontrado.
Discussão e Conclusões
Os três exemplos acima ilustraram a importância de se adotar uma abordagem refutacional e um banco de dados de doenças ocupacionais. A primeira nos faz sempre considerar hipóteses alternativas da mesma forma que a hipótese inicial intuitiva, enquanto a segunda fornece uma lista detalhada de agentes químicos que podem nos guiar para a verdadeira etiologia. Uma possível limitação dessa abordagem é que podemos considerar apenas as explicações alternativas que podemos imaginar. Se nossa lista de alternativas estiver incompleta, podemos ficar sem resposta ou com uma resposta errada. Portanto, um banco de dados abrangente de doenças ocupacionais é crucial para o sucesso dessa estratégia.
Costumávamos construir nosso próprio banco de dados de maneira trabalhosa. No entanto, os bancos de dados OSH-ROM publicados recentemente, que contêm o banco de dados NIOSHTIC de mais de 160,000 resumos, podem ser um dos mais abrangentes para esse fim, conforme discutido em outra parte do enciclopédia. Além disso, se ocorrer uma nova doença ocupacional, podemos pesquisar esse banco de dados e descartar todos os agentes etiológicos conhecidos, sem deixar nenhum sem refutação. Em tal situação, podemos tentar identificar ou definir o novo agente (ou ambiente ocupacional) tão especificamente quanto possível para que o problema possa primeiro ser mitigado e, em seguida, testar outras hipóteses. O caso de lesões cutâneas pré-malignas entre os fabricantes de paraquat é um bom exemplo desse tipo.
Papel dos questionários na pesquisa epidemiológica
A pesquisa epidemiológica é geralmente realizada para responder a uma questão de pesquisa específica que relaciona a exposição de indivíduos a substâncias ou situações perigosas com resultados de saúde subsequentes, como câncer ou morte. No cerne de quase todas essas investigações está um questionário que constitui a ferramenta básica de coleta de dados. Mesmo quando medições físicas devem ser feitas em um ambiente de trabalho, e especialmente quando materiais biológicos como soro devem ser coletados de sujeitos de estudo expostos ou não expostos, um questionário é essencial para desenvolver um quadro de exposição adequado coletando sistematicamente dados pessoais e outros características de forma organizada e uniforme.
O questionário atende a uma série de funções críticas de pesquisa:
Lugar do desenho do questionário dentro dos objetivos gerais do estudo
Embora o questionário seja frequentemente a parte mais visível de um estudo epidemiológico, particularmente para os trabalhadores ou outros participantes do estudo, ele é apenas uma ferramenta e, de fato, é frequentemente chamado de “instrumento” pelos pesquisadores. A Figura 1 descreve de forma muito geral as etapas do desenho da pesquisa desde a concepção até a coleta e análise de dados. A figura mostra quatro níveis ou camadas de operação de estudo que ocorrem em paralelo ao longo da vida do estudo: amostragem, questionário, operações e análise. A figura demonstra claramente a maneira como os estágios de desenvolvimento do questionário estão relacionados ao plano de estudo geral, procedendo de um esboço inicial a um primeiro rascunho do questionário e seus códigos associados, seguido de pré-teste dentro de uma subpopulação selecionada, um ou mais revisões ditadas por experiências de pré-teste e preparação do documento final para coleta de dados reais no campo. O mais importante é o contexto: cada estágio de desenvolvimento do questionário é realizado em conjunto com um estágio correspondente de criação e refinamento do plano de amostragem geral, bem como o desenho operacional para administração do questionário.
Figura 1. Painel do As etapas de uma pesquisa
Tipos de estudos e questionários
Os objetivos de pesquisa do próprio estudo determinam a estrutura, extensão e conteúdo do questionário. Esses atributos do questionário são invariavelmente temperados pelo método de coleta de dados, que geralmente se enquadra em um dos três modos: pessoalmente, correio e telefone. Cada um deles tem suas vantagens e desvantagens que podem afetar não apenas a qualidade dos dados, mas também a validade do estudo como um todo.
A questionário enviado é o formato mais barato e pode abranger trabalhadores em uma ampla área geográfica. No entanto, visto que as taxas gerais de resposta são frequentemente baixas (normalmente 45 a 75%), não pode ser muito complexo, pois há pouca ou nenhuma oportunidade para esclarecimento de dúvidas, e pode ser difícil determinar se as possíveis respostas à exposição crítica ou outras perguntas diferem sistematicamente entre respondentes e não respondentes. O layout físico e a linguagem devem acomodar os menos instruídos participantes do estudo em potencial e devem ser concluídos em um período de tempo bastante curto, geralmente de 20 a 30 minutos.
Questionários por telefone podem ser usados em estudos populacionais - isto é, pesquisas nas quais uma amostra de uma população geograficamente definida é investigada - e são um método prático para atualizar informações em arquivos de dados existentes. Eles podem ser mais longos e complexos do que os questionários enviados por correio em linguagem e conteúdo e, como são administrados por entrevistadores treinados, o maior custo de uma pesquisa por telefone pode ser parcialmente compensado pela estruturação física do questionário para administração eficiente (como por meio de padrões de salto). As taxas de resposta são geralmente melhores do que com questionários enviados pelo correio, mas estão sujeitas a vieses relacionados ao uso crescente de secretárias eletrônicas, recusas, falta de contato e problemas de populações com serviço telefônico limitado. Tais vieses geralmente se relacionam com o desenho da amostragem em si e não especialmente com o questionário. Embora os questionários telefônicos estejam em uso há muito tempo na América do Norte, sua viabilidade em outras partes do mundo ainda não foi estabelecida.
Cara a cara as entrevistas fornecem a maior oportunidade para coletar dados complexos e precisos; eles também são os mais caros de administrar, pois exigem treinamento e viagens para a equipe profissional. O layout físico e a ordem das perguntas podem ser organizados para otimizar o tempo de administração. Os estudos que utilizam entrevistas pessoais geralmente têm as taxas de resposta mais altas e estão sujeitos ao menor viés de resposta. Este também é o tipo de entrevista em que o entrevistador tem maior probabilidade de saber se o participante é ou não um caso (em um estudo de caso-controle) ou o status de exposição do participante (em um estudo de coorte). Portanto, deve-se tomar cuidado para preservar a objetividade do entrevistador, treinando-o para evitar perguntas indutoras e linguagem corporal que possam evocar respostas tendenciosas.
Está se tornando mais comum usar um projeto de estudo híbrido em que situações complexas de exposição são avaliadas em uma entrevista pessoal ou por telefone que permite o máximo de sondagem e esclarecimento, seguida de um questionário enviado pelo correio para coletar dados de estilo de vida, como tabagismo e dieta.
Confidencialidade e questões dos participantes da pesquisa
Uma vez que o objetivo de um questionário é obter dados sobre indivíduos, o desenho do questionário deve ser guiado por padrões estabelecidos para o tratamento ético de seres humanos. Essas diretrizes se aplicam à aquisição de dados de questionários da mesma forma que para amostras biológicas, como sangue e urina, ou para testes genéticos. Nos Estados Unidos e em muitos outros países, nenhum estudo envolvendo seres humanos pode ser realizado com fundos públicos, a menos que a aprovação da linguagem e do conteúdo do questionário seja obtida primeiro de um Conselho de Revisão Institucional apropriado. Essa aprovação destina-se a garantir que as perguntas sejam limitadas aos propósitos legítimos do estudo e que não violem os direitos dos participantes do estudo de responder às perguntas voluntariamente. Os participantes devem ter certeza de que sua participação no estudo é totalmente voluntária e que a recusa em responder perguntas ou mesmo em participar não os sujeitará a nenhuma penalidade ou alterará seu relacionamento com seu empregador ou médico.
Os participantes também devem ter certeza de que as informações fornecidas serão mantidas em estrita confidencialidade pelo investigador, que deve, obviamente, tomar medidas para manter a segurança física e a inviolabilidade dos dados. Isso geralmente envolve a separação física de informações sobre a identidade dos participantes de arquivos de dados computadorizados. É prática comum avisar aos participantes do estudo que suas respostas aos itens do questionário serão usadas apenas em conjunto com as respostas de outros participantes em relatórios estatísticos e não serão divulgadas ao empregador, médico ou outras partes.
Aspectos de medição do design do questionário
Uma das funções mais importantes de um questionário é obter dados sobre algum aspecto ou atributo de uma pessoa de forma qualitativa ou quantitativa. Alguns itens podem ser tão simples quanto peso, altura ou idade, enquanto outros podem ser consideravelmente mais complicados, como a resposta de um indivíduo ao estresse. Respostas qualitativas, como gênero, normalmente serão convertidas em variáveis numéricas. Todas essas medidas podem ser caracterizadas por sua validade e confiabilidade. A validade é o grau em que um número derivado do questionário se aproxima de seu valor verdadeiro, mas possivelmente desconhecido. A confiabilidade mede a probabilidade de que uma determinada medição produzirá o mesmo resultado na repetição, esteja esse resultado próximo da “verdade” ou não. A Figura 2 mostra como esses conceitos estão relacionados. Demonstra que uma medida pode ser válida, mas não confiável, confiável, mas não válida, ou válida e confiável.
Figura 2. Relação de validade e confiabilidade
Ao longo dos anos, muitos questionários foram desenvolvidos por pesquisadores para responder a questões de pesquisa de amplo interesse. Os exemplos incluem o Scholastic Aptitude Test, que mede o potencial de um aluno para desempenho acadêmico futuro, e o Minnesota Multiphasic Personality Inventory (MMPI), que mede certas características psicossociais. Uma variedade de outros indicadores psicológicos é discutida no capítulo sobre psicometria. Existem também escalas fisiológicas estabelecidas, como o questionário do British Medical Research Council (BMRC) para função pulmonar. Esses instrumentos têm uma série de vantagens importantes. O principal deles é o fato de que eles já foram desenvolvidos e testados, geralmente em muitas populações, e que sua confiabilidade e validade são conhecidas. Qualquer pessoa que esteja construindo um questionário é aconselhada a utilizar essas escalas se elas se adequarem ao objetivo do estudo. Eles não apenas economizam o esforço de “reinventar a roda”, mas tornam mais provável que os resultados do estudo sejam aceitos como válidos pela comunidade de pesquisa. Também permite comparações mais válidas de resultados de diferentes estudos, desde que tenham sido usados adequadamente.
As escalas anteriores são exemplos de dois tipos importantes de medidas que são comumente usadas em questionários para quantificar conceitos que podem não ser totalmente mensuráveis objetivamente da mesma forma que altura e peso, ou que requerem muitas perguntas semelhantes para “explorar totalmente o domínio” de um padrão comportamental específico. De forma mais geral, índices e escalas são duas técnicas de redução de dados que fornecem um resumo numérico de grupos de questões. Os exemplos acima ilustram índices fisiológicos e psicológicos, e também são frequentemente usados para medir conhecimento, atitude e comportamento. Resumidamente, um índice é geralmente construído como uma pontuação obtida pela contagem, entre um grupo de questões relacionadas, do número de itens que se aplicam a um participante do estudo. Por exemplo, se um questionário apresenta uma lista de doenças, um índice de histórico de doenças pode ser o número total daquelas que um respondente diz ter tido. UMA escada é uma medida composta baseada na intensidade com que um participante responde a uma ou mais perguntas relacionadas. Por exemplo, a escala Likert, que é frequentemente usada em pesquisa social, é tipicamente construída a partir de afirmações com as quais se pode concordar fortemente, concordar fracamente, não oferecer opinião, discordar fracamente ou discordar fortemente, sendo a resposta pontuada como um número de 1 a 5. Escalas e índices podem ser somados ou combinados de outra forma para formar uma imagem bastante complexa das características físicas, psicológicas, sociais ou comportamentais dos participantes do estudo.
A validade merece consideração especial por refletir a “verdade”. Três tipos importantes de validade frequentemente discutidos são a validade de face, de conteúdo e de critério. Validade de face é uma qualidade subjetiva de um indicador que garante que a redação de uma pergunta seja clara e inequívoca. Validade do conteúdo garante que as perguntas servirão para explorar aquela dimensão de resposta na qual o pesquisador está interessado. Critério (ou preditivo) validade é derivado de uma avaliação objetiva de quão perto uma medição de questionário se aproxima de uma quantidade mensurável separadamente, como, por exemplo, quão bem uma avaliação de questionário de ingestão dietética de vitamina A corresponde ao consumo real de vitamina A, com base no consumo de alimentos documentado com registros dietéticos.
Conteúdo, qualidade e duração do questionário
Redação. Formular perguntas é uma arte e uma habilidade profissional. Portanto, apenas as diretrizes mais gerais podem ser apresentadas. É geralmente aceito que perguntas devem ser elaboradas que:
Sequência e estrutura das perguntas. Tanto a ordem quanto a apresentação das perguntas podem afetar a qualidade das informações coletadas. Um questionário típico, autoaplicável ou lido por um entrevistador, contém um prólogo que apresenta o estudo e seu tópico ao entrevistado, fornece qualquer informação adicional de que ele precise e tenta motivar o entrevistado a responder às perguntas. A maioria dos questionários contém uma seção destinada a coletar informações demográficas, como idade, sexo, origem étnica e outras variáveis sobre a origem do participante, incluindo possíveis variáveis de confusão. O assunto principal da coleta de dados, como a natureza do local de trabalho e a exposição a substâncias específicas, geralmente é uma seção distinta do questionário e geralmente é precedida por um prólogo introdutório próprio que pode primeiro lembrar o participante de aspectos específicos do trabalho ou local de trabalho, a fim de criar um contexto para perguntas detalhadas. A disposição das questões que se destinam a estabelecer cronologias da vida profissional deve ser organizada de forma a minimizar o risco de omissões cronológicas. Por fim, costuma-se agradecer ao respondente por sua participação.
Tipos de perguntas. O designer deve decidir se deve usar perguntas abertas nas quais os participantes elaboram suas próprias respostas ou perguntas fechadas que exigem uma resposta definitiva ou uma escolha em um pequeno menu de respostas possíveis. As perguntas fechadas têm a vantagem de esclarecer as alternativas para o entrevistado, evitar respostas precipitadas e minimizar longas divagações que podem ser impossíveis de interpretar. No entanto, exigem que o designer antecipe o leque de possíveis respostas para evitar a perda de informações, principalmente para situações inesperadas que ocorrem em muitos locais de trabalho. Isso, por sua vez, requer testes-piloto bem planejados. O investigador deve decidir se e até que ponto permitir uma categoria de resposta “não sei”.
Comprimento. Determinar o comprimento final de um questionário requer encontrar um equilíbrio entre o desejo de obter o máximo de informações detalhadas possível para atingir os objetivos do estudo com o fato de que, se um questionário for muito longo, em algum momento muitos entrevistados perderão o interesse e pararão de responder ou responder apressadamente, imprecisamente e sem pensar para encerrar a sessão. Por outro lado, um questionário muito curto pode obter uma alta taxa de resposta, mas não atingir os objetivos do estudo. Uma vez que a motivação do respondente muitas vezes depende de ter um interesse pessoal no resultado, como melhorar as condições de trabalho, a tolerância para um questionário longo pode variar muito, especialmente quando alguns participantes (como trabalhadores de uma determinada fábrica) podem perceber que seu interesse é maior do que outros (como pessoas contatadas por discagem telefônica aleatória). Esse equilíbrio só pode ser alcançado por meio de testes piloto e experiência. Os questionários administrados pelo entrevistador devem registrar o horário inicial e final para permitir o cálculo da duração da entrevista. Esta informação é útil para avaliar o nível de qualidade dos dados.
Língua. É fundamental usar a linguagem da população para que as questões sejam compreendidas por todos. Isso pode exigir a familiarização com o vernáculo local, que pode variar dentro de um país. Mesmo em países onde o mesmo idioma é nominalmente falado, como a Grã-Bretanha e os Estados Unidos, ou os países de língua espanhola da América Latina, as expressões idiomáticas locais e o uso podem variar de uma forma que pode obscurecer a interpretação. Por exemplo, nos Estados Unidos, “chá” é apenas uma bebida, enquanto na Grã-Bretanha pode significar “um bule de chá”, “chá da tarde” ou “a refeição principal da noite”, dependendo da localidade e do contexto. É especialmente importante evitar o jargão científico, exceto quando se espera que os participantes do estudo possuam conhecimentos técnicos específicos.
Clareza e perguntas direcionadas. Embora muitas vezes as perguntas mais curtas sejam mais claras, há exceções, especialmente quando um assunto complexo precisa ser introduzido. No entanto, perguntas curtas esclarecem o pensamento e reduzem palavras desnecessárias. Eles também reduzem a chance de sobrecarregar o respondente com muita informação para digerir. Se o objetivo do estudo for obter informações objetivas sobre a situação de trabalho do participante, é importante formular as perguntas de maneira neutra e evitar perguntas “condutoras” que possam favorecer uma determinada resposta, como “Você concorda que seu local de trabalho condições são prejudiciais à sua saúde?”
Layout do questionário. O layout físico de um questionário pode afetar o custo e a eficiência de um estudo. É mais importante para questionários autoaplicáveis do que aqueles que são conduzidos por entrevistadores. Um questionário projetado para ser preenchido pelo respondente, mas excessivamente complexo ou difícil de ler, pode ser preenchido casualmente ou até mesmo descartado. Mesmo os questionários elaborados para serem lidos em voz alta por entrevistadores treinados precisam ser impressos em letras claras e legíveis, e os padrões de omissão de perguntas devem ser indicados de maneira a manter um fluxo constante de questionamentos e minimizar o virar de página e a busca pela próxima pergunta aplicável. pergunta.
Preocupações de validade
Viés
O inimigo da coleta objetiva de dados é o viés, que resulta de diferenças sistemáticas, mas não planejadas, entre grupos de pessoas: casos e controles em um estudo de caso-controle ou expostos e não expostos em um estudo de coorte. Viés de informação pode ser introduzido quando dois grupos de participantes entendem ou respondem de forma diferente à mesma pergunta. Isso pode ocorrer, por exemplo, se as perguntas forem feitas de forma a exigir conhecimento técnico especial de um local de trabalho ou suas exposições que seriam compreendidas pelos trabalhadores expostos, mas não necessariamente pelo público em geral do qual os controles são extraídos.
O uso de substitutos para trabalhadores doentes ou falecidos tem potencial para viés, porque os parentes mais próximos provavelmente se lembrarão de informações de maneiras diferentes e com menos precisão do que o próprio trabalhador. A introdução desse viés é especialmente provável em estudos nos quais algumas entrevistas são realizadas diretamente com os participantes do estudo, enquanto outras entrevistas são realizadas com parentes ou colegas de trabalho de outros participantes da pesquisa. Em qualquer uma das situações, deve-se tomar cuidado para reduzir qualquer efeito que possa surgir do conhecimento do entrevistador sobre a doença ou o estado de exposição do trabalhador de interesse. Como nem sempre é possível manter os entrevistadores “cegos”, é importante enfatizar a objetividade e evitar perguntas indutoras ou sugestivas ou linguagem corporal inconsciente durante o treinamento e monitorar o desempenho durante a realização do estudo.
Viés de recordação resulta quando casos e controles “lembram” exposições ou situações de trabalho de forma diferente. Casos hospitalizados com uma possível doença ocupacional podem ser mais capazes de recordar detalhes de seu histórico médico ou exposições ocupacionais do que pessoas contatadas aleatoriamente por telefone. Um tipo desse viés que está se tornando mais comum foi rotulado viés de desejabilidade social. Descreve a tendência de muitas pessoas de subestimar, conscientemente ou não, sua indulgência em “maus hábitos”, como fumar cigarros ou consumir alimentos ricos em gordura e colesterol, e exagerar “bons hábitos” como exercícios.
Viés de resposta denota uma situação em que um grupo de participantes do estudo, como trabalhadores com uma exposição ocupacional específica, pode ter maior probabilidade de preencher questionários ou de outra forma participar de um estudo do que pessoas não expostas. Tal situação pode resultar em uma estimativa enviesada da associação entre exposição e doença. Pode-se suspeitar de viés de resposta se as taxas de resposta ou o tempo necessário para preencher um questionário ou entrevista diferirem substancialmente entre os grupos (por exemplo, casos versus controles, expostos versus não expostos). O viés de resposta geralmente difere dependendo do modo de administração do questionário. Os questionários enviados pelo correio são geralmente mais propensos a serem devolvidos por indivíduos que veem um interesse pessoal nos resultados do estudo e são mais propensos a serem ignorados ou descartados por pessoas selecionadas aleatoriamente da população em geral. Muitos investigadores que utilizam pesquisas por correspondência também criam um mecanismo de acompanhamento que pode incluir uma segunda e terceira correspondência, bem como contatos telefônicos subsequentes com não respondentes, a fim de maximizar as taxas de resposta.
Estudos que utilizam pesquisas por telefone, incluindo aqueles que fazem uso de discagem aleatória de dígitos para identificar controles, geralmente têm um conjunto de regras ou um protocolo que define quantas vezes devem ser feitas tentativas de contato com potenciais respondentes, incluindo hora do dia e se à noite ou à noite. chamadas de fim de semana devem ser tentadas. Aqueles que conduzem estudos hospitalares geralmente registram o número de pacientes que se recusam a participar e os motivos da não participação. Em todos esses casos, várias medidas de taxas de resposta são registrados para fornecer uma avaliação da extensão em que a população-alvo foi realmente alcançada.
Viés de seleção resulta quando um grupo de participantes responde preferencialmente ou de outra forma participa de um estudo e pode resultar em estimativas enviesadas da relação entre exposição e doença. Para avaliar o viés de seleção e se ele leva à sub ou superestimação da exposição, informações demográficas, como nível educacional, podem ser usadas para comparar os entrevistados com os não respondentes. Por exemplo, se os participantes com pouca educação tiverem taxas de resposta mais baixas do que os participantes com ensino superior, e se uma determinada ocupação ou hábito de fumar for mais frequente em grupos menos educados, então viés de seleção com subestimação da exposição para essa ocupação ou categoria de tabagismo é provável que tenha ocorrido.
Confundindo é um tipo importante de viés de seleção que ocorre quando a seleção de entrevistados (casos e controles em um estudo de caso-controle, ou expostos e não expostos em um estudo de coorte) depende de alguma forma de uma terceira variável, às vezes de maneira desconhecida para o investigador. Se não for identificado e controlado, pode levar imprevisivelmente a subestimar ou superestimar os riscos de doenças associados às exposições ocupacionais. A confusão geralmente é tratada manipulando o próprio desenho do estudo (por exemplo, combinando casos com controles de idade e outras variáveis) ou no estágio de análise. Os detalhes dessas técnicas são apresentados em outros artigos deste capítulo.
Documentação
Em qualquer estudo de pesquisa, todos os procedimentos do estudo devem ser cuidadosamente documentados para que todos os funcionários, incluindo entrevistadores, supervisores e pesquisadores, tenham clareza sobre suas respectivas funções. Na maioria dos estudos baseados em questionários, um manual de codificação é preparado, que descreve, pergunta por pergunta, tudo o que o entrevistador precisa saber além da redação literal das perguntas. Isso inclui instruções para codificar respostas categóricas e pode conter instruções explícitas sobre sondagem, listando as perguntas para as quais é permitido e aquelas para as quais não é. Em muitos estudos, escolhas de resposta novas e imprevistas para certas questões são ocasionalmente encontradas no campo; estes devem ser registrados no livro de código mestre e cópias de adições, alterações ou novas instruções distribuídas a todos os entrevistadores em tempo hábil.
Planejamento, teste e revisão
Como pode ser visto na figura 1, o desenvolvimento do questionário requer muita atenção planejamento. Todo questionário precisa ser testado em várias etapas para garantir que as perguntas “funcionem”, ou seja, que sejam compreensíveis e produzam respostas com a qualidade pretendida. É útil testar novas perguntas com voluntários e depois interrogá-los longamente para determinar o quão bem as perguntas específicas foram compreendidas e que tipos de problemas ou ambiguidades foram encontrados. Os resultados podem então ser utilizados para revisar o questionário, e o procedimento pode ser repetido se necessário. Às vezes, os voluntários são chamados de “grupo focal”.
Todos os estudos epidemiológicos requerem teste piloto, não apenas para os questionários, mas também para os procedimentos do estudo. Um questionário bem elaborado só serve ao seu propósito se puder ser entregue com eficiência aos participantes do estudo, e isso só pode ser determinado testando os procedimentos em campo e fazendo ajustes quando necessário.
Treinamento e supervisão do entrevistador
Em estudos conduzidos por telefone ou entrevista face a face, o entrevistador desempenha um papel crítico. Essa pessoa é responsável não apenas por apresentar perguntas aos participantes do estudo e registrar suas respostas, mas também por interpretá-las. Mesmo com o estudo de entrevista estruturado de forma mais rígida, os respondentes ocasionalmente solicitam esclarecimentos sobre as questões ou oferecem respostas que não se encaixam nas categorias de respostas disponíveis. Nesses casos, o trabalho do entrevistador é interpretar a pergunta ou a resposta de maneira consistente com a intenção do pesquisador. Para fazê-lo de forma eficaz e consistente, é necessário treinamento e supervisão de um pesquisador ou gerente experiente. Quando mais de um entrevistador é empregado em um estudo, o treinamento do entrevistador é especialmente importante para garantir que as perguntas sejam apresentadas e as respostas interpretadas de maneira uniforme. Em muitos projetos de pesquisa, isso é realizado em ambientes de treinamento em grupo e é repetido periodicamente (por exemplo, anualmente) para manter atualizadas as habilidades dos entrevistadores. Os seminários de treinamento geralmente cobrem os seguintes tópicos em detalhes consideráveis:
A supervisão do estudo geralmente envolve observação no local, que pode incluir a gravação de entrevistas para posterior dissecação. É prática comum que o supervisor revise pessoalmente cada questionário antes de aprová-lo e enviá-lo para entrada de dados. O supervisor também define e impõe padrões de desempenho para os entrevistadores e, em alguns estudos, realiza reentrevistas independentes com participantes selecionados como uma verificação de confiabilidade.
A coleta de dados
A distribuição propriamente dita dos questionários aos participantes do estudo e posterior recolha para análise é realizada através de uma das três modalidades acima descritas: por correio, por telefone ou presencialmente. Alguns pesquisadores organizam e até realizam eles mesmos essa função dentro de suas próprias instituições. Embora haja um mérito considerável para um investigador sênior se familiarizar com a dinâmica da entrevista em primeira mão, é mais econômico e propício para manter a alta qualidade dos dados para entrevistadores profissionais treinados e bem supervisionados serem incluídos como parte da equipe de pesquisa .
Alguns pesquisadores fazem acordos contratuais com empresas especializadas em pesquisa de opinião. Os empreiteiros podem fornecer uma variedade de serviços que podem incluir uma ou mais das seguintes tarefas: distribuição e coleta de questionários, realização de entrevistas por telefone ou face a face, obtenção de amostras biológicas como sangue ou urina, gerenciamento de dados e análise estatística e redação do relatório. Independentemente do nível de suporte, os contratados geralmente são responsáveis por fornecer informações sobre taxas de resposta e qualidade dos dados. No entanto, é o pesquisador quem tem a responsabilidade final pela integridade científica do estudo.
Confiabilidade e reentrevistas
A qualidade dos dados pode ser avaliada por meio de novas entrevistas com uma amostra dos participantes do estudo original. Isso fornece um meio para determinar a confiabilidade das entrevistas iniciais e uma estimativa da repetibilidade das respostas. O questionário inteiro não precisa ser reaplicado; um subconjunto de perguntas geralmente é suficiente. Testes estatísticos estão disponíveis para avaliar a confiabilidade de um conjunto de perguntas feitas ao mesmo participante em momentos diferentes, bem como para avaliar a confiabilidade das respostas fornecidas por diferentes participantes e até mesmo para aquelas questionadas por diferentes entrevistadores (ou seja, inter e intra avaliações do avaliador).
Tecnologia de processamento de questionários
Os avanços na tecnologia da computação criaram muitas maneiras diferentes pelas quais os dados do questionário podem ser capturados e disponibilizados ao pesquisador para análise por computador. Existem três maneiras fundamentalmente diferentes nas quais os dados podem ser computadorizados: em tempo real (ou seja, conforme o participante responde durante uma entrevista), por métodos tradicionais de digitação de chaves e por métodos de captura óptica de dados.
Captura de dados assistida por computador
Muitos pesquisadores agora usam computadores para coletar respostas a perguntas feitas tanto em entrevistas face a face quanto por telefone. Pesquisadores da área acham conveniente usar laptops que foram programados para exibir as perguntas seqüencialmente e que permitem ao entrevistador inserir a resposta imediatamente. Empresas de pesquisa de opinião que fazem entrevistas por telefone desenvolveram sistemas análogos chamados sistemas de entrevista por telefone assistida por computador (CATI). Esses métodos têm duas vantagens importantes sobre os questionários de papel mais tradicionais. Em primeiro lugar, as respostas podem ser instantaneamente verificadas em relação a uma variedade de respostas permitidas e quanto à consistência com as respostas anteriores, e as discrepâncias podem ser imediatamente trazidas à atenção do entrevistador e do entrevistado. Isso reduz muito a taxa de erro. Em segundo lugar, os padrões de salto podem ser programados para minimizar o tempo de administração.
O método mais comum para informatizar dados ainda é o tradicional entrada chave por um operador treinado. Para estudos muito grandes, os questionários geralmente são enviados a uma empresa contratada profissional especializada em coleta de dados. Essas empresas geralmente utilizam equipamentos especializados que permitem que um operador digite um questionário (um procedimento às vezes chamado de furador por razões históricas) e um segundo operador para redigitar os mesmos dados, um processo chamado verificação de chave. Os resultados da segunda digitação são comparados com os da primeira para garantir que os dados foram inseridos corretamente. Os procedimentos de garantia de qualidade podem ser programados para garantir que cada resposta caia dentro de um intervalo permitido e que seja consistente com outras respostas. Os arquivos de dados resultantes podem ser transmitidos ao pesquisador em disco, fita ou eletronicamente por telefone ou outra rede de computadores.
Para estudos menores, existem vários programas comerciais baseados em PC que possuem recursos de entrada de dados que emulam os de sistemas mais especializados. Isso inclui programas de banco de dados como dBase, Foxpro e Microsoft Access, bem como planilhas como Microsoft Excel e Lotus 1-2-3. Além disso, recursos de entrada de dados estão incluídos em muitos pacotes de programas de computador cujo objetivo principal é a análise de dados estatísticos, como SPSS, BMDP e EPI INFO.
Um método difundido de captura de dados que funciona bem para certos questionários especializados usa sistemas ópticos. Leitura de marca óptica ou a detecção óptica é usada para ler as respostas em questionários que são especialmente projetados para os participantes inserirem dados marcando pequenos retângulos ou círculos (às vezes chamados de “códigos de bolha”). Estes funcionam de forma mais eficiente quando cada indivíduo preenche seu próprio questionário. Equipamentos mais sofisticados e caros podem ler caracteres impressos à mão, mas atualmente essa não é uma técnica eficiente para capturar dados em estudos de larga escala.
Questionários de arquivamento e manuais de codificação
Como a informação é um recurso valioso e está sujeito a interpretações e outras influências, às vezes os pesquisadores são solicitados a compartilhar seus dados com outros pesquisadores. A solicitação de compartilhamento de dados pode ser motivada por diversos motivos, que podem ir desde um interesse sincero em replicar um relatório até a preocupação de que os dados possam não ter sido analisados ou interpretados corretamente.
Quando houver suspeita ou alegação de falsificação ou fabricação de dados, torna-se essencial que os registros originais nos quais as descobertas relatadas se baseiam estejam disponíveis para fins de auditoria. Além dos questionários originais e/ou arquivos de computador de dados brutos, o pesquisador deve ser capaz de fornecer para revisão o(s) manual(is) de codificação desenvolvido(s) para o estudo e o(s) registro(s) de todas as alterações de dados que foram feitas no curso de codificação, informatização e análise de dados. Por exemplo, se um valor de dados foi alterado porque inicialmente apareceu como um valor atípico, um registro da alteração e os motivos para fazer a alteração devem ter sido registrados no log para possíveis fins de auditoria de dados. Essas informações também são valiosas no momento da preparação do relatório porque servem como um lembrete sobre como os dados que deram origem às descobertas relatadas foram realmente tratados.
Por essas razões, após a conclusão de um estudo, o pesquisador tem a obrigação de garantir que todos os dados básicos sejam adequadamente arquivados por um período de tempo razoável e que possam ser recuperados se o pesquisador for solicitado a fornecê-los.
Vários exemplos de riscos no local de trabalho são frequentemente citados para exemplificar não apenas os possíveis efeitos adversos à saúde associados às exposições no local de trabalho, mas também para revelar como uma abordagem sistemática para o estudo de populações de trabalhadores pode revelar importantes relações exposição-doença. Um desses exemplos é o do amianto. A elegância simples com que o falecido Dr. Irving J. Selikoff demonstrou o elevado risco de câncer entre os trabalhadores do amianto foi documentada em um artigo de Lawrence Garfinkel. Ele é reimpresso aqui com apenas pequenas modificações e com a permissão do CA-A Cancer Journal for Clinicians (Garfinkel 1984). As tabelas vieram do artigo original do Dr. Selikoff e colaboradores (1964).
A exposição ao amianto tornou-se um problema de saúde pública de magnitude considerável, com ramificações que se estendem além do campo imediato dos profissionais de saúde para áreas atendidas por legisladores, juízes, advogados, educadores e outros líderes comunitários interessados. Como resultado, as doenças relacionadas ao amianto são uma preocupação crescente para os médicos e autoridades de saúde, bem como para os consumidores e o público em geral.
Contexto histórico
O amianto é um mineral altamente útil que tem sido utilizado de diversas maneiras por muitos séculos. Estudos arqueológicos na Finlândia mostraram evidências de fibras de amianto incorporadas à cerâmica desde 2500 AC. No século V aC, foi usado como pavio para lâmpadas. Heródoto comentou sobre o uso de pano de amianto para cremação por volta de 5 aC. O amianto foi usado em armaduras corporais no século 456 e na fabricação de tecidos, luvas, meias e bolsas na Rússia c. 1720. Embora seja incerto quando a arte de tecer amianto foi desenvolvida, sabemos que os antigos costumavam tecer amianto com linho. A produção comercial de amianto começou na Itália por volta de 1850, na fabricação de papel e tecido.
O desenvolvimento da mineração de amianto no Canadá e na África do Sul por volta de 1880 reduziu custos e estimulou a fabricação de produtos de amianto. Mineração e produção de amianto nos Estados Unidos, Itália e Rússia seguiram logo depois. Nos Estados Unidos, o desenvolvimento do amianto como isolamento de tubos aumentou a produção e foi seguido logo em seguida por outros usos variados, incluindo lonas de freio, tubos de cimento, roupas de proteção e assim por diante.
A produção nos EUA aumentou de cerca de 6,000 toneladas em 1900 para 650,000 toneladas em 1975, embora em 1982 fosse de cerca de 300,000 toneladas e em 1994 a produção tivesse caído para 33,000 toneladas.
Relata-se que Plínio, o Jovem (61-113 DC) comentou sobre a doença dos escravos que trabalhavam com amianto. Referências a doenças ocupacionais associadas à mineração surgiram no século XVI, mas foi somente em 16 na Inglaterra que surgiu a primeira referência a fibrose pulmonar em um trabalhador do amianto. O excesso de mortes em trabalhadores envolvidos com aplicações de fabricação de amianto foi relatado logo depois na França e na Itália, mas o maior reconhecimento da doença induzida pelo amianto começou na Inglaterra em 1906. Em 1924, Wood e Gloyne relataram 1930 casos de fibrose pulmonar.
A primeira referência a carcinoma do pulmão num doente com “asbesto-silicose” surgiu em 1935. Seguiram-se vários outros relatos de casos. Relatórios de altas porcentagens de câncer de pulmão em pacientes que morreram de asbestose apareceram em 1947, 1949 e 1951. Em 1955, Richard Doll, na Inglaterra, relatou um risco excessivo de câncer de pulmão em pessoas que trabalharam em uma fábrica de amianto desde 1935, com uma taxa especialmente alta risco naqueles que estavam empregados há mais de 20 anos.
Observações clínicas
Foi neste contexto que começaram as observações clínicas do Dr. Irving Selikoff sobre doenças relacionadas ao amianto. O Dr. Selikoff já era um cientista distinto. Suas realizações anteriores incluíram o desenvolvimento e o primeiro uso da isoniazida no tratamento da tuberculose, pelo qual recebeu o Prêmio Lasker em 1952.
No início da década de 1960, como médico pneumologista em Paterson, Nova Jersey, ele havia observado muitos casos de câncer de pulmão entre trabalhadores de uma fábrica de amianto na área. Ele decidiu estender suas observações para incluir dois moradores do sindicato dos isoladores de amianto, cujos membros também haviam sido expostos a fibras de amianto. Ele reconheceu que ainda havia muitas pessoas que não acreditavam que o câncer de pulmão estivesse relacionado à exposição ao amianto e que apenas um estudo completo de uma população total exposta poderia convencê-los. Havia a possibilidade de que a exposição ao amianto na população pudesse estar relacionada a outros tipos de câncer, como o mesotelioma pleural e peritoneal, conforme sugerido em alguns estudos, e talvez também em outros locais. A maioria dos estudos sobre os efeitos do amianto na saúde no passado se preocupava com trabalhadores expostos na mineração e produção de amianto. Era importante saber se a inalação de amianto também afetava outros grupos expostos ao amianto.
Dr. Selikoff tinha ouvido falar das realizações do Dr. E. Cuyler Hammond, então Diretor da Seção de Pesquisa Estatística da American Cancer Society (ACS), e decidiu pedir-lhe para colaborar na concepção e análise de um estudo. Foi o Dr. Hammond quem escreveu o estudo prospectivo sobre tabagismo e saúde publicado alguns anos antes.
Dr. Hammond viu imediatamente a importância potencial de um estudo de trabalhadores do amianto. Embora estivesse ocupado analisando os dados do então novo estudo prospectivo da ACS, Cancer Prevention Study I (CPS I), que havia começado alguns anos antes, ele prontamente concordou em colaborar em seu “tempo livre”. Ele sugeriu limitar a análise aos trabalhadores com pelo menos 20 anos de experiência profissional, que assim teriam a maior quantidade de exposição ao amianto.
A equipe foi acompanhada pela Sra. Janet Kaffenburgh, uma pesquisadora associada do Dr. Selikoff no Mount Sinai Hospital, que trabalhou com o Dr. Hammond na preparação das listas dos homens no estudo, incluindo suas idades e datas de trabalho e obtendo os dados sobre fatos de morte e causas de registros da sede do sindicato. Essas informações foram posteriormente transferidas para fichas de arquivo que foram classificadas literalmente no chão da sala de estar da casa do Dr. Hammond pelo Dr. Hammond e pela Sra. Kaffenburgh.
O Dr. Jacob Churg, patologista do Barnert Memorial Hospital Center em Paterson, Nova Jersey, forneceu verificação patológica da causa da morte.
Tabela 1. Homem-anos de experiência de 632 trabalhadores de amianto expostos a pó de amianto por 20 anos ou mais
Idade |
Período de tempo |
|||
1943-47 |
1948-52 |
1953-57 |
1958-62 |
|
35-39 |
85.0 |
185.0 |
7.0 |
11.0 |
40-44 |
230.5 |
486.5 |
291.5 |
70.0 |
45-49 |
339.5 |
324.0 |
530.0 |
314.5 |
50-54 |
391.5 |
364.0 |
308.0 |
502.5 |
55-59 |
382.0 |
390.0 |
316.0 |
268.5 |
60-64 |
221.0 |
341.5 |
344.0 |
255.0 |
65-69 |
139.0 |
181.0 |
286.0 |
280.0 |
70-74 |
83.0 |
115.5 |
137.0 |
197.5 |
75-79 |
31.5 |
70.0 |
70.5 |
75.0 |
80-84 |
5.5 |
18.5 |
38.5 |
23.5 |
85+ |
3.5 |
2.0 |
8.0 |
13.5 |
Total |
1,912.0 |
2,478.0 |
2,336.5 |
2,011.0 |
O estudo resultante foi do tipo classificado como “estudo prospectivo realizado retrospectivamente”. A natureza dos registros sindicais possibilitou a realização de uma análise de um estudo de longo alcance em um período de tempo relativamente curto. Embora apenas 632 homens estivessem envolvidos no estudo, houve 8,737 homens-ano de exposição ao risco (ver tabela 1); Ocorreram 255 mortes durante o período de observação de 20 anos, de 1943 a 1962 (ver tabela 2). É na tabela 28.17 que o número de mortes observadas invariavelmente excede o número esperado, demonstrando a associação entre a exposição ao amianto no local de trabalho e uma elevada taxa de mortalidade por câncer.
Tabela 2. Número de mortes observadas e esperadas entre 632 trabalhadores do amianto expostos ao pó de amianto por 20 anos ou mais
Causa da morte |
Período de tempo |
Total |
|||
1943-47 |
1948-52 |
1953-57 |
1958-62 |
1943-62 |
|
Total, todas as causas |
|||||
Observados (trabalhadores do amianto) |
28.0 |
54.0 |
85.0 |
88.0 |
255.0 |
Esperado (homens brancos dos EUA) |
39.7 |
50.8 |
56.6 |
54.4 |
203.5 |
Câncer total, todos os locais |
|||||
Observados (trabalhadores do amianto) |
13.0 |
17.0 |
26.0 |
39.0 |
95.0 |
Esperado (homens brancos dos EUA) |
5.7 |
8.1 |
13.0 |
9.7 |
36.5 |
Câncer de pulmão e pleura |
|||||
Observados (trabalhadores do amianto) |
6.0 |
8.0 |
13.0 |
18.0 |
45.0 |
Esperado (homens brancos dos EUA) |
0.8 |
1.4 |
2.0 |
2.4 |
6.6 |
Câncer de estômago, cólon e reto |
|||||
Observados (trabalhadores do amianto) |
4.0 |
4.0 |
7.0 |
14.0 |
29.0 |
Esperado (homens brancos dos EUA) |
2.0 |
2.5 |
2.6 |
2.3 |
9.4 |
Câncer de todos os outros locais combinados |
|||||
Observados (trabalhadores do amianto) |
3.0 |
5.0 |
6.0 |
7.0 |
21.0 |
Esperado (homens brancos dos EUA) |
2.9 |
4.2 |
8.4 |
5.0 |
20.5 |
Significado do Trabalho
Este artigo constituiu um ponto de virada em nosso conhecimento sobre doenças relacionadas ao amianto e definiu a direção de pesquisas futuras. O artigo foi citado em publicações científicas pelo menos 261 vezes desde sua publicação original. Com apoio financeiro da ACS e dos Institutos Nacionais de Saúde, Dr. Selikoff e Dr. Hammond e sua crescente equipe de mineralogistas, médicos de tórax, radiologistas, patologistas, higienistas e epidemiologistas continuaram a explorar várias facetas da doença do amianto.
Um artigo importante em 1968 relatou o efeito sinérgico do tabagismo na exposição ao amianto (Selikoff, Hammond e Churg 1968). Os estudos foram ampliados para incluir trabalhadores da produção de amianto, pessoas indiretamente expostas ao amianto em seu trabalho (trabalhadores de estaleiros, por exemplo) e pessoas com exposição familiar ao amianto.
Em uma análise posterior, na qual a equipe foi acompanhada por Herbert Seidman, MBA, vice-presidente assistente de epidemiologia e estatística da American Cancer Society, o grupo demonstrou que mesmo a exposição de curto prazo ao amianto resultou em um aumento significativo do risco de câncer até até 30 anos depois (Seidman, Selikoff e Hammond 1979). Houve apenas três casos de mesotelioma neste primeiro estudo de 632 isoladores, mas investigações posteriores mostraram que 8% de todas as mortes entre os trabalhadores do amianto foram devidas a mesotelioma pleural e peritoneal.
À medida que as investigações científicas do Dr. Selikoff se expandiam, ele e seus colegas fizeram contribuições notáveis para reduzir a exposição ao amianto por meio de inovações em técnicas de higiene industrial; persuadindo os legisladores sobre a urgência do problema do amianto; na avaliação dos problemas de pagamentos por invalidez em conexão com a doença do amianto; e na investigação da distribuição geral de partículas de amianto no abastecimento de água e no ar ambiente.
O Dr. Selikoff também chamou a atenção da comunidade médica e científica para o problema do amianto, organizando conferências sobre o assunto e participando de várias reuniões científicas. Muitas de suas reuniões de orientação sobre o problema da doença do amianto foram estruturadas especialmente para advogados, juízes, presidentes de grandes corporações e executivos de seguros.
Carga de trabalho mental versus física
O conceito de carga de trabalho mental (MWL) tornou-se cada vez mais importante, uma vez que as modernas tecnologias semi-automatizadas e computadorizadas podem impor requisitos severos às capacidades mentais ou de processamento de informações humanas nas tarefas de fabricação e administrativas. Assim, especialmente para os domínios de análise de trabalho, avaliação de requisitos de trabalho e design de trabalho, a conceituação de carga de trabalho mental tornou-se ainda mais importante do que a carga de trabalho física tradicional.
Definições de carga de trabalho mental
Não existe uma definição consensual de carga de trabalho mental. A principal razão é que existem pelo menos duas abordagens e definições teoricamente bem fundamentadas: (1) MWL visto em termos dos requisitos da tarefa como uma variável externa independente com a qual os sujeitos de trabalho têm de lidar de forma mais ou menos eficiente, e (2) MWL como definido em termos de uma interação entre os requisitos da tarefa e as capacidades ou recursos humanos (Hancock e Chignell 1986; Welford 1986; Wieland-Eckelmann 1992).
Embora advindas de contextos distintos, ambas as abordagens oferecem contribuições necessárias e bem fundamentadas para problemas distintos.
A requisitos recursos interação A abordagem foi desenvolvida no contexto das teorias de ajuste/desajuste da personalidade-ambiente, que tentam explicar as diferentes respostas interindividuais a condições e requisitos físicos e psicossociais idênticos. Assim, esta abordagem pode explicar as diferenças individuais nos padrões de respostas subjetivas aos requisitos e condições de carga, por exemplo, em termos de fadiga, monotonia, aversão afetiva, esgotamento ou doenças (Gopher e Donchin 1986; Hancock e Meshkati 1988).
A requisitos de tarefa A abordagem foi desenvolvida dentro daquelas partes da psicologia ocupacional e ergonomia que estão predominantemente engajadas no projeto de tarefas, especialmente no projeto de tarefas futuras novas e não experimentadas, ou as chamadas projeto de tarefa prospectiva. O pano de fundo aqui é o conceito de tensão-deformação. Os requisitos da tarefa constituem o estresse e os sujeitos que trabalham tentam se adaptar ou lidar com as demandas da mesma forma que fariam com outras formas de estresse (Hancock e Chignell, 1986). Essa abordagem de requisitos de tarefa tenta responder à questão de como projetar tarefas com antecedência para otimizar seu impacto posterior nos funcionários - muitas vezes ainda desconhecidos - que realizarão essas tarefas futuras.
Existem pelo menos algumas características comuns de ambas as conceituações de MWL.
Abordagens Teóricas: Abordagens Requisitos-Recursos
Do ponto de vista do ajuste pessoa-ambiente, o MWL e suas consequências podem ser categorizados grosseiramente - como mostrado na figura 1 - em subcarga, carga adequada e sobrecarga. Essa categorização resulta das relações entre os requisitos da tarefa e as capacidades ou recursos mentais. Os requisitos da tarefa podem exceder, ajustar-se ou deixar de ser satisfeitos pelos recursos. Ambos os tipos de desajuste podem resultar de modos quantitativos ou qualitativos de desajuste e terão consequências qualitativamente diferentes, mas em qualquer caso negativas (ver figura 1).
Figura 1. Tipos e consequências das relações requisitos-recursos
Algumas teorias tentam definir o MWL a partir do lado do recurso ou capacidade dos requisitos, ou seja, relacionamentos de recursos. Essas teorias de recursos podem ser subdivididas em volume de recursos e teorias de alocação de recursos (Wieland-Eckelmann 1992). A quantidade de capacidade disponível pode vir de uma única fonte (solteiro teorias de recursos) que determina o processamento. A disponibilidade deste recurso varia com a excitação (Kahneman 1973). Moderno múltiplo as teorias de recursos supõem um conjunto de recursos de processamento relativamente independentes. Assim, o desempenho dependerá da condição se o mesmo recurso ou recursos diferentes são necessários simultaneamente e simultaneamente. Diferentes recursos são, por exemplo, codificação, processamento ou recursos de resposta (Gopher e Donchin 1986; Welford 1986). O problema mais crítico para esses tipos de teorias é a identificação confiável de uma ou mais capacidades bem definidas para operações de processamento qualitativamente diferentes.
As teorias de alocação de recursos supõem um processamento que muda qualitativamente em função de estratégias variadas. Dependendo das estratégias, diferentes processos mentais e representações podem ser aplicados para a realização da tarefa. Assim, não o volume de recursos estáveis, mas as estratégias de alocação flexível tornam-se o ponto-chave de interesse. Mais uma vez, porém, questões essenciais — especialmente no que diz respeito aos métodos de diagnóstico das estratégias — permanecem por responder.
Avaliação de MWL: usando abordagens de recursos de requisitos
Uma medição estrita de MWL no momento seria impossível, uma vez que faltam unidades de medida bem definidas. Mas, certamente, a conceituação e os instrumentos para uma avaliação devem atender aos critérios gerais de qualidade das abordagens diagnósticas, que têm objetividade, confiabilidade, validade e utilidade. No entanto, até agora, pouco se sabe sobre a qualidade geral das técnicas ou instrumentos propostos.
Há um número considerável de razões para as dificuldades remanescentes com a avaliação do MWL de acordo com as abordagens de recursos de requisitos (O'Donnell e Eggemeier 1986). Uma tentativa de avaliação MWL tem que lidar com questões como as seguintes: a tarefa é auto-intencionada, segue objetivos auto-estabelecidos, ou é dirigida com referência a uma ordem definida externamente? Que tipo de capacidades (processamento intelectual consciente, aplicação de conhecimento tácito, etc.) são necessários, e são chamados simultaneamente ou sequencialmente? Existem diferentes estratégias disponíveis e, em caso afirmativo, quais? Quais mecanismos de enfrentamento de uma pessoa que trabalha podem ser necessários?
As abordagens mais discutidas tentam avaliar MWL em termos de:
Ambas as abordagens são fortemente dependentes dos pressupostos das teorias de recurso único e, consequentemente, têm que lutar com as questões acima mencionadas.
Avaliação de esforço. Tais técnicas de avaliação de esforço como, por exemplo, o procedimento de escalonamento aplicado a um correlato percebido do ativação central geral, desenvolvidos e validados por Bartenwerfer (1970), oferecem escalas verbais que podem ser completadas por gráficas e que graduam a parte unidimensionalmente variável do esforço percebido exigido durante a realização da tarefa. Os sujeitos são solicitados a descrever seu esforço percebido por meio de uma das etapas da escala fornecida.
Os critérios de qualidade mencionados acima são atendidos por esta técnica. Suas limitações incluem a unidimensionalidade da escala, abrangendo uma parte essencial, mas questionável do esforço percebido; a possibilidade limitada ou ausente de prever resultados de tarefas pessoais percebidas, por exemplo, em termos de fadiga, tédio ou ansiedade; e especialmente o caráter altamente abstrato ou formal do esforço que identificará e explicará quase nada dos aspectos dependentes do conteúdo do MWL como, por exemplo, quaisquer possíveis aplicações úteis da qualificação ou das opções de aprendizado.
Avaliação da capacidade mental. A avaliação da capacidade mental consiste em técnicas de dupla tarefa e um procedimento de interpretação de dados relacionado, chamado de característica operacional de desempenho (POC). As técnicas de dupla tarefa cobrem vários procedimentos. Sua característica comum é que os sujeitos são solicitados a realizar duas tarefas simultaneamente. A hipótese crucial é: quanto menos uma tarefa adicional ou secundária na situação de dupla tarefa se deteriorar em comparação com a situação de linha de base de tarefa única, menores serão os requisitos de capacidade mental da tarefa primária e vice-versa. A abordagem agora é ampliada e várias versões de interferência de tarefas sob condições de dupla tarefa são investigadas. Por exemplo, os sujeitos são instruídos a realizar duas tarefas simultaneamente com variações graduais das prioridades das tarefas. A curva POC ilustra graficamente os efeitos de possíveis combinações de dupla tarefa decorrentes do compartilhamento de recursos limitados entre as tarefas executadas simultaneamente.
Os pressupostos críticos da abordagem consistem principalmente nas sugestões de que cada tarefa exigirá uma certa parcela de uma capacidade de processamento consciente, limitada e estável (versus inconsciente, automatizada, implícita ou tácita), na hipotética relação aditiva dos dois requisitos de capacidade, e na restrição da abordagem apenas aos dados de desempenho. Este último pode ser enganoso por várias razões. Em primeiro lugar, existem diferenças substanciais na sensibilidade dos dados de desempenho e dos dados percebidos subjetivamente. A carga percebida parece ser determinada principalmente pela quantidade de recursos necessários, muitas vezes operacionalizados em termos de memória de trabalho, enquanto as medidas de desempenho parecem ser determinadas predominantemente pela eficiência do compartilhamento de recursos, dependendo das estratégias de alocação (isso é teoria da dissociação; ver Wickens e Yeh 1983). Além disso, diferenças individuais nas habilidades de processamento de informações e traços de personalidade influenciam fortemente os indicadores de MWL nas áreas subjetiva (percebida), de desempenho e psicofisiológica.
Abordagens Teóricas: Abordagens de Requisitos de Tarefas
Conforme demonstrado, os requisitos da tarefa são multidimensionais e, portanto, podem não ser suficientemente descritos por meio de apenas uma dimensão, seja ela o esforço percebido ou a capacidade mental consciente residual. Uma descrição mais profunda pode ser semelhante a um perfil, aplicando um padrão teoricamente selecionado de dimensões graduais das características da tarefa. A questão central é, portanto, a conceituação de “tarefa”, especialmente em termos de conteúdo da tarefa, e de “realização da tarefa”, especialmente em termos de estrutura e fases de ações orientadas para um objetivo. O papel da tarefa é enfatizado pelo fato de que mesmo o impacto das condições contextuais (como temperatura, ruído ou horas de trabalho) nas pessoas são dependentes da tarefa, uma vez que são mediadas pela tarefa que atua como um dispositivo de portão (Fisher 1986). . Várias abordagens teóricas concordam suficientemente com relação a essas dimensões críticas da tarefa, que oferecem uma previsão válida do resultado da tarefa. Em qualquer caso, o resultado da tarefa é duplo, uma vez que (1) o resultado pretendido deve ser alcançado, atendendo aos critérios de resultado de desempenho e (2) vários efeitos colaterais pessoais não intencionais de curto prazo e cumulativos de longo prazo surgirão, por exemplo exemplo fadiga, tédio (monotonia), doenças ocupacionais ou motivação intrínseca melhorada, conhecimento ou habilidades.
Avaliação de MWL. Com abordagens de requisitos de tarefas, abordagens orientadas para a ação, como aquelas de ações completas versus ações parcializadas ou a pontuação do potencial de motivação (para uma elaboração de ambos, consulte Hacker 1986), propõem como características de tarefas indispensáveis para análise e avaliação pelo menos o seguinte:
A identificação dessas características da tarefa requer procedimentos conjuntos de análise de trabalho/tarefa, incluindo análises de documentos, observações, entrevistas e discussões em grupo, que devem ser integrados em um projeto quase-experimental (Rudolph, Schönfelder e Hacker 1987). Estão disponíveis instrumentos de análise de tarefas que podem orientar e auxiliar a análise. Alguns deles auxiliam apenas na análise (por exemplo, NASA-TLX Task Load Index, Hart e Staveland, 1988), enquanto outros são úteis para avaliação e projeto ou redesenho. Um exemplo aqui é o TBS-GA (Tätigkeitsbewertungs System für geistige Arbeit [Pesquisa de Diagnóstico de Tarefas—Trabalho Mental]); ver Rudolph, Schönfelder e Hacker (1987).
A palavra biomarcador é a abreviação de marcador biológico, um termo que se refere a um evento mensurável que ocorre em um sistema biológico, como o corpo humano. Esse evento é então interpretado como um reflexo, ou marcador, de um estado mais geral do organismo ou da expectativa de vida. Na saúde ocupacional, um biomarcador é geralmente usado como um indicador do estado de saúde ou risco de doença.
Os biomarcadores são usados para estudos in vitro e in vivo que podem incluir seres humanos. Normalmente, três tipos específicos de marcadores biológicos são identificados. Embora alguns biomarcadores possam ser difíceis de classificar, geralmente eles são separados em biomarcadores de exposição, biomarcadores de efeito ou biomarcadores de suscetibilidade (ver tabela 1).
Tabela 1. Exemplos de biomarcadores de exposição ou biomarcadores de efeito que são utilizados em estudos toxicológicos em saúde ocupacional
Amostra | Medição | Propósito |
Biomarcadores de exposição | ||
Tecido adiposo | dioxina | Exposição à dioxina |
Sangue | Conduzir | Exposição ao chumbo |
Osso | alumínio | exposição de alumínio |
respiração exalada | Tolueno | exposição ao tolueno |
Cabelo | Mercúrio | Exposição ao metilmercúrio |
Sérum | Benzeno | Exposição ao benzeno |
Urina | Fenol | Exposição ao benzeno |
Biomarcadores de efeito | ||
Sangue | Carboxiemoglobina | Exposição ao monóxido de carbono |
glóbulos vermelhos | Zinco-protoporfirina | Exposição ao chumbo |
Sérum | Colinesterase | Exposição a organofosforados |
Urina | Microglobulinas | Exposição nefrotóxica |
Os glóbulos brancos | adutos de DNA | Exposição a mutagênico |
Dado um grau aceitável de validade, os biomarcadores podem ser empregados para diversos fins. Em uma base individual, um biomarcador pode ser usado para apoiar ou refutar um diagnóstico de um determinado tipo de envenenamento ou outro efeito adverso induzido quimicamente. Em um indivíduo saudável, um biomarcador também pode refletir a hipersuscetibilidade individual a exposições químicas específicas e, portanto, servir como base para previsão de risco e aconselhamento. Em grupos de trabalhadores expostos, alguns biomarcadores de exposição podem ser aplicados para avaliar a extensão da conformidade com os regulamentos de redução da poluição ou a eficácia dos esforços preventivos em geral.
Biomarcadores de Exposição
Um biomarcador de exposição pode ser um composto exógeno (ou um metabólito) dentro do corpo, um produto interativo entre o composto (ou metabólito) e um componente endógeno ou outro evento relacionado à exposição. Mais comumente, os biomarcadores de exposições a compostos estáveis, como metais, compreendem medições das concentrações de metais em amostras apropriadas, como sangue, soro ou urina. Com produtos químicos voláteis, sua concentração na respiração exalada (após a inalação de ar livre de contaminação) pode ser avaliada. Se o composto for metabolizado no corpo, um ou mais metabólitos podem ser escolhidos como biomarcadores da exposição; os metabolitos são frequentemente determinados em amostras de urina.
Métodos modernos de análise podem permitir a separação de isômeros ou congêneres de compostos orgânicos e a determinação da especiação de compostos metálicos ou proporções isotópicas de certos elementos. Análises sofisticadas permitem a determinação de mudanças na estrutura do DNA ou outras macromoléculas causadas pela ligação com produtos químicos reativos. Sem dúvida, essas técnicas avançadas ganharão consideravelmente em importância para aplicações em estudos de biomarcadores, e limites de detecção mais baixos e melhor validade analítica provavelmente tornarão esses biomarcadores ainda mais úteis.
Desenvolvimentos particularmente promissores ocorreram com biomarcadores de exposição a produtos químicos mutagênicos. Esses compostos são reativos e podem formar adutos com macromoléculas, como proteínas ou DNA. Adutos de DNA podem ser detectados em glóbulos brancos ou biópsias de tecidos, e fragmentos específicos de DNA podem ser excretados na urina. Por exemplo, a exposição ao óxido de etileno resulta em reações com as bases do DNA e, após a excisão da base danificada, a N-7-(2-hidroxietil)guanina será eliminada na urina. Alguns adutos podem não se referir diretamente a uma exposição específica. Por exemplo, a 8-hidroxi-2'-desoxiguanosina reflete o dano oxidativo ao DNA, e essa reação pode ser desencadeada por vários compostos químicos, muitos dos quais também induzem a peroxidação lipídica.
Outras macromoléculas também podem ser alteradas pela formação de adutos ou oxidação. De especial interesse, tais compostos reativos podem gerar adutos de hemoglobina que podem ser determinados como biomarcadores de exposição aos compostos. A vantagem é que grandes quantidades de hemoglobina podem ser obtidas a partir de uma amostra de sangue e, dada a vida útil de quatro meses das hemácias, os adutos formados com os aminoácidos da proteína indicarão a exposição total nesse período.
Os adutos podem ser determinados por técnicas sensíveis, como cromatografia lipídica de alta eficiência, e alguns métodos imunológicos também estão disponíveis. Em geral, os métodos analíticos são novos, caros e precisam de mais desenvolvimento e validação. Melhor sensibilidade pode ser obtida usando o 32P pós-ensaio de marcação, que é uma indicação inespecífica de que ocorreu dano ao DNA. Todas essas técnicas são potencialmente úteis para monitoramento biológico e têm sido aplicadas em um número crescente de estudos. No entanto, métodos analíticos mais simples e sensíveis são necessários. Dada a especificidade limitada de alguns métodos em exposições de baixo nível, o tabagismo ou outros fatores podem ter um impacto significativo nos resultados da medição, causando dificuldades de interpretação.
A exposição a compostos mutagênicos, ou a compostos que são metabolizados em mutagênicos, também pode ser determinada pela avaliação da mutagenicidade da urina de um indivíduo exposto. A amostra de urina é incubada com uma cepa de bactéria na qual uma mutação pontual específica é expressa de uma forma que pode ser facilmente medida. Se produtos químicos mutagênicos estiverem presentes na amostra de urina, ocorrerá um aumento na taxa de mutações nas bactérias.
Os biomarcadores de exposição devem ser avaliados em relação à variação temporal da exposição e à relação com os diferentes compartimentos. Assim, o(s) período(s) de tempo representado(s) pelo biomarcador, ou seja, até que ponto a medição do biomarcador reflete a(s) exposição(ões) passada(s) e/ou carga corporal acumulada, deve(m) ser determinado(s) a partir de dados toxicocinéticos para interpretar o resultado. Em particular, o grau em que o biomarcador indica retenção em órgãos-alvo específicos deve ser considerado. Embora as amostras de sangue sejam frequentemente usadas para estudos de biomarcadores, o sangue periférico geralmente não é considerado um compartimento como tal, embora atue como um meio de transporte entre os compartimentos. O grau em que a concentração no sangue reflete os níveis em diferentes órgãos varia amplamente entre diferentes produtos químicos e geralmente também depende da duração da exposição, bem como do tempo desde a exposição.
Às vezes, esse tipo de evidência é usado para classificar um biomarcador como um indicador de dose (total) absorvida ou um indicador de dose efetiva (ou seja, a quantidade que atingiu o tecido-alvo). Por exemplo, a exposição a um determinado solvente pode ser avaliada a partir de dados sobre a concentração real do solvente no sangue em um determinado momento após a exposição. Essa medição refletirá a quantidade de solvente que foi absorvida pelo corpo. Parte da quantidade absorvida será exalada devido à pressão de vapor do solvente. Ao circular no sangue, o solvente interagirá com vários componentes do corpo e, eventualmente, ficará sujeito à degradação por enzimas. O resultado dos processos metabólicos pode ser avaliado pela determinação de ácidos mercaptúricos específicos produzidos por conjugação com glutationa. A excreção cumulativa de ácidos mercaptúricos pode refletir melhor a dose efetiva do que a concentração sanguínea.
Eventos da vida, como reprodução e senescência, podem afetar a distribuição de uma substância química. A distribuição de produtos químicos dentro do corpo é significativamente afetada pela gravidez, e muitos produtos químicos podem atravessar a barreira placentária, causando assim a exposição do feto. A lactação pode resultar na excreção de substâncias químicas lipossolúveis, levando assim a uma diminuição da retenção na mãe, juntamente com uma maior absorção pelo lactente. Durante a perda de peso ou desenvolvimento de osteoporose, produtos químicos armazenados podem ser liberados, o que pode resultar em uma exposição “endógena” renovada e prolongada de órgãos-alvo. Outros fatores podem afetar a absorção individual, metabolismo, retenção e distribuição de compostos químicos, e alguns biomarcadores de suscetibilidade estão disponíveis (ver abaixo).
Biomarcadores de Efeito
Um marcador de efeito pode ser um componente endógeno, ou uma medida da capacidade funcional, ou algum outro indicador do estado ou equilíbrio do corpo ou sistema orgânico, conforme afetado pela exposição. Esses marcadores de efeito são geralmente indicadores pré-clínicos de anormalidades.
Esses biomarcadores podem ser específicos ou inespecíficos. Os biomarcadores específicos são úteis porque indicam um efeito biológico de uma determinada exposição, fornecendo assim evidências que podem ser potencialmente utilizadas para fins preventivos. Os biomarcadores não específicos não apontam para uma causa individual do efeito, mas podem refletir o efeito total e integrado devido a uma exposição mista. Ambos os tipos de biomarcadores podem, portanto, ser de uso considerável na saúde ocupacional.
Não há uma distinção clara entre biomarcadores de exposição e biomarcadores de efeito. Por exemplo, pode-se dizer que a formação do aduto reflete um efeito e não a exposição. No entanto, os biomarcadores de efeito geralmente indicam alterações nas funções das células, tecidos ou do corpo inteiro. Alguns pesquisadores incluem alterações grosseiras, como aumento do peso do fígado de animais de laboratório expostos ou diminuição do crescimento em crianças, como biomarcadores de efeito. Para fins de saúde ocupacional, os biomarcadores de efeito devem ser restritos àqueles que indicam alterações bioquímicas subclínicas ou reversíveis, como inibição de enzimas. O biomarcador de efeito mais utilizado é provavelmente a inibição da colinesterase causada por certos inseticidas, ou seja, organofosforados e carbamatos. Na maioria dos casos, esse efeito é totalmente reversível e a inibição da enzima reflete a exposição total a esse grupo específico de inseticidas.
Algumas exposições não resultam na inibição da enzima, mas sim no aumento da atividade de uma enzima. É o caso de várias enzimas pertencentes à família P450 (ver “Determinantes genéticos da resposta tóxica”). Eles podem ser induzidos por exposições a certos solventes e hidrocarbonetos poliaromáticos (PAHs). Uma vez que essas enzimas são expressas principalmente em tecidos dos quais uma biópsia pode ser difícil de obter, a atividade enzimática é determinada indiretamente in vivo pela administração de um composto que é metabolizado por essa enzima específica e, em seguida, o produto de decomposição é medido na urina ou no plasma.
Outras exposições podem induzir a síntese de uma proteína protetora no organismo. O melhor exemplo é provavelmente a metalotioneína, que se liga ao cádmio e promove a excreção desse metal; a exposição ao cádmio é um dos fatores que resultam no aumento da expressão do gene da metalotioneína. Proteínas protetoras semelhantes podem existir, mas ainda não foram suficientemente exploradas para serem aceitas como biomarcadores. Entre os candidatos a possíveis usos como biomarcadores estão as chamadas proteínas de estresse, originalmente chamadas de proteínas de choque térmico. Essas proteínas são geradas por uma variedade de organismos diferentes em resposta a uma variedade de exposições adversas.
O dano oxidativo pode ser avaliado pela determinação da concentração de malondialdeído no soro ou pela exalação de etano. Da mesma forma, a excreção urinária de proteínas de baixo peso molecular, como a albumina, pode ser utilizada como biomarcador de lesão renal precoce. Vários parâmetros usados rotineiramente na prática clínica (por exemplo, níveis séricos de hormônios ou enzimas) também podem ser úteis como biomarcadores. No entanto, muitos desses parâmetros podem não ser suficientemente sensíveis para detectar comprometimento precoce.
Outro grupo de parâmetros de efeito refere-se aos efeitos genotóxicos (alterações na estrutura dos cromossomos). Tais efeitos podem ser detectados por microscopia de glóbulos brancos que sofrem divisão celular. Danos sérios aos cromossomos – aberrações cromossômicas ou formação de micronúcleos – podem ser vistos em um microscópio. Os danos também podem ser revelados pela adição de um corante às células durante a divisão celular. A exposição a um agente genotóxico pode então ser visualizada como uma troca aumentada do corante entre as duas cromátides de cada cromossomo (troca de cromátides-irmãs). As aberrações cromossômicas estão relacionadas a um risco aumentado de desenvolver câncer, mas o significado de uma taxa aumentada de troca de cromátides-irmãs é menos claro.
Uma avaliação mais sofisticada da genotoxicidade é baseada em mutações pontuais específicas em células somáticas, isto é, glóbulos brancos ou células epiteliais obtidas da mucosa oral. Uma mutação em um locus específico pode tornar as células capazes de crescer em uma cultura que contém uma substância química tóxica (como a 6-tioguanina). Alternativamente, um produto gênico específico pode ser avaliado (por exemplo, concentrações séricas ou teciduais de oncoproteínas codificadas por oncogenes específicos). Obviamente, essas mutações refletem o dano genotóxico total incorrido e não necessariamente indicam nada sobre a exposição causadora. Esses métodos ainda não estão prontos para uso prático em saúde ocupacional, mas o rápido progresso nessa linha de pesquisa sugere que tais métodos estarão disponíveis dentro de alguns anos.
Biomarcadores de Suscetibilidade
Um marcador de suscetibilidade, herdada ou induzida, é um indicador de que o indivíduo é particularmente sensível ao efeito de um xenobiótico ou aos efeitos de um grupo desses compostos. A maior parte da atenção tem sido focada na suscetibilidade genética, embora outros fatores possam ser pelo menos tão importantes. A hipersuscetibilidade pode ser devida a uma característica hereditária, à constituição do indivíduo ou a fatores ambientais.
A capacidade de metabolizar certos produtos químicos é variável e é determinada geneticamente (consulte “Determinantes genéticos da resposta tóxica”). Várias enzimas relevantes parecem ser controladas por um único gene. Por exemplo, a oxidação de produtos químicos estranhos é realizada principalmente por uma família de enzimas pertencentes à família P450. Outras enzimas tornam os metabólitos mais solúveis em água por conjugação (por exemplo, N-acetiltransferase e μ-glutationa).S-transferase). A atividade dessas enzimas é controlada geneticamente e varia consideravelmente. Conforme mencionado acima, a atividade pode ser determinada pela administração de uma pequena dose de um medicamento e, em seguida, pela determinação da quantidade do metabólito na urina. Alguns dos genes já foram caracterizados e as técnicas estão disponíveis para determinar o genótipo. Estudos importantes sugerem que o risco de desenvolver certas formas de câncer está relacionado à capacidade de metabolizar compostos estranhos. Muitas questões ainda permanecem sem resposta, limitando, neste momento, o uso desses potenciais biomarcadores de suscetibilidade na saúde ocupacional.
Outros traços herdados, como alfa1-deficiência de antitripsina ou deficiência de glicose-6-fosfato desidrogenase, também resultam em mecanismos de defesa deficientes no corpo, causando hipersuscetibilidade a certas exposições.
A maioria das pesquisas relacionadas à suscetibilidade tratou da predisposição genética. Outros fatores também desempenham um papel e foram parcialmente negligenciados. Por exemplo, indivíduos com uma doença crônica podem ser mais sensíveis a uma exposição ocupacional. Além disso, se um processo de doença ou exposição anterior a substâncias químicas tóxicas causou algum dano subclínico de órgão, é provável que a capacidade de resistir a uma nova exposição tóxica seja menor. Os indicadores bioquímicos da função do órgão podem, neste caso, ser usados como biomarcadores de suscetibilidade. Talvez o melhor exemplo em relação à hipersuscetibilidade esteja relacionado às respostas alérgicas. Se um indivíduo se tornou sensível a uma exposição específica, anticorpos específicos podem ser detectados no soro. Mesmo que o indivíduo não tenha se tornado sensibilizado, outras exposições atuais ou passadas podem aumentar o risco de desenvolver um efeito adverso relacionado a uma exposição ocupacional.
Um grande problema é determinar o efeito conjunto de exposições mistas no trabalho. Além disso, hábitos pessoais e uso de drogas podem resultar em maior suscetibilidade. Por exemplo, a fumaça do tabaco geralmente contém uma quantidade considerável de cádmio. Assim, com a exposição ocupacional ao cádmio, um fumante inveterado que acumulou quantidades substanciais desse metal no corpo terá maior risco de desenvolver doença renal relacionada ao cádmio.
Aplicação em Saúde Ocupacional
Os biomarcadores são extremamente úteis na pesquisa toxicológica e muitos podem ser aplicáveis no monitoramento biológico. No entanto, as limitações também devem ser reconhecidas. Muitos biomarcadores até agora foram estudados apenas em animais de laboratório. Os padrões toxicocinéticos em outras espécies podem não refletir necessariamente a situação em seres humanos, e a extrapolação pode exigir estudos confirmatórios em voluntários humanos. Além disso, deve-se levar em consideração as variações individuais devido a fatores genéticos ou constitucionais.
Em alguns casos, os biomarcadores de exposição podem não ser viáveis (por exemplo, para produtos químicos de vida curta in vivo). Outros produtos químicos podem ser armazenados ou afetar órgãos que não podem ser acessados por procedimentos de rotina, como o sistema nervoso. A via de exposição também pode afetar o padrão de distribuição e, portanto, também a medição do biomarcador e sua interpretação. Por exemplo, a exposição direta do cérebro através do nervo olfativo provavelmente escapará da detecção pela medição dos biomarcadores de exposição. Quanto aos biomarcadores de efeito, muitos deles não são nada específicos, e a alteração pode ser devida a uma variedade de causas, incluindo fatores de estilo de vida. Talvez em particular com os biomarcadores de suscetibilidade, a interpretação deva ser muito cautelosa no momento, pois muitas incertezas permanecem sobre o significado geral de saúde de genótipos individuais.
Na saúde ocupacional, o biomarcador ideal deve atender a vários requisitos. Em primeiro lugar, a coleta e análise de amostras devem ser simples e confiáveis. Para uma qualidade analítica ideal, a padronização é necessária, mas os requisitos específicos variam consideravelmente. As principais áreas de preocupação incluem: preparação do indivíduo, procedimento de amostragem e manuseio da amostra e procedimento de medição; o último abrange fatores técnicos, como calibração e procedimentos de garantia de qualidade, e fatores relacionados ao indivíduo, como educação e treinamento de operadores.
Para documentação de validade analítica e rastreabilidade, os materiais de referência devem ser baseados em matrizes relevantes e com concentrações apropriadas de substâncias tóxicas ou metabólitos relevantes em níveis apropriados. Para que os biomarcadores sejam usados para monitoramento biológico ou para fins diagnósticos, os laboratórios responsáveis devem ter procedimentos analíticos bem documentados com características de desempenho definidas e registros acessíveis para permitir a verificação dos resultados. Ao mesmo tempo, no entanto, a economia de caracterizar e usar materiais de referência para complementar os procedimentos de garantia de qualidade em geral deve ser considerada. Assim, a qualidade alcançável dos resultados e os usos a que eles são destinados devem ser equilibrados com os custos adicionais de garantia de qualidade, incluindo materiais de referência, mão de obra e instrumentação.
Outra exigência é que o biomarcador seja específico, pelo menos nas circunstâncias do estudo, para um determinado tipo de exposição, com uma relação clara com o grau de exposição. Caso contrário, o resultado da medição do biomarcador pode ser muito difícil de interpretar. Para uma interpretação adequada do resultado da medição de um biomarcador de exposição, a validade diagnóstica deve ser conhecida (ou seja, a tradução do valor do biomarcador na magnitude de possíveis riscos à saúde). Nesta área, os metais servem de paradigma para a pesquisa de biomarcadores. Pesquisas recentes demonstraram a complexidade e sutileza das relações dose-resposta, com dificuldade considerável em identificar níveis sem efeito e, portanto, também em definir exposições toleráveis. No entanto, esse tipo de pesquisa também ilustrou os tipos de investigação e o refinamento necessários para descobrir as informações relevantes. Para a maioria dos compostos orgânicos, ainda não estão disponíveis associações quantitativas entre as exposições e os correspondentes efeitos adversos à saúde; em muitos casos, mesmo os órgãos-alvo primários não são conhecidos com certeza. Além disso, a avaliação dos dados de toxicidade e concentrações de biomarcadores é muitas vezes complicada pela exposição a misturas de substâncias, em vez da exposição a um único composto no momento.
Antes que o biomarcador seja aplicado para fins de saúde ocupacional, algumas considerações adicionais são necessárias. Primeiro, o biomarcador deve refletir apenas uma alteração subclínica e reversível. Em segundo lugar, dado que os resultados dos biomarcadores podem ser interpretados em relação aos riscos à saúde, esforços preventivos devem estar disponíveis e devem ser considerados realistas caso os dados dos biomarcadores sugiram a necessidade de reduzir a exposição. Em terceiro lugar, o uso prático do biomarcador deve ser geralmente considerado eticamente aceitável.
As medições de higiene industrial podem ser comparadas com os limites de exposição aplicáveis. Da mesma forma, os resultados em biomarcadores de exposição ou biomarcadores de efeito podem ser comparados aos limites de ação biológica, às vezes referidos como índices de exposição biológica. Esses limites devem ser baseados no melhor conselho de médicos e cientistas de disciplinas apropriadas, e os administradores responsáveis como “gerentes de risco” devem levar em consideração os fatores éticos, sociais, culturais e econômicos relevantes. A base científica deve, se possível, incluir relações dose-resposta complementadas por informações sobre variações na suscetibilidade dentro da população em risco. Em alguns países, trabalhadores e membros do público em geral estão envolvidos no processo de estabelecimento de padrões e fornecem contribuições importantes, especialmente quando a incerteza científica é considerável. Uma das maiores incertezas é como definir um efeito adverso à saúde que deve ser evitado - por exemplo, se a formação de aduto como um biomarcador de exposição por si só representa um efeito adverso (ou seja, biomarcador de efeito) que deve ser evitado. É provável que surjam questões difíceis ao decidir se é eticamente defensável, para o mesmo composto, ter limites diferentes para exposição acidental, por um lado, e exposição ocupacional, por outro.
As informações geradas pelo uso de biomarcadores geralmente devem ser transmitidas aos indivíduos examinados na relação médico-paciente. As preocupações éticas devem ser consideradas em particular em relação a análises de biomarcadores altamente experimentais que atualmente não podem ser interpretadas em detalhes em termos de riscos reais à saúde. Para a população em geral, por exemplo, existe orientação limitada no momento com relação à interpretação de biomarcadores de exposição além da concentração de chumbo no sangue. Também é importante a confiança nos dados gerados (ou seja, se a amostragem apropriada foi realizada e se procedimentos sólidos de garantia de qualidade foram utilizados no laboratório envolvido). Uma área adicional de preocupação especial está relacionada à hipersuscetibilidade individual. Essas questões devem ser levadas em consideração ao fornecer o feedback do estudo.
Todos os setores da sociedade afetados ou preocupados com a realização de um estudo de biomarcadores precisam ser envolvidos no processo de tomada de decisão sobre como lidar com as informações geradas pelo estudo. Procedimentos específicos para prevenir ou superar conflitos éticos inevitáveis devem ser desenvolvidos dentro dos marcos legais e sociais da região ou país. No entanto, cada situação representa um conjunto diferente de questões e armadilhas, e nenhum procedimento único para envolvimento do público pode ser desenvolvido para cobrir todas as aplicações de biomarcadores de exposição.
O conceito de vigilância refere-se ao estado de alerta de um observador humano em tarefas que exigem registro e processamento eficiente de sinais. As principais características das tarefas de vigilância são durações relativamente longas e a necessidade de detectar estímulos-alvo pouco frequentes e imprevisíveis (sinais) em um contexto de outros eventos de estímulo.
Tarefas de Vigilância
A tarefa prototípica para a pesquisa de vigilância era a dos operadores de radar. Historicamente, seu desempenho aparentemente insatisfatório durante a Segunda Guerra Mundial tem sido um grande impulso para o extenso estudo da vigilância. Outra tarefa importante que requer vigilância é uma inspeção industrial. De forma mais geral, todos os tipos de tarefas de monitoramento que requerem a detecção de sinais relativamente pouco frequentes incorporam o risco de falhas na detecção e na resposta a esses eventos críticos.
As tarefas de vigilância constituem um conjunto heterogéneo e variam em várias dimensões, apesar das suas características comuns. Uma dimensão obviamente importante é a taxa de estímulo geral, bem como a taxa de estímulos-alvo. Nem sempre é possível definir a taxa de estímulo de forma inequívoca. Este é o caso em tarefas que requerem a detecção de eventos-alvo contra estímulos de fundo apresentados continuamente, como na detecção de valores críticos em um conjunto de dials em uma tarefa de monitoramento. Uma distinção obviamente menos importante é aquela entre tarefas de discriminação sucessiva e tarefas de discriminação simultânea. Nas tarefas de discriminação simultânea, os estímulos-alvo e os estímulos de fundo estão presentes ao mesmo tempo, enquanto nas tarefas de discriminação sucessiva, um é apresentado após o outro, de modo que algumas demandas da memória são feitas. Embora a maioria das tarefas de vigilância requeira a detecção de estímulos visuais, estímulos em outras modalidades também foram estudados. Os estímulos podem ser confinados a uma única localização espacial, ou pode haver diferentes fontes de estímulos-alvo. Os estímulos-alvo podem diferir dos estímulos de fundo por características físicas, mas também por outras mais conceituais (como um certo padrão de leituras do medidor que pode diferir de outros padrões). Obviamente, a conspicuidade dos alvos pode variar: alguns podem ser detectados facilmente, enquanto outros podem ser difíceis de discriminar dos estímulos de fundo. Os estímulos-alvo podem ser únicos ou pode haver conjuntos de estímulos-alvo sem limites bem definidos para diferenciá-los dos estímulos de fundo, como é o caso em muitas tarefas de inspeção industrial. Essa lista de dimensões nas quais as tarefas de vigilância diferem pode ser expandida, mas mesmo esse tamanho da lista é suficiente para enfatizar a heterogeneidade das tarefas de vigilância e, portanto, os riscos envolvidos na generalização de certas observações em todo o conjunto.
Variações de desempenho e diminuição da vigilância
A medida de desempenho mais utilizada em tarefas de vigilância é a proporção de estímulos-alvo, por exemplo, produtos defeituosos em inspeção industrial, que foram detectados; esta é uma estimativa da probabilidade do chamado visitas. Esses estímulos-alvo que permanecem despercebidos são chamados sente falta. Embora a taxa de acertos seja uma medida conveniente, ela é um tanto incompleta. Existe uma estratégia trivial que permite atingir 100% de acertos: basta classificar todos os estímulos como alvos. No entanto, a taxa de acerto de 100% é acompanhada por uma taxa de alarme falso de 100%, ou seja, não apenas os estímulos-alvo são detectados corretamente, mas também os estímulos de fundo são “detectados” incorretamente. Essa linha de raciocínio deixa bem claro que sempre que houver alarmes falsos, é importante saber sua proporção além da taxa de acerto. Outra medida de desempenho em uma tarefa de vigilância é o tempo necessário para responder aos estímulos-alvo (tempo de resposta).
O desempenho em tarefas de vigilância exibe dois atributos típicos. O primeiro é o baixo nível geral de desempenho da vigilância. É baixo em comparação com uma situação ideal para os mesmos estímulos (curtos períodos de observação, alta prontidão do observador para cada discriminação, etc.). O segundo atributo é o chamado decréscimo de vigilância, o declínio do desempenho no decorrer do relógio que pode começar nos primeiros minutos. Ambas as observações se referem à proporção de acertos, mas também foram relatadas para tempos de resposta. Embora o decréscimo de vigilância seja típico de tarefas de vigilância, ele não é universal.
Ao investigar as causas do baixo desempenho geral e dos decréscimos da vigilância, será feita uma distinção entre conceitos relacionados às características básicas da tarefa e conceitos relacionados a fatores situacionais orgânicos e não relacionados à tarefa. Entre os fatores relacionados à tarefa, os estratégicos e não estratégicos podem ser distinguidos.
Processos estratégicos em tarefas de vigilância
A detecção de um sinal como um produto defeituoso é em parte uma questão de estratégia do observador e em parte uma questão de discriminabilidade do sinal. Essa distinção é baseada na teoria da detecção de sinal (TSD), e alguns fundamentos da teoria precisam ser apresentados para destacar a importância da distinção. Considere uma variável hipotética, definida como “evidência da presença de um sinal”. Sempre que um sinal é apresentado, esta variável assume algum valor, e sempre que um estímulo de fundo é apresentado, assume um valor menor na média. Supõe-se que o valor da variável de evidência varie entre apresentações repetidas do sinal. Assim, ela pode ser caracterizada por uma chamada função de densidade de probabilidade, conforme ilustrado na figura 1. Outra função de densidade caracteriza os valores da variável de evidência na apresentação de um estímulo de fundo. Quando os sinais são semelhantes aos estímulos de fundo, as funções se sobrepõem, de modo que um determinado valor da variável de evidência pode originar-se de um sinal ou de um estímulo de fundo. A forma particular das funções de densidade da figura 1 não é essencial para o argumento.
Figura 1. Limiares e discriminabilidade
A resposta de detecção do observador é baseada na variável de evidência. Supõe-se que um limite seja definido para que uma resposta de detecção seja fornecida sempre que o valor da variável de evidência estiver acima do limite. Conforme ilustrado na figura 1, as áreas sob as funções de densidade à direita do limite correspondem às probabilidades de acertos e alarmes falsos. Na prática, podem ser derivadas estimativas da separação das duas funções e da localização do limiar. A separação das duas funções de densidade caracteriza a discriminabilidade dos estímulos-alvo dos estímulos de fundo, enquanto a localização do limiar caracteriza a estratégia do observador. A variação do limiar produz uma variação conjunta das proporções de acertos e falsos alarmes. Com um limiar alto, as proporções de acertos e falsos alarmes serão pequenas, enquanto que com um limiar baixo as proporções serão grandes. Assim, a seleção de uma estratégia (colocação do limiar) é essencialmente a seleção de uma certa combinação de taxa de acerto e taxa de falso alarme dentre as combinações possíveis para uma certa discriminabilidade.
Dois fatores principais que influenciam a localização do limite são os retornos e a frequência do sinal. O limite será definido para valores mais baixos quando houver muito a ganhar com um acerto e pouco a perder com um alarme falso, e será definido como valores mais altos quando os alarmes falsos forem caros e os benefícios dos acertos forem pequenos. Uma configuração de limite baixo também pode ser induzida por uma alta proporção de sinais, enquanto uma proporção baixa de sinais tende a induzir configurações de limite mais altas. O efeito da frequência do sinal nas configurações de limite é um fator importante para o baixo desempenho geral em termos de proporção de acertos em tarefas de vigilância e para o decréscimo de vigilância.
A contabilização do decréscimo da vigilância em termos de mudanças estratégicas (mudanças de limiar) requer que a redução da proporção de acertos no decorrer da vigilância seja acompanhada de uma redução da proporção de falsos alarmes. Este é, de fato, o caso em muitos estudos, e é provável que o baixo desempenho geral nas tarefas de vigilância (em comparação com a situação ótima) também resulte, pelo menos em parte, de um ajuste de limiar. No decorrer de uma observação, a frequência relativa das respostas de detecção coincide com a frequência relativa dos alvos, e esse ajuste implica um limite alto com uma proporção relativamente pequena de acertos e também uma proporção relativamente pequena de alarmes falsos. No entanto, há decréscimos de vigilância que resultam de mudanças na discriminabilidade, e não de mudanças nas configurações de limite. Estes foram observados principalmente em tarefas de discriminação sucessiva com uma taxa relativamente alta de eventos de estímulo.
Processos não estratégicos em tarefas de vigilância
Embora parte do mau desempenho geral em tarefas de vigilância e muitas instâncias do decréscimo de vigilância possam ser contabilizadas em termos de ajustes estratégicos do limiar de detecção para baixas taxas de sinal, tal relato não está completo. Há mudanças no observador durante uma observação que podem reduzir a discriminabilidade dos estímulos ou resultar em aparentes mudanças de limiar que não podem ser consideradas como uma adaptação às características da tarefa. Nos mais de 40 anos de pesquisa em vigilância, foram identificados vários fatores não estratégicos que contribuem para o mau desempenho geral e para a diminuição da vigilância.
Uma resposta correta a um alvo em uma tarefa de vigilância requer um registro sensorial suficientemente preciso, uma localização de limiar apropriada e uma ligação entre os processos perceptivos e os processos associados relacionados à resposta. Durante a observação, os observadores devem manter um determinado conjunto de tarefas, uma certa prontidão para responder aos estímulos-alvo de uma determinada maneira. Este é um requisito não trivial porque, sem uma tarefa específica definida, nenhum observador responderia aos estímulos-alvo da maneira necessária. Duas fontes principais de falhas são, portanto, registros sensoriais imprecisos e lapsos na prontidão para responder aos estímulos-alvo. As principais hipóteses para explicar tais falhas serão brevemente revisadas.
A detecção e identificação de um estímulo são mais rápidas quando não há incerteza temporal ou espacial sobre sua aparência. É provável que a incerteza temporal e/ou espacial reduza o desempenho da vigilância. Esta é a previsão essencial de teoria da Expectativa. A preparação ideal do observador requer certeza temporal e espacial; obviamente, as tarefas de vigilância são menos do que ideais a esse respeito. Embora o foco principal da teoria da expectativa seja o baixo desempenho geral, ela também pode servir para explicar partes do decréscimo da vigilância. Com sinais pouco frequentes em intervalos aleatórios, altos níveis de preparação podem existir inicialmente em momentos em que nenhum sinal é apresentado; além disso, serão apresentados sinais em níveis baixos de preparação. Isso desencoraja altos níveis ocasionais de preparação em geral, de modo que quaisquer benefícios advindos deles desaparecerão no decorrer de uma vigília.
A teoria da expectativa tem uma estreita relação com teorias atencionais. As variantes das teorias atencionais da vigilância, é claro, estão relacionadas às teorias dominantes da atenção em geral. Considere uma visão de atenção como “seleção para processamento” ou “seleção para ação”. De acordo com essa visão, os estímulos são selecionados do ambiente e processados com alta eficiência sempre que servem ao plano de ação ou ao conjunto de tarefas atualmente dominante. Como já foi dito, a seleção se beneficiará de expectativas precisas sobre quando e onde tais estímulos ocorrerão. Mas os estímulos só serão selecionados se o plano de ação – o conjunto de tarefas – estiver ativo. (Os motoristas de carros, por exemplo, respondem a semáforos, outros tipos de tráfego, etc.; os passageiros não o fazem normalmente, embora ambos estejam quase na mesma situação. A diferença crítica é que entre os conjuntos de tarefas dos dois: apenas o conjunto de tarefas do motorista requer respostas aos semáforos.)
A seleção de estímulos para processamento sofrerá quando o plano de ação for desativado temporariamente, ou seja, quando o conjunto de tarefas estiver temporariamente ausente. As tarefas de vigilância incorporam uma série de características que desencorajam a manutenção contínua do conjunto de tarefas, como tempos de ciclo curtos para processamento de estímulos, falta de feedback e pouco desafio motivacional pela aparente dificuldade da tarefa. Os chamados bloqueios podem ser observados em quase todas as tarefas cognitivas simples com tempos de ciclo curtos, como aritmética mental simples ou respostas seriais rápidas a sinais simples. Bloqueios semelhantes também ocorrem na manutenção da tarefa definida em uma tarefa de vigilância. Eles não são imediatamente reconhecíveis como respostas atrasadas porque as respostas são pouco frequentes e os alvos que são apresentados durante um período de ausência do conjunto de tarefas podem não estar mais lá quando a ausência terminar, de modo que uma falha será observada em vez de uma resposta atrasada. Os bloqueios tornam-se mais frequentes com o tempo gasto na tarefa. Isso pode dar origem ao decréscimo de vigilância. Pode haver razões adicionais para lapsos temporários na disponibilidade do conjunto de tarefas apropriado, por exemplo, distração.
Certos estímulos não são selecionados a serviço do plano de ação vigente, mas em virtude de suas próprias características. Esses são estímulos intensos, novos, que se movem em direção ao observador, têm um início abrupto ou por qualquer outro motivo podem exigir ação imediata, independentemente do plano de ação atual do observador. Há pouco risco de não detectar tais estímulos. Eles atraem a atenção automaticamente, como é indicado, por exemplo, pela resposta de orientação, que inclui uma mudança na direção do olhar em direção à fonte do estímulo. No entanto, atender uma campainha de alarme normalmente não é considerado uma tarefa de vigilância. Além dos estímulos que chamam a atenção por suas características próprias, existem estímulos que são processados automaticamente como consequência da prática. Eles parecem “sair” do ambiente. Esse tipo de processamento automático requer prática estendida com o chamado mapeamento consistente, ou seja, uma atribuição consistente de respostas a estímulos. O decréscimo da vigilância provavelmente será pequeno ou mesmo ausente uma vez que o processamento automático de estímulos tenha sido desenvolvido.
Finalmente, o desempenho da vigilância sofre com a falta de excitação. Esse conceito refere-se de maneira bastante global à intensidade da atividade neural, variando do sono, passando pela vigília normal, até a alta excitação. Um dos fatores que afetam a excitação é a estimulação externa, e esta é bastante baixa e uniforme na maioria das tarefas de vigilância. Assim, a intensidade da atividade do sistema nervoso central pode diminuir ao longo de um relógio. Um aspecto importante da teoria da excitação é que ela vincula o desempenho da vigilância a vários fatores situacionais não relacionados à tarefa e fatores relacionados ao organismo.
A influência de fatores situacionais e organísmicos
Baixa excitação contribui para baixo desempenho em tarefas de vigilância. Assim, o desempenho pode ser aprimorado por fatores situacionais que tendem a aumentar a excitação e pode ser reduzido por todas as medidas que reduzem o nível de excitação. No geral, essa generalização é mais correta para o nível geral de desempenho em tarefas de vigilância, mas os efeitos no decréscimo de vigilância estão ausentes ou observados de forma menos confiável em diferentes tipos de manipulação de excitação.
Uma maneira de aumentar o nível de excitação é a introdução de ruído adicional. No entanto, o decréscimo de vigilância geralmente não é afetado e, com relação ao desempenho geral, os resultados são inconsistentes: níveis de desempenho aprimorados, inalterados e reduzidos foram todos observados. Talvez a natureza complexa do ruído seja relevante. Por exemplo, pode ser afetivamente neutro ou irritante; não pode ser apenas excitante, mas também uma distração. Mais consistentes são os efeitos da privação do sono, que é “desativante”. Geralmente reduz o desempenho da vigilância e, às vezes, pode aumentar a diminuição da vigilância. Alterações apropriadas no desempenho da vigilância também foram observadas com drogas depressivas como benzodiazepínicos ou álcool e drogas estimulantes como anfetamina, cafeína ou nicotina.
As diferenças individuais são uma característica marcante do desempenho em tarefas de vigilância. Embora as diferenças individuais não sejam consistentes em todos os tipos de tarefas de vigilância, elas são bastante consistentes em tarefas semelhantes. Há apenas pouco ou nenhum efeito do sexo e da inteligência geral. Com relação à idade, o desempenho da vigilância aumenta durante a infância e tende a diminuir após os XNUMX anos. Além disso, há uma boa chance de que os introvertidos mostrem melhor desempenho do que os extrovertidos.
A melhoria do desempenho da vigilância
As teorias e dados existentes sugerem alguns meios para melhorar o desempenho da vigilância. Dependendo da quantidade de especificidade das sugestões, não é difícil compilar listas de vários tamanhos. Algumas sugestões bastante amplas são dadas abaixo que devem ser ajustadas aos requisitos de tarefas específicas. Estão relacionados com a facilidade de discriminações perceptivas, os ajustes estratégicos apropriados, a redução da incerteza, a evitação dos efeitos dos lapsos de atenção e a manutenção da excitação.
Tarefas de vigilância requerem discriminações sob condições não ótimas. Assim, é aconselhável tornar as discriminações tão fáceis quanto possível, ou os sinais tão evidentes quanto possível. As medidas relacionadas a esse objetivo geral podem ser diretas (como iluminação adequada ou tempos de inspeção mais longos por produto) ou mais sofisticadas, incluindo dispositivos especiais para aumentar a visibilidade dos alvos. As comparações simultâneas são mais fáceis do que as sucessivas, portanto, a disponibilidade de um padrão de referência pode ser útil. Por meio de dispositivos técnicos, às vezes é possível apresentar o padrão e o objeto a ser examinado em rápida alternância, de modo que as diferenças apareçam como movimentos na tela ou outras mudanças para as quais o sistema visual é particularmente sensível.
Para contrariar as alterações estratégicas do limiar que conduzem a uma proporção relativamente baixa de deteções corretas de alvos (e para tornar a tarefa menos aborrecida em termos da frequência das ações a efetuar) foi sugerida a introdução de alvos falsos. No entanto, esta não parece ser uma boa recomendação. Alvos falsos aumentarão a proporção de acertos em geral, mas ao custo de alarmes falsos mais frequentes. Além disso, a proporção de alvos não detectados entre todos os estímulos que não são respondidos (o material defeituoso que sai em uma tarefa de inspeção industrial) não será necessariamente reduzida. Mais adequado parece ser o conhecimento explícito sobre a importância relativa de ocorrências e alarmes falsos e talvez outras medidas para obter uma colocação adequada do limite para decidir entre “bom” e “mau”.
A incerteza temporal e espacial são determinantes importantes do mau desempenho da vigilância. Para algumas tarefas, a incerteza espacial pode ser reduzida por meio da definição de uma determinada posição do objeto a ser inspecionado. No entanto, pouco pode ser feito sobre a incerteza temporal: o observador seria desnecessário em uma tarefa de vigilância se a ocorrência de um alvo pudesse ser sinalizada antes de sua apresentação. Uma coisa que pode ser feita em princípio, no entanto, é misturar os objetos a serem inspecionados se as falhas tendem a ocorrer em grupos; isso serve para evitar intervalos muito longos sem metas, bem como intervalos muito curtos.
Existem algumas sugestões óbvias para a redução de lapsos de atenção ou pelo menos seu impacto no desempenho. Por meio de treinamento adequado, algum tipo de processamento automático de alvos talvez possa ser obtido, desde que os estímulos de fundo e alvo não sejam muito variáveis. A exigência de manutenção sustentada do conjunto de tarefas pode ser evitada por meio de pausas curtas frequentes, rotação de trabalho, ampliação do trabalho ou enriquecimento do trabalho. A introdução da variedade pode ser tão simples quanto fazer com que o próprio inspetor obtenha o material a ser inspecionado de uma caixa ou outro local. Isso também introduz o autocontrole, que pode ajudar a evitar apresentações de sinais durante desativações temporárias do conjunto de tarefas. A manutenção sustentada do conjunto de tarefas pode ser suportada por meio de feedback, interesse indicado pelos supervisores e conscientização do operador sobre a importância da tarefa. Obviamente, feedback preciso do nível de desempenho não é possível em tarefas típicas de vigilância; no entanto, mesmo um feedback impreciso ou incompleto pode ser útil no que diz respeito à motivação do observador.
Existem algumas medidas que podem ser tomadas para manter um nível suficiente de excitação. O uso contínuo de medicamentos pode existir na prática, mas nunca é encontrado nas recomendações. Algumas músicas de fundo podem ser úteis, mas também podem ter um efeito oposto. O isolamento social durante as tarefas de vigilância deve ser evitado principalmente e, durante os períodos do dia com baixos níveis de excitação, como altas horas da noite, medidas de suporte, como relógios curtos, são particularmente importantes.
A avaliação da toxicidade genética é a avaliação dos agentes quanto à sua capacidade de induzir qualquer um dos três tipos gerais de alterações (mutações) no material genético (DNA): gene, cromossômico e genômico. Em organismos como os humanos, os genes são compostos de DNA, que consiste em unidades individuais chamadas bases de nucleotídeos. Os genes são arranjados em estruturas físicas discretas chamadas cromossomos. A genotoxicidade pode resultar em efeitos significativos e irreversíveis na saúde humana. O dano genotóxico é um passo crítico na indução do câncer e também pode estar envolvido na indução de defeitos congênitos e morte fetal. As três classes de mutações mencionadas acima podem ocorrer dentro de qualquer um dos dois tipos de tecidos possuídos por organismos como os humanos: esperma ou óvulos (células germinativas) e o tecido remanescente (células somáticas).
Os ensaios que medem a mutação genética são aqueles que detectam a substituição, adição ou deleção de nucleotídeos dentro de um gene. Os ensaios que medem a mutação cromossômica são aqueles que detectam quebras ou rearranjos cromossômicos envolvendo um ou mais cromossomos. Os ensaios que medem a mutação genômica são aqueles que detectam alterações no número de cromossomos, uma condição chamada aneuploidia. A avaliação da toxicidade genética mudou consideravelmente desde o desenvolvimento por Herman Muller em 1927 do primeiro ensaio para detectar agentes genotóxicos (mutagênicos). Desde então, foram desenvolvidos mais de 200 ensaios que medem mutações no DNA; no entanto, menos de dez ensaios são comumente usados atualmente para avaliação de toxicidade genética. Este artigo analisa esses ensaios, descreve o que eles medem e explora o papel desses ensaios na avaliação de toxicidade.
Identificação de Riscos de Câncer Antes do Desenvolvimento do Campo da Toxicologia Genética
A toxicologia genética tornou-se parte integrante do processo geral de avaliação de risco e ganhou estatura nos últimos tempos como um preditor confiável para atividade carcinogênica. No entanto, antes do desenvolvimento da toxicologia genética (antes de 1970), outros métodos foram e ainda estão sendo usados para identificar riscos potenciais de câncer para os seres humanos. Existem seis categorias principais de métodos atualmente usados para identificar riscos de câncer humano: estudos epidemiológicos, bioensaios in vivo de longo prazo, bioensaios in vivo de médio prazo, bioensaios in vivo e in vitro de curto prazo, inteligência artificial (estrutura-atividade), e inferência baseada em mecanismo.
A Tabela 1 apresenta as vantagens e desvantagens desses métodos.
Tabela 1. Vantagens e desvantagens dos métodos atuais para identificar riscos de câncer humano
Vantagens | Desvantagens | |
Estudos epidemiológicos | (1) os seres humanos são indicadores definitivos de doenças; (2) avaliar populações sensíveis ou suscetíveis; (3) coortes de exposição ocupacional; (4) alertas sentinelas ambientais |
(1) geralmente retrospectivo (certidões de óbito, vieses de memória, etc.); (2) insensível, caro, demorado; (3) dados de exposição confiáveis às vezes indisponíveis ou difíceis de obter; (4) exposições combinadas, múltiplas e complexas; falta de coortes de controle apropriadas; (5) experimentos em humanos não realizados; (6) detecção de câncer, não prevenção |
Bioensaios in vivo de longa duração | (1) avaliações prospectivas e retrospectivas (validação); (2) excelente correlação com carcinógenos humanos identificados; (3) níveis de exposição e condições conhecidas; (4) identifica efeitos de toxicidade química e carcinogenicidade; (5) resultados obtidos de forma relativamente rápida; (6) comparações qualitativas entre classes químicas; (7) sistemas biológicos integrados e interativos intimamente relacionados aos humanos | (1) raramente replicado, uso intensivo de recursos; (3) instalações limitadas adequadas para tais experimentos; (4) debate sobre extrapolação de espécies; (5) as exposições usadas são frequentemente em níveis muito superiores aos experimentados por humanos; (6) a exposição a um único produto químico não imita as exposições humanas, que geralmente são a vários produtos químicos simultaneamente |
Bioensaios in vivo e in vitro de médio e curto prazo | (1) mais rápido e menos dispendioso do que outros ensaios; (2) grandes amostras que são facilmente reproduzíveis; (3) pontos finais biologicamente significativos são medidos (mutação, etc.); (4) podem ser usados como ensaios de triagem para selecionar produtos químicos para bioensaios de longo prazo |
(1) in vitro não prediz totalmente in vivo; (2) geralmente organismo ou órgão específico; (3) potências não comparáveis a animais inteiros ou humanos |
Associações estrutura química-atividade biológica | (1) relativamente fácil, rápido e barato; (2) confiável para certas classes químicas (por exemplo, nitrosaminas e corantes de benzidina); (3) desenvolvido a partir de dados biológicos, mas não dependente de experimentação biológica adicional | (1) não “biológica”; (2) muitas exceções às regras formuladas; (3) retrospectivo e raramente (mas se tornando) prospectivo |
Inferências baseadas em mecanismos | (1) razoavelmente preciso para certas classes de produtos químicos; (2) permite refinamentos de hipóteses; (3) pode orientar avaliações de risco para populações sensíveis | (1) mecanismos de carcinogênese química indefinidos, múltiplos e provavelmente químicos ou específicos de classe; (2) pode deixar de destacar exceções aos mecanismos gerais |
Justificativa e Base Conceitual para Ensaios de Toxicologia Genética
Embora os tipos e números exatos de ensaios usados para avaliação de toxicidade genética estejam em constante evolução e variem de país para país, os mais comuns incluem ensaios para (1) mutação genética em bactérias e/ou células de mamíferos cultivadas e (2) mutação cromossômica em células de mamíferos cultivadas e/ou medula óssea em camundongos vivos. Alguns dos ensaios dentro desta segunda categoria também podem detectar aneuploidia. Embora esses ensaios não detectem mutações em células germinativas, eles são usados principalmente devido ao custo extra e à complexidade da realização de ensaios de células germinativas. No entanto, ensaios de células germinativas em camundongos são usados quando informações sobre os efeitos das células germinativas são desejadas.
Estudos sistemáticos durante um período de 25 anos (1970-1995), especialmente no Programa Nacional de Toxicologia dos EUA na Carolina do Norte, resultaram no uso de um número discreto de ensaios para detectar a atividade mutagênica dos agentes. A justificativa para avaliar a utilidade dos ensaios foi baseada em sua capacidade de detectar agentes que causam câncer em roedores e que são suspeitos de causar câncer em humanos (ou seja, carcinógenos). Isso ocorre porque estudos durante as últimas décadas indicaram que as células cancerígenas contêm mutações em certos genes e que muitos carcinógenos também são mutagênicos. Assim, as células cancerígenas são vistas como contendo mutações de células somáticas, e a carcinogênese é vista como um tipo de mutagênese de células somáticas.
Os ensaios de toxicidade genética usados mais comumente hoje foram selecionados não apenas por causa de seu grande banco de dados, custo relativamente baixo e facilidade de desempenho, mas porque demonstraram detectar muitos carcinógenos de roedores e, presumivelmente, humanos. Consequentemente, os ensaios de toxicidade genética são usados para prever a potencial carcinogenicidade dos agentes.
Um importante desenvolvimento conceitual e prático no campo da toxicologia genética foi o reconhecimento de que muitos carcinógenos foram modificados por enzimas dentro do corpo, criando formas alteradas (metabólitos) que frequentemente eram a forma carcinogênica e mutagênica definitiva do produto químico original. Para duplicar esse metabolismo em uma placa de Petri, Heinrich Malling mostrou que a inclusão de uma preparação de fígado de roedor continha muitas das enzimas necessárias para realizar essa conversão ou ativação metabólica. Assim, muitos ensaios de toxicidade genética realizados em placas ou tubos (in vitro) empregam a adição de preparações enzimáticas semelhantes. As preparações simples são chamadas de mistura S9 e as preparações purificadas são chamadas de microssomos. Algumas células bacterianas e de mamíferos já foram geneticamente modificadas para conter alguns dos genes de roedores ou humanos que produzem essas enzimas, reduzindo a necessidade de adicionar mistura S9 ou microssomos.
Ensaios e Técnicas de Toxicologia Genética
Os sistemas bacterianos primários usados para triagem de toxicidade genética são o ensaio de mutagenicidade de Salmonella (Ames) e, em uma extensão muito menor, a cepa WP2 de Escherichia coli. Estudos em meados da década de 1980 indicaram que o uso de apenas duas cepas do sistema Salmonella (TA98 e TA100) eram suficientes para detectar aproximadamente 90% dos mutagênicos conhecidos de Salmonella. Assim, essas duas cepas são usadas para a maioria dos propósitos de triagem; no entanto, várias outras cepas estão disponíveis para testes mais extensos.
Esses ensaios são realizados de várias maneiras, mas dois procedimentos gerais são os ensaios de incorporação em placa e suspensão líquida. No ensaio de incorporação de placa, as células, o produto químico de teste e (quando desejado) o S9 são adicionados juntos em um ágar liquefeito e despejados na superfície de uma placa de Petri de ágar. O ágar superior endurece em alguns minutos e as placas são incubadas por dois a três dias, após o que as células mutantes cresceram para formar aglomerados visualmente detectáveis de células chamadas colônias, que são então contadas. O meio de ágar contém agentes seletivos ou é composto de ingredientes de forma que apenas as células recém-mutadas irão crescer. O ensaio de incubação líquida é semelhante, exceto que as células, agente de teste e S9 são incubados juntos em líquido que não contém ágar liquefeito e, em seguida, as células são lavadas para remover o agente de teste e S9 e semeadas no ágar.
Mutações em células de mamíferos cultivadas são detectadas principalmente em um dos dois genes: hprt e tk. Semelhante aos ensaios bacterianos, as linhagens de células de mamíferos (desenvolvidas a partir de roedores ou células humanas) são expostas ao agente de teste em placas de cultura de plástico ou tubos e, em seguida, são semeadas em placas de cultura que contêm meio com um agente seletivo que permite apenas o crescimento de células mutantes . Os ensaios usados para esse fim incluem o CHO/HPRT, o TK6 e o linfoma de camundongo L5178Y/TK+/- ensaios. Outras linhas de células contendo várias mutações de reparo de DNA, bem como contendo alguns genes humanos envolvidos no metabolismo também são usadas. Esses sistemas permitem a recuperação de mutações dentro do gene (mutação gênica), bem como mutações envolvendo regiões do cromossomo que flanqueiam o gene (mutação cromossômica). No entanto, este último tipo de mutação é recuperado em muito maior extensão pelo tk sistemas de genes do que pelos hprt sistemas de genes devido à localização do tk desconfortável.
Semelhante ao ensaio de incubação líquida para mutagenicidade bacteriana, os ensaios de mutagenicidade de células de mamíferos geralmente envolvem a exposição das células em placas ou tubos de cultura na presença do agente de teste e S9 por várias horas. As células são então lavadas, cultivadas por mais alguns dias para permitir que os produtos gênicos normais (tipo selvagem) sejam degradados e os produtos gênicos recém-mutados sejam expressos e acumulados, e então eles são semeados em meio contendo um agente seletivo que permite apenas as células mutantes para crescer. Como os ensaios bacterianos, as células mutantes crescem em colônias visualmente detectáveis que são então contadas.
A mutação cromossômica é identificada principalmente por ensaios citogenéticos, que envolvem a exposição de roedores e/ou roedores ou células humanas em placas de cultura a um produto químico de teste, permitindo que uma ou mais divisões celulares ocorram, coloração dos cromossomos e, em seguida, exame visual dos cromossomos através de um microscópio para detectar alterações na estrutura ou no número de cromossomos. Embora uma variedade de parâmetros possa ser examinada, os dois que são atualmente aceitos pelas agências reguladoras como sendo os mais significativos são as aberrações cromossômicas e uma subcategoria chamada micronúcleos.
São necessários treinamento e experiência consideráveis para pontuar as células quanto à presença de aberrações cromossômicas, o que torna esse procedimento caro em termos de tempo e dinheiro. Em contraste, os micronúcleos requerem pouco treinamento e sua detecção pode ser automatizada. Os micronúcleos aparecem como pequenos pontos dentro da célula que são distintos do núcleo, que contém os cromossomos. Os micronúcleos resultam de quebra cromossômica ou de aneuploidia. Devido à facilidade de marcar micronúcleos em comparação com aberrações cromossômicas, e porque estudos recentes indicam que os agentes que induzem aberrações cromossômicas na medula óssea de camundongos vivos geralmente induzem micronúcleos neste tecido, os micronúcleos são agora comumente medidos como uma indicação da capacidade de um agente para induzir mutação cromossômica.
Embora os ensaios de células germinativas sejam usados com muito menos frequência do que os outros ensaios descritos acima, eles são indispensáveis para determinar se um agente representa um risco para as células germinativas, cujas mutações podem levar a efeitos na saúde nas gerações seguintes. Os ensaios de células germinativas mais comumente usados são em camundongos e envolvem sistemas que detectam (1) translocações hereditárias (trocas) entre cromossomos (ensaio de translocação hereditária), (2) genes ou mutações cromossômicas envolvendo genes específicos (visíveis ou bioquímicas de locus específico ensaios) e (3) mutações que afetam a viabilidade (ensaio letal dominante). Tal como acontece com os ensaios de células somáticas, a suposição de trabalho com os ensaios de células germinativas é que os agentes positivos nesses ensaios são presumivelmente mutagênicos em células germinativas humanas.
Situação Atual e Perspectivas Futuras
Estudos recentes indicaram que apenas três informações eram necessárias para detectar aproximadamente 90% de um conjunto de 41 carcinógenos de roedores (ou seja, presumíveis carcinógenos humanos e mutagênicos de células somáticas). Estes incluíram (1) conhecimento da estrutura química do agente, especialmente se ele contiver porções eletrofílicas (consulte a seção sobre relações estrutura-atividade); (2) Dados de mutagenicidade de Salmonella; e (3) dados de um ensaio de toxicidade crônica de 90 dias em roedores (camundongos e ratos). De fato, praticamente todos os carcinógenos humanos declarados pela IARC são detectáveis como mutagênicos usando apenas o ensaio de Salmonella e o ensaio de micronúcleo de medula óssea de camundongo. O uso desses ensaios de mutagenicidade para detectar potenciais carcinógenos humanos é apoiado ainda mais pela constatação de que a maioria dos carcinógenos humanos são carcinógenos em ratos e camundongos (carcinógenos transespécies) e que a maioria dos carcinógenos transespécies são mutagênicos em Salmonella e/ou induzem micronúcleos na medula óssea de camundongos.
Com os avanços na tecnologia do DNA, o projeto do genoma humano e uma melhor compreensão do papel da mutação no câncer, estão sendo desenvolvidos novos ensaios de genotoxicidade que provavelmente serão incorporados aos procedimentos de triagem padrão. Entre eles estão o uso de células transgênicas e roedores. Sistemas transgênicos são aqueles em que um gene de outra espécie foi introduzido em uma célula ou organismo. Por exemplo, já estão em uso experimental camundongos transgênicos que permitem a detecção de mutação em qualquer órgão ou tecido do animal, a partir da introdução de um gene bacteriano no camundongo. Células bacterianas, como Salmonella, e células de mamíferos (incluindo linhagens celulares humanas) já estão disponíveis contendo genes envolvidos no metabolismo de agentes carcinogênicos/mutagênicos, como os genes P450. Análise molecular das mutações reais induzidas no gene trans em roedores transgênicos ou em genes nativos, como hprt, ou os genes-alvo dentro da Salmonella podem agora ser realizados, de modo que a natureza exata das mutações induzidas pelos produtos químicos possa ser determinada, fornecendo informações sobre o mecanismo de ação do produto químico e permitindo comparações com mutações em humanos presumivelmente expostos ao agente .
Avanços moleculares em citogenética agora permitem uma avaliação mais detalhada de mutações cromossômicas. Isso inclui o uso de sondas (pequenos pedaços de DNA) que se ligam (hibridizam) a genes específicos. Rearranjos de genes no cromossomo podem então ser revelados pela localização alterada das sondas, que são fluorescentes e facilmente visualizadas como setores coloridos nos cromossomos. O ensaio de eletroforese em gel de célula única para quebra de DNA (comumente chamado de ensaio “cometa”) permite a detecção de quebras de DNA dentro de células individuais e pode se tornar uma ferramenta extremamente útil em combinação com técnicas citogenéticas para detectar danos cromossômicos.
Após muitos anos de uso e a geração de um banco de dados grande e sistematicamente desenvolvido, a avaliação da toxicidade genética pode agora ser feita com apenas alguns ensaios por um custo relativamente pequeno em um curto período de tempo (algumas semanas). Os dados produzidos podem ser usados para prever a capacidade de um agente ser um roedor e, presumivelmente, carcinógeno humano/mutagênico de células somáticas. Esta capacidade permite limitar a introdução no ambiente de agentes mutagénicos e cancerígenos e desenvolver agentes alternativos não mutagénicos. Estudos futuros devem levar a métodos ainda melhores com maior previsibilidade do que os ensaios atuais.
" ISENÇÃO DE RESPONSABILIDADE: A OIT não se responsabiliza pelo conteúdo apresentado neste portal da Web em qualquer idioma que não seja o inglês, que é o idioma usado para a produção inicial e revisão por pares do conteúdo original. Algumas estatísticas não foram atualizadas desde a produção da 4ª edição da Enciclopédia (1998)."