28. Epidemiología y Estadística
Editores de capítulos: Franco Merletti, Colin L. Soskolne y Paolo Vineis
Método Epidemiológico Aplicado a la Seguridad y Salud en el Trabajo
Franco Merletti, Colin L. Soskolne y Paolo Vineis
Asesoramiento de exposición
Sr. Gerald Ott
Resumen de las medidas de exposición en la vida laboral
Colin L. Soskolne
Medición de los efectos de las exposiciones
Shelia Hoar Zahm
Estudio de caso: Medidas
Franco Merletti, Colin L. Soskolne y Paola Vineis
Opciones en el diseño del estudio
Sven Hernberg
Problemas de validez en el diseño del estudio
Annie J. Sasco
Impacto del error de medición aleatorio
Paolo Vineis y Colin L. Soskolne
Métodos de estadística
Annibale Biggeri y Mario Braga
Evaluación de causalidad y ética en la investigación epidemiológica
paolo vineis
Estudios de casos que ilustran cuestiones metodológicas en la vigilancia de las enfermedades profesionales
Jung Der Wang
Cuestionarios en Investigación Epidemiológica
Steven D. Stellman y Colin L. Soskolne
Perspectiva Histórica del Asbesto
Lorenzo Garfinkel
Haga clic en un enlace a continuación para ver la tabla en el contexto del artículo.
1. Cinco medidas resumidas seleccionadas de exposición en la vida laboral
2. Medidas de ocurrencia de enfermedades
3. Medidas de asociación para un estudio de cohortes
4. Medidas de asociación para estudios de casos y controles
5. Diseño general de la tabla de frecuencias para datos de cohortes
6. Diseño de muestra de datos de casos y controles
7. Diseño de datos de casos y controles: un control por caso
8. Cohorte hipotética de 1950 individuos a T2
9. Índices de tendencia central y dispersión
10. Un experimento binomial y probabilidades
11. Posibles resultados de un experimento binomial
12. Distribución binomial, 15 éxitos/30 intentos
13. Distribución binomial, p = 0.25; 30 ensayos
14. error de tipo II y potencia; x = 12, n = 30, a = 0.05
15. error de tipo II y potencia; x = 12, n = 40, a = 0.05
16. 632 trabajadores expuestos al asbesto durante 20 años o más
17. O/E número de muertes entre 632 trabajadores del asbesto
Apunte a una miniatura para ver el título de la figura, haga clic para ver la figura en el contexto del artículo.
Epidemiología
La epidemiología es reconocida tanto como la ciencia básica de la medicina preventiva como que informa el proceso de políticas de salud pública. Se han sugerido varias definiciones operativas de epidemiología. La más simple es que la epidemiología es el estudio de la aparición de enfermedades u otras características relacionadas con la salud en poblaciones humanas y animales. Los epidemiólogos estudian no solo la frecuencia de la enfermedad, sino también si la frecuencia difiere entre grupos de personas; es decir, estudian la relación causa-efecto entre la exposición y la enfermedad. Las enfermedades no ocurren al azar; tienen causas, muy a menudo provocadas por el hombre, que son evitables. Así, muchas enfermedades podrían prevenirse si se conocieran las causas. Los métodos de la epidemiología han sido cruciales para identificar muchos factores causales que, a su vez, han conducido a políticas de salud diseñadas para prevenir enfermedades, lesiones y muertes prematuras.
¿Cuál es la tarea de la epidemiología y cuáles son sus fortalezas y debilidades cuando las definiciones y conceptos de la epidemiología se aplican a la salud ocupacional? Este capítulo aborda estas cuestiones y las formas en que se pueden investigar los riesgos para la salud en el trabajo utilizando técnicas epidemiológicas. Este artículo presenta las ideas encontradas en artículos sucesivos de este capítulo.
Epidemiología Ocupacional
La epidemiología ocupacional se ha definido como el estudio de los efectos de las exposiciones en el lugar de trabajo sobre la frecuencia y distribución de enfermedades y lesiones en la población. Por lo tanto, es una disciplina orientada a la exposición con vínculos tanto con la epidemiología como con la salud ocupacional (Checkoway et al. 1989). Como tal, utiliza métodos similares a los empleados por la epidemiología en general.
El principal objetivo de la epidemiología ocupacional es la prevención a través de la identificación de las consecuencias de las exposiciones en el lugar de trabajo sobre la salud. Esto subraya el enfoque preventivo de la epidemiología ocupacional. De hecho, toda investigación en el campo de la salud y la seguridad en el trabajo debe tener fines preventivos. Por lo tanto, el conocimiento epidemiológico puede y debe ser fácilmente implementable. Si bien el interés de la salud pública siempre debe ser la principal preocupación de la investigación epidemiológica, los intereses creados pueden ejercer influencia y se debe tener cuidado para minimizar dicha influencia en la formulación, realización y/o interpretación de los estudios (Soskolne 1985; Soskolne 1989).
Un segundo objetivo de la epidemiología ocupacional es utilizar los resultados de entornos específicos para reducir o eliminar los riesgos en la población en general. Por lo tanto, además de proporcionar información sobre los efectos en la salud de las exposiciones en el lugar de trabajo, los resultados de los estudios de epidemiología ocupacional también juegan un papel en la estimación del riesgo asociado con las mismas exposiciones pero en los niveles más bajos que generalmente experimenta la población en general. La contaminación ambiental de los procesos y productos industriales generalmente daría como resultado niveles de exposición más bajos que los que se experimentan en el lugar de trabajo.
Los niveles de aplicación de la epidemiología ocupacional son:
El papel causal que pueden desempeñar las exposiciones ocupacionales en el desarrollo de enfermedades, lesiones y muertes prematuras se identificó hace mucho tiempo y forma parte de la historia de la epidemiología. Hay que hacer referencia a Bernardino Ramazzini, fundador de la medicina del trabajo y uno de los primeros en revivir y añadir a la tradición hipocrática de la dependencia de la salud en factores externos naturales identificables. En el año 1700, escribió en su “De Morbis Artificum Diatriba” (Ramazzini 1705; Saracci 1995):
El médico tiene que hacer muchas preguntas a los pacientes. Hipócrates afirma en De Affectionibus:: “Cuando te enfrentas a un enfermo debes preguntarle qué es lo que sufre, por qué motivo, cuántos días, qué come y cuáles son sus deposiciones. A todas estas preguntas habría que añadir una: '¿Qué trabajo hace?'”.
Este despertar de la observación clínica y de la atención a las circunstancias que rodean la ocurrencia de la enfermedad, llevó a Ramazzini a identificar y describir muchas de las enfermedades profesionales que luego fueron estudiadas por médicos del trabajo y epidemiólogos.
Usando este enfoque, Pott fue el primero en reportar en 1775 (Pott 1775) la posible conexión entre el cáncer y la ocupación (Clayson 1962). Sus observaciones sobre el cáncer de escroto entre los deshollinadores comenzaron con una descripción de la enfermedad y continuaron:
El destino de estas personas parece singularmente duro: en su primera infancia, con mayor frecuencia son tratados con gran brutalidad y casi mueren de hambre y frío; son arrojados por chimeneas estrechas ya veces calientes, donde son magullados, quemados y casi asfixiados; y cuando llegan a la pubertad, se vuelven peculiarmente propensos a una de las enfermedades más nocivas, dolorosas y fatales.
De esta última circunstancia no cabe la menor duda, aunque tal vez no haya sido suficientemente atendida, para hacerla generalmente conocida. Otras personas tienen cáncer de las mismas partes; y también otros, además de los trabajadores del plomo, el cólico de Poitou y la consiguiente parálisis; pero, sin embargo, es una enfermedad a la que están especialmente expuestos; y también lo son los deshollinadores para el cáncer de escroto y testículos.
La enfermedad, en estas personas, parece tener su origen en un depósito de hollín en las rugosidades del escroto, y al principio no es una enfermedad del hábito... pero aquí los sujetos son jóvenes, en general de buena salud, por lo menos. en primer lugar; la enfermedad que les trajo su ocupación, y con toda probabilidad local; Pienso que esta última circunstancia puede presumirse con justicia por el hecho de que siempre ocupa las mismas partes; todo esto lo convierte (en un principio) en un caso muy diferente a un cáncer que aparece en un anciano.
Este primer relato de un cáncer ocupacional sigue siendo un modelo de lucidez. La naturaleza de la enfermedad, la ocupación en cuestión y el probable agente causal están claramente definidos. Se observa una mayor incidencia de cáncer de escroto entre los deshollinadores, aunque no se proporcionan datos cuantitativos para fundamentar la afirmación.
Pasaron otros cincuenta años antes de que Ayrton-Paris notara en 1822 (Ayrton-Paris 1822) el frecuente desarrollo de cánceres de escroto entre las fundiciones de cobre y estaño de Cornualles, y supusiera que los vapores de arsénico podrían ser el agente causal. Von Volkmann informó en 1874 sobre tumores de piel en trabajadores de la parafina en Sajonia y, poco después, Bell sugirió en 1876 que el aceite de esquisto era responsable del cáncer cutáneo (Von Volkmann 1874; Bell 1876). Los informes sobre el origen ocupacional del cáncer se hicieron entonces relativamente más frecuentes (Clayson 1962).
Entre las primeras observaciones de enfermedades ocupacionales se encuentra el aumento de la incidencia de cáncer de pulmón entre los mineros de Schneeberg (Harting y Hesse 1879). Es digno de mención (y trágico) que un estudio de caso reciente muestra que la epidemia de cáncer de pulmón en Schneeberg sigue siendo un gran problema de salud pública, más de un siglo después de la primera observación en 1879. Un enfoque para identificar un "aumento" en la enfermedad e incluso cuantificarlo había estado presente en la historia de la medicina del trabajo. Por ejemplo, como ha señalado Axelson (1994), WA Guy en 1843 estudió el “consumo pulmonar” en impresores tipográficos y encontró un mayor riesgo entre los cajistas que entre los impresores; esto se hizo aplicando un diseño similar al enfoque de casos y controles (Lilienfeld y Lilienfeld 1979). Sin embargo, no fue sino hasta principios de la década de 1950 que la epidemiología ocupacional moderna y su metodología comenzaron a desarrollarse. Las principales contribuciones que marcaron este desarrollo fueron los estudios sobre el cáncer de vejiga en los trabajadores del tinte (Case y Hosker 1954) y el cáncer de pulmón entre los trabajadores del gas (Doll 1952).
Temas en Epidemiología Ocupacional
Los artículos de este capítulo introducen tanto la filosofía como las herramientas de la investigación epidemiológica. Se enfocan en evaluar la experiencia de exposición de los trabajadores y en las enfermedades que surgen en estas poblaciones. En este capítulo se abordan los problemas para sacar conclusiones válidas sobre posibles vínculos causales en la vía desde la exposición a sustancias peligrosas hasta el desarrollo de enfermedades.
La determinación de la experiencia de exposición en la vida laboral de un individuo constituye el núcleo de la epidemiología ocupacional. El carácter informativo de un estudio epidemiológico depende, en primer lugar, de la calidad y el alcance de los datos de exposición disponibles. En segundo lugar, los efectos sobre la salud (o las enfermedades) de interés para el epidemiólogo ocupacional deben poder determinarse con precisión entre un grupo de trabajadores bien definido y accesible. Finalmente, los datos sobre otras posibles influencias en la enfermedad de interés deben estar disponibles para el epidemiólogo de modo que cualquier efecto de exposición ocupacional que se establezca a partir del estudio pueda atribuirse a la exposición ocupacional. per se y no a otras causas conocidas de la enfermedad en cuestión. Por ejemplo, en un grupo de trabajadores que pueden trabajar con una sustancia química que se sospecha que causa cáncer de pulmón, algunos trabajadores también pueden tener antecedentes de tabaquismo, otra causa de cáncer de pulmón. En la última situación, los epidemiólogos ocupacionales deben determinar qué exposición (o qué factor de riesgo, el químico o el tabaco, o, de hecho, los dos en combinación) es responsable de cualquier aumento en el riesgo de cáncer de pulmón en el grupo de trabajadores que están siendo tratados. estudió.
Asesoramiento de exposición
Si un estudio tiene acceso solo al hecho de que un trabajador estaba empleado en una industria en particular, entonces los resultados de dicho estudio pueden vincular los efectos sobre la salud solo con esa industria. Asimismo, si existe conocimiento sobre la exposición para las ocupaciones de los trabajadores, las conclusiones pueden extraerse directamente solo en lo que se refiere a las ocupaciones. Se pueden hacer inferencias indirectas sobre las exposiciones químicas, pero su confiabilidad debe evaluarse situación por situación. Sin embargo, si un estudio tiene acceso a información sobre el departamento y/o el cargo de cada trabajador, entonces se podrán sacar conclusiones a ese nivel más fino de experiencia en el lugar de trabajo. Cuando el epidemiólogo (en colaboración con un higienista industrial) conoce la información sobre las sustancias reales con las que trabaja una persona, entonces este sería el mejor nivel de información de exposición disponible en ausencia de dosimetría raramente disponible. Además, los resultados de dichos estudios pueden proporcionar información más útil a la industria para crear lugares de trabajo más seguros.
La epidemiología ha sido hasta ahora una especie de disciplina de “caja negra”, porque ha estudiado la relación entre exposición y enfermedad (los dos extremos de la cadena causal), sin considerar los pasos mecanicistas intermedios. Este enfoque, a pesar de su aparente falta de refinamiento, ha sido extremadamente útil: de hecho, todas las causas conocidas de cáncer en humanos, por ejemplo, se han descubierto con las herramientas de la epidemiología.
El método epidemiológico se basa en los registros disponibles —cuestionarios, puestos de trabajo u otros “proxies” de exposición; esto hace que la realización de estudios epidemiológicos y la interpretación de sus hallazgos sean relativamente simples.
Sin embargo, las limitaciones del enfoque más rudimentario de la evaluación de la exposición se han hecho evidentes en los últimos años, y los epidemiólogos se enfrentan a problemas más complejos. Limitando nuestra consideración a la epidemiología del cáncer ocupacional, la mayoría de los factores de riesgo conocidos se han descubierto debido a los altos niveles de exposición en el pasado; un número limitado de exposiciones para cada trabajo; grandes poblaciones de trabajadores expuestos; y una correspondencia clara entre la información "sustituta" y las exposiciones químicas (por ejemplo, trabajadores del calzado y benceno, astilleros y amianto, etc.). Hoy en día, la situación es sustancialmente diferente: los niveles de exposición son considerablemente más bajos en los países occidentales (siempre se debe enfatizar esta calificación); los trabajadores están expuestos a muchos productos químicos y mezclas diferentes en el mismo puesto de trabajo (p. ej., trabajadores agrícolas); las poblaciones homogéneas de trabajadores expuestos son más difíciles de encontrar y suelen ser pequeñas en número; y la correspondencia entre la información “proxy” y la exposición real se debilita progresivamente. En este contexto, las herramientas de la epidemiología tienen sensibilidad reducida debido a la mala clasificación de la exposición.
Además, la epidemiología se ha basado en puntos finales "duros", como la muerte en la mayoría de los estudios de cohortes. Sin embargo, los trabajadores podrían preferir ver algo diferente a los “recuentos de cadáveres” cuando se estudien los efectos potenciales sobre la salud de las exposiciones ocupacionales. Por lo tanto, el uso de indicadores más directos tanto de exposición como de respuesta temprana tendría algunas ventajas. Los marcadores biológicos pueden proporcionar solo una herramienta.
Marcadores biológicos
El uso de marcadores biológicos, como los niveles de plomo en sangre o las pruebas de función hepática, no es nuevo en la epidemiología ocupacional. Sin embargo, la utilización de técnicas moleculares en estudios epidemiológicos ha hecho posible el uso de biomarcadores para evaluar la exposición de órganos diana, para determinar la susceptibilidad y para establecer la enfermedad temprana.
Los usos potenciales de los biomarcadores en el contexto de la epidemiología ocupacional son:
Ha surgido un gran entusiasmo en la comunidad científica acerca de estos usos, pero, como se señaló anteriormente, la complejidad metodológica del uso de estas nuevas "herramientas moleculares" debería servir para advertir contra el optimismo excesivo. Los biomarcadores de exposiciones químicas (como los aductos de ADN) tienen varias deficiencias:
Aún más importante que las deficiencias metodológicas es la consideración de que las técnicas moleculares podrían hacer que redirijamos nuestro enfoque de identificar riesgos en el entorno exógeno a identificar individuos de alto riesgo y luego realizar evaluaciones de riesgo personalizadas midiendo el fenotipo, la carga de aductos y las mutaciones adquiridas. Esto dirigiría nuestro enfoque, como señaló McMichael, hacia una forma de evaluación clínica, en lugar de una epidemiología de la salud pública. Centrarse en los individuos podría distraernos del importante objetivo de salud pública de crear un entorno menos peligroso (McMichael 1994).
Surgen otras dos cuestiones importantes con respecto al uso de biomarcadores:
Por último, se está acumulando evidencia de que la activación o inactivación metabólica de sustancias peligrosas (y de carcinógenos en particular) varía considerablemente en las poblaciones humanas, y en parte está determinada genéticamente. Además, la variabilidad interindividual en la susceptibilidad a los carcinógenos puede ser particularmente importante en niveles bajos de exposición ocupacional y ambiental (Vineis et al. 1994). Dichos hallazgos pueden afectar fuertemente las decisiones regulatorias que enfocan el proceso de evaluación de riesgos en los más susceptibles (Vineis y Martone 1995).
Diseño y validez del estudio
El artículo de Hernberg sobre diseños de estudios epidemiológicos y sus aplicaciones en medicina del trabajo se concentra en el concepto de “base de estudio”, definido como la experiencia de morbilidad (en relación con alguna exposición) de una población mientras se le da seguimiento a lo largo del tiempo. Por lo tanto, la base de estudio no es solo una población (es decir, un grupo de personas), sino la experiencia de ocurrencia de enfermedades de esta población durante un cierto período de tiempo (Miettinen 1985, Hernberg 1992). Si se adopta este concepto unificador de una base de estudio, entonces es importante reconocer que los diferentes diseños de estudio (p. ej., diseños de casos y controles y de cohortes) son simplemente formas diferentes de "recolectar" información sobre la exposición y la enfermedad del mismo estudio. base; no son enfoques diametralmente diferentes.
El artículo sobre validez en el diseño de estudios de Sasco aborda las definiciones y la importancia de la confusión. Los investigadores de estudios siempre deben considerar la posibilidad de confusión en los estudios ocupacionales, y nunca se puede enfatizar lo suficiente que la identificación de variables potencialmente confusoras es una parte integral de cualquier diseño y análisis de estudio. Dos aspectos de la confusión deben abordarse en la epidemiología ocupacional:
El tiempo y las variables relacionadas con el tiempo, como la edad en riesgo, el período de calendario, el tiempo desde la contratación, el tiempo desde la primera exposición, la duración de la exposición y su tratamiento en la etapa de análisis, se encuentran entre las cuestiones metodológicas más complejas en epidemiología ocupacional. No se tratan en este capítulo, pero se señalan dos referencias metodológicas relevantes y recientes (Pearce 1992; Robins et al. 1992).
Estadísticas
El artículo sobre estadística de Biggeri y Braga, así como el título de este capítulo, indican que los métodos estadísticos no pueden separarse de la investigación epidemiológica. Esto se debe a que: (a) una sólida comprensión de las estadísticas puede proporcionar información valiosa sobre el diseño adecuado de una investigación y (b) las estadísticas y la epidemiología comparten una herencia común, y toda la base cuantitativa de la epidemiología se basa en la noción de probabilidad ( Clayton 1992; Clayton y Hills 1993). En muchos de los artículos que siguen, la evidencia empírica y la prueba de las relaciones causales hipotéticas se evalúan utilizando argumentos probabilísticos y diseños de estudio apropiados. Por ejemplo, se pone énfasis en estimar la medida de riesgo de interés, como tasas o riesgos relativos, y en la construcción de intervalos de confianza alrededor de estas estimaciones en lugar de la ejecución de pruebas estadísticas de probabilidad (Poole 1987; Gardner y Altman 1989; Greenland 1990). ). Se proporciona una breve introducción al razonamiento estadístico utilizando la distribución binomial. La estadística debe ser un compañero del razonamiento científico. Pero es inútil en ausencia de una investigación adecuadamente diseñada y realizada. Los estadísticos y epidemiólogos son conscientes de que la elección de los métodos determina qué y en qué medida hacemos observaciones. Por lo tanto, la elección cuidadosa de las opciones de diseño es de fundamental importancia para garantizar observaciones válidas.
Ética
El último artículo, de Vineis, aborda cuestiones éticas en la investigación epidemiológica. Los puntos a mencionar en esta introducción se refieren a la epidemiología como una disciplina que implica una acción preventiva por definición. Los aspectos éticos específicos con respecto a la protección de los trabajadores y de la población en general requieren reconocer que:
Capacitación en epidemiología ocupacional
Las personas con una amplia gama de antecedentes pueden encontrar su camino hacia la especialización de la epidemiología ocupacional. Medicina, enfermería y estadística son algunos de los antecedentes más probables que se ven entre los que se especializan en esta área. En América del Norte, aproximadamente la mitad de todos los epidemiólogos capacitados tienen antecedentes científicos, mientras que la otra mitad habrá seguido el camino del doctor en medicina. En países fuera de América del Norte, la mayoría de los especialistas en epidemiología ocupacional habrán ascendido hasta los grados de doctores en medicina. En América del Norte, aquellos con formación médica tienden a ser considerados “expertos en contenido”, mientras que aquellos que están formados a través de la ruta científica son considerados “expertos en metodología”. A menudo es ventajoso que un experto en contenido trabaje en equipo con un experto en metodología para diseñar y realizar el mejor estudio posible.
Para la especialidad de epidemiología ocupacional no sólo se requiere conocimiento de métodos epidemiológicos, estadísticas e informática, sino también conocimientos de toxicología, higiene industrial y registros de enfermedades (Merletti y Comba 1992). Debido a que los estudios grandes pueden requerir vinculación con registros de enfermedades, es útil el conocimiento de las fuentes de datos de población. El conocimiento de la organización laboral y corporativa también es importante. Las tesis a nivel de maestría y las disertaciones a nivel de doctorado de capacitación equipan a los estudiantes con el conocimiento necesario para realizar grandes estudios basados en registros y entrevistas entre trabajadores.
Proporción de enfermedad atribuible a la ocupación
La proporción de enfermedad que es atribuible a exposiciones ocupacionales en un grupo de trabajadores expuestos o en la población general está cubierta al menos con respecto al cáncer en otra parte de este Enciclopedia. Aquí debemos recordar que si se calcula una estimación, debe ser para una enfermedad específica (y un sitio específico en el caso del cáncer), un período de tiempo específico y un área geográfica específica. Además, debe basarse en medidas precisas de la proporción de personas expuestas y el grado de exposición. Esto implica que la proporción de enfermedades atribuibles a la ocupación puede variar de muy baja o cero en ciertas poblaciones a muy alta en otras ubicadas en áreas industriales donde, por ejemplo, hasta el 40% del cáncer de pulmón puede atribuirse a exposiciones ocupacionales (Vineis y Simonato 1991). Las estimaciones que no se basan en una revisión detallada de estudios epidemiológicos bien diseñados pueden, en el mejor de los casos, considerarse conjeturas informadas y tienen un valor limitado.
Traslado de industrias peligrosas
La mayor parte de la investigación epidemiológica se lleva a cabo en el mundo desarrollado, donde la regulación y el control de los riesgos laborales conocidos han reducido el riesgo de enfermedad durante las últimas décadas. Al mismo tiempo, sin embargo, ha habido una gran transferencia de industrias peligrosas al mundo en desarrollo (Jeyaratnam 1994). Los productos químicos que antes estaban prohibidos en los Estados Unidos o Europa ahora se producen en los países en desarrollo. Por ejemplo, la molienda de asbesto se ha transferido de EE. UU. a México, y la producción de bencidina de países europeos a la antigua Yugoslavia y Corea (Simonato 1986; LaDou 1991; Pearce et al. 1994).
Un signo indirecto del nivel de riesgo ocupacional y de las condiciones de trabajo en el mundo en desarrollo es la epidemia de intoxicaciones agudas que tiene lugar en algunos de estos países. Según una evaluación, hay alrededor de 20,000 1994 muertes cada año en el mundo por intoxicación aguda con pesticidas, pero es probable que se trate de una subestimación sustancial (Kogevinas et al. 99). Se ha estimado que el 20% de todas las muertes por intoxicación aguda por pesticidas ocurren en los países en desarrollo, donde solo se usa el 1994% de los agroquímicos del mundo (Kogevinas et al. 1995). Es decir, si bien la investigación epidemiológica parece apuntar a una reducción de los riesgos laborales, esto podría deberse simplemente al hecho de que la mayor parte de esta investigación se lleva a cabo en el mundo desarrollado. Es posible que los riesgos laborales simplemente se hayan transferido al mundo en desarrollo y que la carga de exposición ocupacional mundial total haya aumentado (Vineis et al. XNUMX).
Epidemiologia veterinaria
Por razones obvias, la epidemiología veterinaria no es directamente pertinente a la salud ocupacional y la epidemiología ocupacional. Sin embargo, las pistas sobre las causas ambientales y ocupacionales de las enfermedades pueden provenir de estudios epidemiológicos en animales por varias razones:
Los veterinarios hablan de una revolución epidemiológica en la medicina veterinaria (Schwabe 1993) y han aparecido libros de texto sobre la disciplina (Thrusfield 1986; Martin et al. 1987). Ciertamente, las pistas sobre los peligros ambientales y ocupacionales provienen de los esfuerzos conjuntos de epidemiólogos humanos y animales. Entre otros, el efecto de los fenoxiherbicidas en ovejas y perros (Newell et al. 1984; Hayes et al. 1990), de los campos magnéticos (Reif et al. 1995) y pesticidas (especialmente preparaciones antipulgas) contaminados con compuestos similares al asbesto en perros (Glickman et al. 1983) son contribuciones notables.
Investigación participativa, comunicación de resultados y prevención
Es importante reconocer que muchos estudios epidemiológicos en el campo de la salud ocupacional se inician a través de la experiencia y la preocupación de los propios trabajadores (Olsen et al. 1991). A menudo, los trabajadores (aquellos expuestos histórica y/o actualmente) creían que algo andaba mal mucho antes de que la investigación lo confirmara. La epidemiología ocupacional se puede considerar como una forma de “darle sentido” a la experiencia de los trabajadores, de recolectar y agrupar los datos de manera sistemática y permitir hacer inferencias sobre las causas ocupacionales de su mala salud. Además, los propios trabajadores, sus representantes y los responsables de la salud de los trabajadores son las personas más idóneas para interpretar los datos que se recogen. Por lo tanto, siempre deben ser participantes activos en cualquier investigación realizada en el lugar de trabajo. Solo su participación directa garantizará que el lugar de trabajo permanezca seguro después de que los investigadores se hayan ido. El objetivo de cualquier estudio es la utilización de los resultados en la prevención de la enfermedad y la discapacidad, y el éxito de este depende en gran medida de que los expuestos participen en la obtención e interpretación de los resultados del estudio. El papel y el uso de los hallazgos de la investigación en el proceso de litigio cuando los trabajadores buscan una compensación por los daños causados por la exposición en el lugar de trabajo está más allá del alcance de este capítulo. Para obtener una idea de esto, se remite al lector a otra parte (Soskolne, Lilienfeld y Black 1994).
Los enfoques participativos para garantizar la realización de investigaciones epidemiológicas ocupacionales se han convertido en algunos lugares en una práctica estándar en forma de comités directivos establecidos para supervisar la iniciativa de investigación desde su inicio hasta su finalización. Estos comités son multipartitos en su estructura, incluidos el trabajo, la ciencia, la gestión y/o el gobierno. Con representantes de todos los grupos de partes interesadas en el proceso de investigación, la comunicación de los resultados se hará más efectiva en virtud de su mayor credibilidad porque “uno de ellos” habría supervisado la investigación y estaría comunicando los hallazgos a sus respectivos distrito electoral. De esta manera, es probable el mayor nivel de prevención efectiva.
Estos y otros enfoques participativos en la investigación de salud ocupacional se llevan a cabo con la participación de aquellos que experimentan o se ven afectados por el problema de interés relacionado con la exposición. Esto debería verse más comúnmente en todas las investigaciones epidemiológicas (Laurell et al. 1992). Es relevante recordar que mientras en el trabajo epidemiológico el objetivo del análisis es la estimación de la magnitud y distribución del riesgo, en la investigación participativa la prevención del riesgo también es un objetivo (Loewenson y Biocca 1995). Esta complementariedad de la epidemiología y la prevención eficaz es parte del mensaje de este Enciclopedia y de este capítulo.
Mantener la relevancia para la salud pública
Aunque los nuevos desarrollos en la metodología epidemiológica, en el análisis de datos y en la evaluación y medición de la exposición (como las nuevas técnicas de biología molecular) son bienvenidos e importantes, también pueden contribuir a un enfoque reduccionista centrado en los individuos, en lugar de las poblaciones. Se ha dicho que:
… la epidemiología ha dejado de funcionar en gran medida como parte de un enfoque multidisciplinario para comprender las causas de la enfermedad en las poblaciones y se ha convertido en un conjunto de métodos genéricos para medir las asociaciones de exposición y enfermedad en los individuos… Actualmente se descuidan los aspectos sociales, económicos y culturales. , factores históricos, políticos y demográficos como causas principales de enfermedades... La epidemiología debe reintegrarse a la salud pública y debe redescubrir la perspectiva de la población (Pearce 1996).
Los epidemiólogos ocupacionales y ambientales tienen un papel importante que desempeñar, no solo en el desarrollo de nuevos métodos epidemiológicos y aplicaciones para estos métodos, sino también en garantizar que estos métodos se integren siempre en la perspectiva poblacional adecuada.
La evaluación de las exposiciones es un paso fundamental para identificar los peligros en el lugar de trabajo a través de la investigación epidemiológica. El proceso de evaluación de la exposición puede subdividirse en una serie de actividades. Éstas incluyen:
Los estudios de salud ocupacional a menudo son criticados debido a las deficiencias en la evaluación de las exposiciones. Las insuficiencias pueden dar lugar a una clasificación errónea diferencial o no diferencial de la exposición y al subsiguiente sesgo o pérdida de precisión en los análisis exposición-efecto. Los esfuerzos para mejorar la situación se evidencian en varias conferencias internacionales recientes y textos dedicados a este tema (ACGIH 1991; Armstrong et al. 1992; Actas de la Conferencia sobre evaluación retrospectiva de exposiciones ocupacionales en epidemiología 1995). Claramente, los desarrollos técnicos están brindando nuevas oportunidades para avanzar en la evaluación de la exposición. Estos desarrollos incluyen mejoras en la instrumentación analítica, una mejor comprensión de los procesos farmacocinéticos y el descubrimiento de nuevos biomarcadores de exposición. Debido a que los estudios de salud ocupacional a menudo dependen de información de exposición histórica para la cual no se habría llevado a cabo un monitoreo específico, la necesidad de una evaluación de exposición retrospectiva agrega una dimensión adicional de complejidad a estos estudios. Sin embargo, continúan desarrollándose estándares mejorados para la evaluación y para asegurar la confiabilidad de tales evaluaciones (Siemiatycki et al. 1986). Las evaluaciones de exposición prospectivas, por supuesto, pueden validarse más fácilmente.
El término exposición se refiere a la concentración de un agente en el límite entre el individuo y el medio ambiente. La exposición normalmente se presume cuando se sabe que un agente está presente en un ambiente de trabajo y existe una expectativa razonable de contacto del empleado con ese agente. Las exposiciones se pueden expresar como una concentración promedio ponderada en el tiempo (TWA) de 8 horas, que es una medida de la intensidad de la exposición promediada durante un turno de trabajo de 8 horas. Las concentraciones máximas son intensidades promediadas durante períodos de tiempo más cortos, como 15 minutos. La exposición acumulativa es una medida del producto de la intensidad y la duración medias (p. ej., una concentración TWA media de 8 horas multiplicada por los años trabajados a esa concentración media). Dependiendo de la naturaleza del estudio y los resultados de salud de interés, puede ser deseable la evaluación de las exposiciones pico, de intensidad media, acumulada o retrasada.
A modo de contraste, dosificar se refiere a la deposición o absorción de un agente por unidad de tiempo. La dosis o ingesta diaria de un agente puede estimarse combinando datos de mediciones ambientales con suposiciones estándar relacionadas con, entre otros factores, la frecuencia respiratoria y la penetración dérmica. Alternativamente, la ingesta puede estimarse en base a datos de biomonitoreo. Idealmente, la dosis se mediría en el órgano diana de interés.
Los factores importantes de evaluación de la exposición incluyen:
Estos incluyen el nivel físico de actividad laboral y el estado de salud previo de las personas. Se debe tener especial cuidado al evaluar la exposición a agentes que son persistentes o tienden a bioacumularse (por ejemplo, ciertos metales, radionúclidos o compuestos orgánicos estables). Con estos materiales, las cargas corporales internas pueden aumentar insidiosamente incluso cuando las concentraciones ambientales parecen ser bajas.
Si bien la situación puede ser bastante compleja, a menudo no lo es. Ciertamente, muchas contribuciones valiosas para identificar los riesgos laborales provienen de estudios que utilizan enfoques de sentido común para la evaluación de la exposición. Las fuentes de información que pueden ser útiles para identificar y categorizar las exposiciones incluyen:
Hay varias ventajas en categorizar las exposiciones individuales con el mayor detalle posible. Claramente, el carácter informativo de un estudio mejorará en la medida en que las exposiciones relevantes se hayan descrito adecuadamente. En segundo lugar, la credibilidad de los hallazgos puede aumentar porque el potencial de confusión puede abordarse de manera más satisfactoria. Por ejemplo, los referentes y las personas expuestas diferirán en cuanto al estado de exposición, pero también pueden diferir en relación con otros factores explicativos medidos y no medidos de la enfermedad de interés. Sin embargo, si se puede establecer un gradiente de exposición dentro de la población de estudio, es menos probable que persista el mismo grado de confusión dentro de los subgrupos de exposición, fortaleciendo así los hallazgos generales del estudio.
Matrices de exposición laboral
Uno de los enfoques más prácticos y de uso frecuente para la evaluación de la exposición ha sido estimar las exposiciones indirectamente sobre la base de los títulos de trabajo. El uso de matrices de exposición laboral puede ser eficaz cuando se dispone de historiales laborales completos y existe una constancia razonable tanto en las tareas como en las exposiciones asociadas a los puestos de trabajo objeto de estudio. En la escala más amplia, se han diseñado agrupaciones estándar de industria y título de trabajo a partir de datos de censos recopilados de forma rutinaria o datos ocupacionales proporcionados en certificados de defunción. Desafortunadamente, la información mantenida en estos grandes sistemas de registro a menudo se limita a la ocupación "actual" o "habitual". Además, debido a que las agrupaciones estándar no tienen en cuenta las condiciones presentes en lugares de trabajo específicos, por lo general deben considerarse sustitutos crudos de la exposición.
Para los estudios de casos y controles basados en la comunidad y en los registros, se logró una evaluación de la exposición más detallada utilizando la opinión de expertos para traducir los datos del historial laboral obtenidos a través de entrevistas personales en evaluaciones semicuantitativas de exposiciones probables a agentes específicos (Siemiatycki et al. 1986). ). Se eligen expertos, como químicos e higienistas industriales, para ayudar en la evaluación de la exposición debido a su conocimiento y familiaridad con varios procesos industriales. Al combinar los datos detallados del cuestionario con el conocimiento de los procesos industriales, este enfoque ha sido útil para caracterizar las diferencias de exposición entre las instalaciones de trabajo.
El enfoque de matriz de exposición laboral también se ha empleado con éxito en estudios específicos de industrias y empresas (Gamble y Spirtas 1976). Los historiales laborales individuales (una lista cronológica de asignaciones anteriores de departamentos y trabajos para cada empleado) a menudo se conservan en los archivos de personal de la empresa y, cuando están disponibles, brindan un historial laboral completo para los empleados mientras trabajan en esa instalación. Estos datos podrán ampliarse mediante entrevistas personales a los participantes del estudio. El próximo paso es hacer un inventario de todos los títulos de trabajo y las designaciones de departamentos o áreas de trabajo utilizadas durante el período de estudio. Estos pueden oscilar fácilmente en cientos o incluso miles dentro de grandes instalaciones multiproceso o entre empresas dentro de una industria, cuando la producción, el mantenimiento, la investigación, la ingeniería, los servicios de apoyo a la planta y los trabajos administrativos se consideran a lo largo del tiempo (a menudo varias décadas). permitiendo cambios en los procesos industriales. La consolidación de datos se puede facilitar mediante la creación de un archivo de computadora de todos los registros del historial laboral y luego mediante el uso de rutinas de edición para estandarizar la terminología del título del trabajo. Esos trabajos que implican exposiciones relativamente homogéneas pueden combinarse para simplificar el proceso de vincular exposiciones a trabajos individuales. Sin embargo, la agrupación de trabajos y lugares de trabajo debe estar respaldada siempre que sea posible por datos de medición recopilados de acuerdo con una estrategia de muestreo sólida.
Incluso con historiales de trabajo computarizados, la vinculación retrospectiva de los datos de exposición a individuos puede ser una tarea difícil. Ciertamente, las condiciones del lugar de trabajo se verán alteradas a medida que cambien las tecnologías, cambie la demanda de productos y se establezcan nuevas regulaciones. También puede haber cambios en las formulaciones de productos y patrones de producción estacional en muchas industrias. Es posible que se mantengan registros permanentes con respecto a algunos cambios. Sin embargo, es menos probable que se conserven registros sobre cambios estacionales y otros cambios marginales en el proceso y la producción. Los empleados también pueden ser capacitados para realizar múltiples trabajos y luego ser rotados entre los trabajos a medida que cambian las demandas de producción. Todas estas circunstancias añaden complejidad a los perfiles de exposición de los empleados. Sin embargo, también hay entornos de trabajo que se han mantenido relativamente sin cambios durante muchos años. En el análisis final, cada entorno de trabajo debe evaluarse por derecho propio.
En última instancia, será necesario resumir el historial de exposición laboral de cada persona en un estudio. Se ha demostrado una influencia considerable en las medidas finales de exposición-efecto del riesgo (Suarez-Almazor et al. 1992) y, por lo tanto, se debe tener mucho cuidado al seleccionar la medida resumen de exposición más apropiada.
Higiene industrial: medición ambiental
El monitoreo de las exposiciones laborales es una actividad permanente fundamental para proteger la salud de los empleados. Por lo tanto, es posible que ya existan registros de higiene industrial en el momento en que se planifica un estudio epidemiológico. Si es así, estos datos deben revisarse para determinar qué tan bien se ha cubierto la población objetivo, cuántos años de datos están representados en los archivos y qué tan fácilmente se pueden vincular las mediciones con trabajos, áreas de trabajo e individuos. Estas determinaciones serán útiles tanto para evaluar la viabilidad del estudio epidemiológico como para identificar las lagunas en los datos que podrían remediarse con un muestreo de exposición adicional.
La cuestión de cuál es la mejor manera de vincular los datos de medición con trabajos e individuos específicos es particularmente importante. El muestreo de áreas y zonas de respiración puede ser útil para los higienistas industriales en la identificación de fuentes de emisión para acciones correctivas, pero podría ser menos útil para caracterizar las exposiciones reales de los empleados a menos que se hayan realizado estudios de tiempo cuidadosos de las actividades laborales de los empleados. Por ejemplo, el monitoreo continuo del área puede identificar exposiciones a excursiones en ciertos momentos del día, pero la pregunta sigue siendo si los empleados estaban o no en el área de trabajo en ese momento.
Los datos de muestreo personal generalmente brindan estimaciones más precisas de la exposición de los empleados, siempre que el muestreo se lleve a cabo en condiciones representativas, el uso de equipo de protección personal se tenga en cuenta adecuadamente y las tareas laborales y las condiciones del proceso sean relativamente constantes día a día. Las muestras personales pueden vincularse fácilmente con el empleado individual mediante el uso de identificadores personales. Estos datos pueden generalizarse a otros empleados en los mismos trabajos y a otros períodos de tiempo según se justifique. Sin embargo, en base a su propia experiencia, Rappaport et al. (1993) han advertido que las concentraciones de exposición pueden ser muy variables incluso entre los empleados asignados a lo que se considera grupos de exposición homogéneos. Una vez más, se necesita el juicio de expertos para decidir si se pueden suponer o no grupos de exposición homogéneos.
Los investigadores han combinado con éxito un enfoque de matriz de exposición laboral con la utilización de datos de medición ambiental para estimar las exposiciones dentro de las celdas de la matriz. Cuando se descubre que faltan datos de medición, puede ser posible llenar los vacíos de datos mediante el uso de modelos de exposición. En general, esto implica desarrollar un modelo para relacionar las concentraciones ambientales con determinantes de concentraciones de exposición que se evalúen más fácilmente (p. ej., volúmenes de producción, características físicas de la instalación, incluido el uso de sistemas de ventilación por extracción, volatilidad del agente y naturaleza de la actividad laboral). El modelo se construye para entornos de trabajo con concentraciones ambientales conocidas y luego se usa para estimar concentraciones en entornos de trabajo similares que carecen de datos de medición pero que tienen información sobre parámetros tales como ingredientes constituyentes y volúmenes de producción. Este enfoque puede ser particularmente útil para la estimación retrospectiva de las exposiciones.
Otro aspecto importante de la evaluación es el manejo de la exposición a las mezclas. Primero, desde un punto de vista analítico, la detección separada de compuestos químicamente relacionados y la eliminación de interferencias de otras sustancias presentes en la muestra pueden no estar dentro de la capacidad del procedimiento analítico. Las diversas limitaciones en los procedimientos analíticos utilizados para proporcionar datos de medición deben evaluarse y los objetivos del estudio deben modificarse en consecuencia. En segundo lugar, puede ser que ciertos agentes se usen casi siempre juntos y, por lo tanto, se presenten aproximadamente en las mismas proporciones relativas en todo el ambiente de trabajo en estudio. En esta situación, los análisis estadísticos internos per se no será útil para distinguir si los efectos se deben o no a uno u otro agente oa una combinación de los agentes. Dichos juicios solo serían posibles en base a la revisión de estudios externos en los que no se hayan producido las mismas combinaciones de agentes. Finalmente, en situaciones donde diferentes materiales se usan indistintamente dependiendo de las especificaciones del producto (por ejemplo, el uso de diferentes colorantes para obtener los contrastes de color deseados), puede ser imposible atribuir los efectos a un agente específico.
Monitoreo biológico
Los biomarcadores son alteraciones moleculares, bioquímicas o celulares que se pueden medir en medios biológicos como tejidos, células o fluidos humanos. Una razón principal para desarrollar biomarcadores de exposición es proporcionar una estimación de la dosis interna para un agente en particular. Este enfoque es especialmente útil cuando es probable que existan múltiples vías de exposición (p. ej., inhalación y absorción por la piel), cuando el equipo de protección se usa de forma intermitente o cuando las condiciones de exposición son impredecibles. El biomonitoreo puede ser especialmente ventajoso cuando se sabe que los agentes de interés tienen vidas medias biológicas relativamente largas. Desde una perspectiva estadística, se puede ver una ventaja del monitoreo biológico sobre el monitoreo del aire con agentes que tienen una vida media tan corta como diez horas, dependiendo del grado de variabilidad ambiental (Droz y Wu 1991). Las vidas medias extremadamente largas de materiales como las dioxinas cloradas (medidas en años) hacen que estos compuestos sean candidatos ideales para el control biológico. Al igual que con los métodos analíticos para medir las concentraciones en el aire, se deben tener en cuenta las posibles interferencias. Por ejemplo, antes de utilizar un metabolito en particular como biomarcador, se debe determinar si otras sustancias comunes, como las contenidas en ciertos medicamentos y en el humo del cigarrillo, podrían metabolizarse hasta el mismo punto final. En general, se necesita un conocimiento básico de la farmacocinética de un agente antes de utilizar el control biológico como base para la evaluación de la exposición.
Los puntos de medición más frecuentes incluyen aire alveolar, orina y sangre. Las muestras de aire alveolar pueden ser útiles para caracterizar exposiciones altas a solventes a corto plazo que ocurrieron minutos u horas después de que se recolectó la muestra. Las muestras de orina normalmente se recogen para determinar las tasas de excreción de los metabolitos del compuesto de interés. Las muestras de sangre pueden recolectarse para la medición directa del compuesto, para la medición de metabolitos o para la determinación de aductos de proteína o ADN (p. ej., aductos de albúmina o hemoglobina y aductos de ADN en linfocitos circulantes). También se pueden tomar muestras de células de tejido accesibles, como células epiteliales del área bucal de la boca, para la identificación de aductos de ADN.
La determinación de la actividad de la colinesterasa en glóbulos rojos y plasma ejemplifica el uso de alteraciones bioquímicas como medida de exposición. Los pesticidas organofosforados inhiben la actividad de la colinesterasa y, por lo tanto, la medición de esa actividad antes y después de la posible exposición a estos compuestos puede ser un indicador útil de la intensidad de la exposición. Sin embargo, a medida que se avanza en el espectro de alteraciones biológicas, se vuelve más difícil distinguir entre los biomarcadores de exposición y los de efecto. En general, las medidas de efecto tienden a no ser específicas para la sustancia de interés y, por lo tanto, es posible que sea necesario evaluar otras posibles explicaciones del efecto para respaldar el uso de ese parámetro como medida de exposición. Las medidas de exposición deben estar directamente vinculadas al agente de interés o debe haber una base sólida para vincular cualquier medida indirecta al agente. A pesar de estas calificaciones, el monitoreo biológico es muy prometedor como medio para mejorar la evaluación de la exposición en apoyo de los estudios epidemiológicos.
Conclusiones
Al hacer comparaciones en estudios de epidemiología ocupacional, la necesidad es tener un grupo de trabajadores con exposición para comparar con un grupo de trabajadores sin exposición. Tales distinciones son toscas, pero pueden ser útiles para identificar áreas problemáticas. Claramente, sin embargo, cuanto más refinada sea la medida de la exposición, más útil será el estudio, específicamente en términos de su capacidad para identificar y desarrollar programas de intervención adecuadamente dirigidos.
Los investigadores son afortunados cuando tienen a su disposición una cronología detallada de la experiencia laboral de los trabajadores que proporciona una revisión histórica de los trabajos que han desempeñado a lo largo del tiempo. Para estos trabajadores un matriz de exposición laboral Luego se puede configurar que permita que todos y cada uno de los cambios de trabajo por los que ha pasado un trabajador se asocien con información de exposición específica.
Los historiales de exposición detallados deben resumirse con fines de análisis para determinar si existen patrones evidentes que puedan estar relacionados con problemas de salud y seguridad en el lugar de trabajo. Podemos visualizar una lista de, digamos, 20 cambios de trabajo que un trabajador ha experimentado en su vida laboral. Hay varias formas alternativas en las que se pueden resumir los detalles de la exposición (para cada uno de los 20 cambios de trabajo en este ejemplo), teniendo en cuenta la duración y/o la concentración/dosis/grado de exposición.
Es importante notar, sin embargo, que se pueden llegar a diferentes conclusiones de un estudio dependiendo del método seleccionado (Suarez-Almazor et al. 1992). En la tabla 1 se muestra un ejemplo de cinco medidas resumidas de exposición en la vida laboral.
Tabla 1. Fórmulas y dimensiones o unidades de las cinco medidas resumen seleccionadas de exposición en la vida laboral
Medida de exposición |
Fórmula |
Dimensiones/Unidades |
Índice de exposición acumulada (CEI) |
Σ (grado x tiempo de exposición) |
grado y tiempo |
Grado medio (MG) |
Σ (grado x tiempo expuesto)/tiempo total expuesto |
grado |
Grado más alto de la historia (HG) |
grado más alto al que se expuso durante ≥ 7 días |
grado |
Calificación promedio ponderada en el tiempo (TWA) |
Σ (grado x tiempo expuesto)/tiempo total empleado |
grado |
Tiempo total expuesto (TTE) |
Σ tiempo expuesto |
time |
Adaptado de Suárez-Almazor et al. 1992.
Índice de exposición acumulada. El índice de exposición acumulada (CEI) es equivalente a la "dosis" en los estudios toxicológicos y representa la suma, durante una vida laboral, de los productos del grado de exposición y la duración de la exposición para cada puesto de trabajo sucesivo. Incluye el tiempo en sus unidades.
Grado medio. El grado medio (MG) acumula los productos del grado de exposición y la duración de la exposición para cada título de trabajo sucesivo (es decir, el CEI) y se divide por el tiempo total expuesto en cualquier grado mayor que cero. MG es independiente del tiempo en sus unidades; la medida de resumen para una persona expuesta durante un período prolongado a una concentración elevada será similar a la de una persona expuesta durante un período breve a una concentración elevada. Dentro de cualquier conjunto emparejado en un diseño de casos y controles, MG es un grado promedio de exposición por unidad de tiempo expuesto. Es una calificación promedio por el tiempo realmente expuesto al agente en consideración.
La calificación más alta de la historia. La calificación más alta de la historia (HG, por sus siglas en inglés) se determina escaneando el historial de trabajo en busca de la asignación de calificación más alta en el período de observación al que estuvo expuesto el trabajador durante al menos siete días. El HG podría tergiversar la exposición de la vida laboral de una persona porque, por su propia formulación, se basa en un procedimiento de maximización en lugar de un promedio y, por lo tanto, es independiente de la duración de la exposición en sus unidades.
Nota media ponderada en el tiempo. La calificación promedio ponderada en el tiempo (TWA) es el índice de exposición acumulada (CEI) dividido por el tiempo total empleado. Dentro de cualquier conjunto emparejado en un diseño de casos y controles, la calificación TWA promedia el tiempo total empleado. Se diferencia de MG, que promedia solo sobre el tiempo total realmente expuesto. Por lo tanto, el grado TWA puede verse como una exposición promedio por unidad de tiempo en el período completo de empleo, independientemente de la exposición. per se.
Tiempo total expuesto. El tiempo total de exposición (TTE) acumula todos los períodos de tiempo asociados con la exposición en unidades de tiempo. TTE tiene atractivo por su simplicidad. Sin embargo, está bien aceptado que los efectos sobre la salud deben estar relacionados no solo con la duración de la exposición química, sino también con la intensidad de esa exposición (es decir, la concentración o el grado).
Claramente, la utilidad de una medida de exposición resumida está determinada por el peso respectivo que atribuye a la duración oa la concentración de la exposición oa ambos. Así, diferentes medidas pueden producir diferentes resultados (Walker y Blettner 1985). Idealmente, la medida de resumen seleccionada debe basarse en un conjunto de supuestos defendibles con respecto al mecanismo biológico postulado para el agente o la asociación de enfermedades en estudio (Smith 1987). Sin embargo, este procedimiento no siempre es posible. Muy a menudo, se desconoce el efecto biológico de la duración de la exposición o la concentración del agente en estudio. En este contexto, el uso de diferentes medidas de exposición puede ser útil para sugerir un mecanismo por el cual la exposición ejerce su efecto.
Se recomienda que, en ausencia de modelos probados para evaluar la exposición, se utilice una variedad de medidas resumidas de exposición de la vida laboral para estimar el riesgo. Este enfoque facilitaría la comparación de los hallazgos entre los estudios.
La epidemiología implica medir la aparición de enfermedades y cuantificar las asociaciones entre enfermedades y exposiciones.
Medidas de ocurrencia de enfermedades
La aparición de enfermedades se puede medir por frecuencias (cuenta) pero está mejor descrito por tasas de interés, que se componen de tres elementos: el número de personas afectadas (numerador), el número de personas en la población de origen o base (es decir, la población en riesgo) de donde provienen las personas afectadas y el período de tiempo cubierto. El denominador de la tasa es el tiempo-persona total experimentado por la población de origen. Las tasas permiten comparaciones más informativas entre poblaciones de diferentes tamaños que los conteos solos. Riesgo, la probabilidad de que un individuo desarrolle una enfermedad dentro de un período de tiempo específico, es una proporción, que va de 0 a 1, y no es una tasa per se. Tasa de ataque, la proporción de personas en una población que se ven afectadas dentro de un período de tiempo específico, es técnicamente una medida de riesgo, no una tasa.
La morbilidad específica de la enfermedad incluye incidencia, que se refiere al número de personas a las que se les ha diagnosticado recientemente la enfermedad de interés. Predominio se refiere al número de casos existentes. Mortalidad se refiere al número de personas que mueren.
Incidencia se define como el número de nuevos casos diagnosticados dentro de un período de tiempo específico, mientras que el tasa de incidencia es este número dividido por el tiempo-persona total experimentado por la población de origen (tabla 1). Para el cáncer, las tasas generalmente se expresan como tasas anuales por cada 100,000 1,000 personas. Las tarifas para otras enfermedades más comunes pueden expresarse por un número menor de personas. Por ejemplo, las tasas de anomalías congénitas suelen expresarse por XNUMX nacidos vivos. Incidencia acumulada, la proporción de personas que se convierten en casos dentro de un período de tiempo específico, es una medida del riesgo promedio para una población.
Tabla 1. Medidas de ocurrencia de enfermedades: Población hipotética observada durante un período de cinco años
Casos recién diagnosticados |
10 |
Casos vivos previamente diagnosticados |
12 |
Muertes, todas las causas* |
5 |
Muertes, enfermedad de interés |
3 |
Personas en la población |
100 |
Años observados |
5 |
Incidencia |
10 personas |
Tasa de incidencia anual |
|
Prevalencia puntual (al final del año 5) |
(10 + 12 - 3) = 19 personas |
Periodo de prevalencia (quinquenio) |
(10 + 12) = 22 personas |
Tasa de mortalidad anual |
|
Tasa de mortalidad anual |
*Para simplificar los cálculos, este ejemplo supone que todas las muertes ocurrieron al final del período de cinco años, de modo que las 100 personas de la población estuvieron vivas durante los cinco años completos.
Predominio incluye prevalencia puntual, el número de casos de enfermedad en un momento dado, y período de prevalencia, el número total de casos de una enfermedad que se sabe que existió en algún momento durante un período específico.
Mortalidad, que se refiere a las muertes en lugar de a los casos de enfermedad recién diagnosticados, refleja los factores que causan la enfermedad, así como los factores relacionados con la calidad de la atención médica, como la detección, el acceso a la atención médica y la disponibilidad de tratamientos efectivos. En consecuencia, los esfuerzos de generación de hipótesis y la investigación etiológica pueden ser más informativos y fáciles de interpretar cuando se basan en datos de incidencia en lugar de datos de mortalidad. Sin embargo, los datos de mortalidad suelen estar más disponibles en poblaciones grandes que los datos de incidencia.
El término índice de mortalidad generalmente se acepta que significa la tasa de muertes por todas las causas combinadas, mientras que tasa de mortalidad es la tasa de muerte por una causa específica. Para una determinada enfermedad, el tasa de letalidad (técnicamente una proporción, no una tasa) es el número de personas que mueren a causa de la enfermedad durante un período de tiempo específico dividido por el número de personas con la enfermedad. El complemento de la tasa de letalidad es el tasa de supervivencia. La tasa de supervivencia a cinco años es un punto de referencia común para enfermedades crónicas como el cáncer.
La ocurrencia de una enfermedad puede variar entre subgrupos de la población o con el tiempo. Una medida de enfermedad para una población entera, sin considerar ningún subgrupo, se llama tasa bruta. Por ejemplo, una tasa de incidencia para todos los grupos de edad combinados es una tasa bruta. Las tarifas para los grupos de edad individuales son las tasas específicas por edad. Para comparar dos o más poblaciones con diferentes distribuciones de edad, ajustado por edad (o, estandarizado por edad) las tasas deben calcularse para cada población multiplicando cada tasa específica por edad por el porcentaje de la población estándar (por ejemplo, una de las poblaciones en estudio, la población de EE. UU. en 1970) en ese grupo de edad, luego sumando todos los grupos de edad para producir una tasa general ajustada por edad. Las tarifas se pueden ajustar por factores distintos a la edad, como la raza, el sexo o el tabaquismo, si se conocen las tarifas específicas de la categoría.
La vigilancia y la evaluación de datos descriptivos pueden proporcionar pistas sobre la etiología de la enfermedad, identificar subgrupos de alto riesgo que pueden ser adecuados para programas de intervención o detección, y proporcionar datos sobre la eficacia de dichos programas. Las fuentes de información que se han utilizado para las actividades de vigilancia incluyen certificados de defunción, registros médicos, registros de cáncer, otros registros de enfermedades (p. ej., registros de defectos de nacimiento, registros de enfermedades renales en etapa terminal), registros de exposición ocupacional, registros de seguros de salud o discapacidad y compensación laboral. registros.
Medidas de Asociación
La epidemiología intenta identificar y cuantificar los factores que influyen en la enfermedad. En el enfoque más simple, la ocurrencia de la enfermedad entre personas expuestas a un factor sospechoso se compara con la ocurrencia entre personas no expuestas. La magnitud de una asociación entre la exposición y la enfermedad se puede expresar en fotometría absoluta) or relativo términos. (Véase también "Estudio de caso: Medidas").
Los efectos absolutos se miden por diferencias de tasa y diferencias de riesgo (Tabla 2). A diferencia de tasa es una tasa menos una segunda tasa. Por ejemplo, si la tasa de incidencia de leucemia entre los trabajadores expuestos al benceno es de 72 por 100,000 12 años-persona y la tasa entre los trabajadores no expuestos es de 100,000 por 60 100,000 años-persona, entonces la diferencia de tasas es de XNUMX por XNUMX XNUMX años-persona. A diferencia de riesgo es una diferencia en los riesgos o la incidencia acumulada y puede oscilar entre -1 y 1.
Tabla 2. Medidas de asociación para un estudio de cohortes
Casos |
Años-persona en riesgo |
Tasa por 100,000 |
|
Expuesto |
100 |
20,000 |
500 |
no expuesto |
200 |
80,000 |
250 |
Total |
300 |
100,000 |
300 |
Diferencia de Tasa (RD) = 500/100,000 - 250/100,000
= 250/100,000 por año
(146.06/100,000 - 353.94/100,000)*
Razón de tasas (o riesgo relativo) (RR) =
Riesgo atribuible en los expuestos (ARe) = 100/20,000 200 - 80,000/XNUMX XNUMX
= 250/100,000 por año
Porcentaje de riesgo atribuible en los expuestos (ARe%) =
Riesgo atribuible a la población (PAR) = 300/100,000 - 200/80,000
= 50/100,000 por año
Porcentaje de riesgo atribuible a la población (PAR%) =
* Entre paréntesis, intervalos de confianza del 95 % calculados con las fórmulas de los recuadros.
Efectos relativos se basan en proporciones de tasas o medidas de riesgo, en lugar de diferencias. A razón de tasas es la razón de una tasa en una población a la tasa en otra. La razón de tasas también ha sido llamada Radio de riesgo, riesgo relativo, tasa relativay incidencia (o mortalidad) razón de tasas. La medida es adimensional y va de 0 a infinito. Cuando la tasa en dos grupos es similar (es decir, no hay efecto de la exposición), el razón de tasas es igual a la unidad (1). Una exposición que aumentara el riesgo arrojaría una razón de tasas mayor que la unidad, mientras que un factor de protección arrojaría una razón entre 0 y 1. La exceso de riesgo relativo es el riesgo relativo menos 1. Por ejemplo, un riesgo relativo de 1.4 también puede expresarse como un exceso de riesgo relativo del 40 %.
En los estudios de casos y controles (también llamados estudios de casos y referentes), se identifican personas con enfermedad (casos) y personas sin enfermedad (controles o referentes). Se comparan las exposiciones pasadas de los dos grupos. Las probabilidades de ser un caso expuesto se comparan con las probabilidades de ser un control expuesto. No se dispone de recuentos completos de las poblaciones fuente de personas expuestas y no expuestas, por lo que no se pueden calcular las tasas de enfermedad. En cambio, los casos expuestos se pueden comparar con los controles expuestos mediante el cálculo de probabilidades relativas, o el proporción de probabilidades (Tabla 3).
Tabla 3. Medidas de asociación para estudios de casos y controles: Exposición a aserrín y adenocarcinoma de cavidad nasal y senos paranasales
Casos |
Controles |
|
Expuesto |
18 |
55 |
no expuesto |
5 |
140 |
Total |
23 |
195 |
Probabilidades relativas (odds ratio) (OR) =
Riesgo atribuible por ciento en los expuestos () =
Porcentaje de riesgo atribuible a la población (PAR%) =
donde = proporción de controles expuestos = 55/195 = 0.28
* Entre paréntesis, intervalos de confianza del 95 % calculados con las fórmulas del recuadro al dorso.
Fuente: Adaptado de Hayes et al. 1986.
Las medidas relativas del efecto se usan con más frecuencia que las medidas absolutas para informar la fuerza de una asociación. Sin embargo, las medidas absolutas pueden proporcionar una mejor indicación del impacto de una asociación en la salud pública. Un pequeño aumento relativo en una enfermedad común, como una enfermedad cardíaca, puede afectar a más personas (gran diferencia de riesgo) y tener más impacto en la salud pública que un gran aumento relativo (pero pequeña diferencia absoluta) en una enfermedad rara, como angiosarcoma del hígado.
Pruebas de significación
Las pruebas de significación estadística a menudo se realizan en medidas de efecto para evaluar la probabilidad de que el efecto observado difiera de la hipótesis nula (es decir, ningún efecto). Si bien muchos estudios, particularmente en otras áreas de la investigación biomédica, pueden expresar su importancia al valores p, los estudios epidemiológicos típicamente presentan intervalos de confianza (CI) (también llamado límites de confianza). Un intervalo de confianza del 95 %, por ejemplo, es un rango de valores para la medida del efecto que incluye la medida estimada obtenida de los datos del estudio y que tiene una probabilidad del 95 % de incluir el valor verdadero. Se considera que es poco probable que los valores fuera del intervalo incluyan la verdadera medida del efecto. Si el IC de una razón de tasas incluye la unidad, entonces no hay una diferencia estadísticamente significativa entre los grupos que se comparan.
Los intervalos de confianza son más informativos que los valores p solos. El tamaño de un valor p está determinado por una o ambas razones. O la medida de asociación (p. ej., razón de tasas, diferencia de riesgo) es grande o las poblaciones en estudio son grandes. Por ejemplo, una pequeña diferencia en las tasas de enfermedad observadas en una gran población puede generar un valor p muy significativo. Las razones del gran valor de p no se pueden identificar a partir del valor de p solo. Los intervalos de confianza, sin embargo, nos permiten separar los dos factores. Primero, la magnitud del efecto es discernible por los valores de la medida del efecto y los números abarcados por el intervalo. Los índices de riesgo más grandes, por ejemplo, indican un efecto más fuerte. Segundo, el tamaño de la población afecta el ancho del intervalo de confianza. Las poblaciones pequeñas con estimaciones estadísticamente inestables generan intervalos de confianza más amplios que las poblaciones más grandes.
El nivel de confianza elegido para expresar la variabilidad de los resultados (la “significación estadística”) es arbitrario, pero tradicionalmente ha sido del 95 %, lo que corresponde a un valor de p de 0.05. Un intervalo de confianza del 95 % tiene una probabilidad del 95 % de contener la verdadera medida del efecto. Ocasionalmente se utilizan otros niveles de confianza, como el 90%.
Las exposiciones pueden ser dicotómicas (p. ej., expuestas y no expuestas) o pueden implicar muchos niveles de exposición. Las medidas del efecto (es decir, la respuesta) pueden variar según el nivel de exposición. evaluando exposición-respuesta relaciones es una parte importante de la interpretación de los datos epidemiológicos. El análogo a la exposición-respuesta en los estudios con animales es "dosis-respuesta". Si la respuesta aumenta con el nivel de exposición, es más probable que una asociación sea causal que si no se observa ninguna tendencia. Las pruebas estadísticas para evaluar las relaciones exposición-respuesta incluyen la prueba de extensión de Mantel y la prueba de tendencia de chi-cuadrado.
Normalización
Para tener en cuenta factores distintos de la exposición primaria de interés y la enfermedad, se pueden tomar medidas de asociación. estandarizado a través de técnicas de estratificación o regresión. La estratificación significa dividir las poblaciones en grupos homogéneos con respecto al factor (p. ej., grupos de género, grupos de edad, grupos de fumadores). Se calculan las razones de riesgo o las razones de probabilidad para cada estrato y se calculan los promedios ponderados generales de las razones de riesgo o las razones de probabilidad. Estos valores generales reflejan la asociación entre la exposición primaria y la enfermedad, ajustada por el factor de estratificación, es decir, la asociación con los efectos del factor de estratificación eliminado.
A relación de tasa estandarizada (SRR) es el cociente de dos tasas estandarizadas. En otras palabras, una SRR es un promedio ponderado de razones de tasas específicas de estrato donde los pesos para cada estrato son la distribución persona-tiempo del grupo no expuesto o de referencia. Se pueden comparar los SRR de dos o más grupos si se utilizan las mismas ponderaciones. Se pueden construir intervalos de confianza para SRR como para razones de tasas.
El sistema razón de mortalidad estandarizada (SMR) es un promedio ponderado de razones de tasas específicas por edad donde los pesos (por ejemplo, persona-tiempo en riesgo) provienen del grupo en estudio y las tasas provienen de la población de referencia, lo contrario de la situación en un SRR. La población de referencia habitual es la población general, cuyas tasas de mortalidad pueden estar fácilmente disponibles y basadas en grandes números y, por lo tanto, son más estables que las tasas de una cohorte o subgrupo no expuesto de la población ocupacional en estudio. El uso de los pesos de la cohorte en lugar de la población de referencia se denomina estandarización indirecta. La SMR es la relación entre el número observado de muertes en la cohorte y el número esperado, con base en las tasas de la población de referencia (la relación generalmente se multiplica por 100 para la presentación). Si no existe asociación, la SMR es igual a 100. Cabe señalar que debido a que las tasas provienen de la población de referencia y los pesos provienen del grupo de estudio, dos o más SMR tienden a no ser comparables. Esta falta de comparabilidad a menudo se olvida en la interpretación de los datos epidemiológicos y se pueden sacar conclusiones erróneas.
Efecto Trabajador Saludable
Es muy común que las cohortes ocupacionales tengan una mortalidad total más baja que la población general, incluso si los trabajadores tienen un mayor riesgo de muerte por causas seleccionadas debido a exposiciones en el lugar de trabajo. Este fenómeno, llamado efecto trabajador saludable, refleja el hecho de que es probable que cualquier grupo de personas empleadas sea más saludable, en promedio, que la población general, que incluye a los trabajadores y las personas que no pueden trabajar debido a enfermedades o discapacidades. La tasa global de mortalidad en la población general tiende a ser más alta que la tasa en los trabajadores. El efecto varía en fuerza según la causa de la muerte. Por ejemplo, parece ser menos importante para el cáncer en general que para la enfermedad pulmonar obstructiva crónica. Una de las razones de esto es que es probable que la mayoría de los cánceres no se hayan desarrollado a partir de una predisposición hacia el cáncer subyacente a la selección de trabajo/carrera a una edad más temprana. El efecto del trabajador saludable en un grupo dado de trabajadores tiende a disminuir con el tiempo.
Mortalidad Proporcional
A veces, no se dispone de una tabulación completa de una cohorte (es decir, persona-tiempo en riesgo) y solo hay información sobre las muertes o algún subconjunto de muertes experimentadas por la cohorte (por ejemplo, muertes entre jubilados y empleados activos, pero no entre trabajadores). que dejó el empleo antes de tener derecho a una pensión). El cómputo de años-persona requiere métodos especiales para hacer frente a la evaluación del tiempo-persona, incluidos los métodos de tablas de vida. Sin información total de persona-tiempo sobre todos los miembros de la cohorte, independientemente del estado de la enfermedad, no se pueden calcular las SMR y las SRR. En cambio, razones proporcionales de mortalidad (PMR) pueden ser utilizados. Un PMR es la relación entre el número observado de muertes por una causa específica en comparación con el número esperado, basado en la proporción del total de muertes por la causa específica en la población de referencia, multiplicado por el número total de muertes en el estudio. grupo, multiplicado por 100.
Debido a que la proporción de muertes por todas las causas combinadas debe ser igual a 1 (PMR=100), algunas PMR pueden parecer excesivas, pero en realidad están infladas artificialmente debido a déficits reales en otras causas de muerte. De manera similar, algunos déficits aparentes pueden reflejar simplemente excesos reales de otras causas de muerte. Por ejemplo, si los aplicadores aéreos de pesticidas tienen un gran exceso real de muertes debido a accidentes, el requisito matemático de que el PMR para todas las causas combinadas sea igual a 100 puede hacer que una u otra causa de muerte parezca deficiente incluso si la mortalidad es excesiva. Para mejorar este problema potencial, los investigadores interesados principalmente en el cáncer pueden calcular proporciones proporcionales de mortalidad por cáncer (PCMR). Los PCMR comparan el número observado de muertes por cáncer con el número esperado en función de la proporción del total de muertes por cáncer (en lugar de todas las muertes) por el cáncer de interés en la población de referencia multiplicado por el número total de muertes por cáncer en el grupo de estudio, multiplicado por 100. Por lo tanto, el PCMR no se verá afectado por una aberración (exceso o déficit) en una causa de muerte no relacionada con el cáncer, como accidentes, enfermedades cardíacas o enfermedades pulmonares no malignas.
Los estudios de PMR se pueden analizar mejor utilizando razones de probabilidad de mortalidad (MORs), en esencia analizando los datos como si fueran de un estudio de casos y controles. Los "controles" son las muertes de un subconjunto de todas las muertes que se cree que no están relacionadas con la exposición en estudio. Por ejemplo, si el interés principal del estudio fuera el cáncer, se podrían calcular las razones de probabilidad de mortalidad comparando la exposición entre las muertes por cáncer con la exposición entre las muertes cardiovasculares. Este enfoque, como el PCMR, evita los problemas con el PMR que surgen cuando una fluctuación en una causa de muerte afecta el riesgo aparente de otra simplemente porque el PMR general debe ser igual a 100. Sin embargo, la elección de las causas de muerte de control es crítica. . Como se mencionó anteriormente, no deben estar relacionados con la exposición, pero es posible que no se conozca la posible relación entre la exposición y la enfermedad para muchas enfermedades de control potencial.
Riesgo atribuible
Hay medidas disponibles que expresan la cantidad de enfermedad que sería atribuible a una exposición si la asociación observada entre la exposición y la enfermedad fuera causal. Él riesgo atribuible en los expuestos (ARKANSASe) es la tasa de enfermedad en los expuestos menos la tasa en los no expuestos. Debido a que las tasas de enfermedad no se pueden medir directamente en los estudios de casos y controles, el ARe es calculable solo para estudios de cohortes. Una medida relacionada, más intuitiva, la porcentaje de riesgo atribuible en los expuestos (ARKANSASe%), se puede obtener de cualquier diseño de estudio. La realidad aumentadae% es la proporción de casos que surgen en la población expuesta que es atribuible a la exposición (ver tabla 2 y tabla 3 para la fórmula). La realidad aumentadae% es la razón de tasas (o la razón de probabilidades) menos 1, dividida por la razón de tasas (o la razón de probabilidades), multiplicada por 100.
El sistema riesgo atribuible a la población (PAR) y el porcentaje de riesgo atribuible a la población (PAR%), o fracción etiológica, expresa la cantidad de enfermedad en la población total, que se compone de personas expuestas y no expuestas, que se debe a la exposición si la asociación observada es causal. El PAR puede obtenerse de estudios de cohortes (tabla 28.3) y el PAR% puede calcularse tanto en estudios de cohortes como de casos y controles (tabla 2 y tabla 3).
Representatividad
Se han descrito varias medidas de riesgo. Cada uno asume métodos subyacentes para contar eventos y en los representantes de estos eventos a un grupo definido. Cuando los resultados se comparan entre estudios, la comprensión de los métodos utilizados es esencial para explicar las diferencias observadas.
El epidemiólogo está interesado en las relaciones entre las variables, principalmente la exposición y las variables de resultado. Por lo general, los epidemiólogos quieren determinar si la aparición de una enfermedad está relacionada con la presencia de un agente en particular (exposición) en la población. Las formas en que se estudian estas relaciones pueden variar considerablemente. Uno puede identificar a todas las personas que están expuestas a ese agente y hacerles un seguimiento para medir la incidencia de la enfermedad, comparando dicha incidencia con la ocurrencia de la enfermedad en una población adecuada no expuesta. Alternativamente, uno puede simplemente muestrear entre los expuestos y no expuestos, sin tener una enumeración completa de ellos. O, como tercera alternativa, se pueden identificar todas las personas que desarrollan una enfermedad de interés en un período de tiempo definido (“casos”) y un grupo adecuado de individuos libres de enfermedad (una muestra de la población fuente de casos), y determinar si los patrones de exposición difieren entre los dos grupos. El seguimiento de los participantes del estudio es una opción (en los llamados estudios longitudinales): en esta situación, existe un lapso de tiempo entre la ocurrencia de la exposición y el inicio de la enfermedad. Una opción alternativa es una muestra representativa de la población, donde tanto la exposición como la enfermedad se miden en el mismo momento.
En este artículo, se presta atención a los diseños de estudio comunes: cohorte, caso-referente (caso-control) y transversal. Para preparar el escenario para esta discusión, considere una gran fábrica de rayón viscosa en un pueblo pequeño. Se inicia una investigación sobre si la exposición al disulfuro de carbono aumenta el riesgo de enfermedad cardiovascular. La investigación tiene varias opciones de diseño, algunas más y otras menos obvias. Una primera estrategia es identificar a todos los trabajadores que han estado expuestos al disulfuro de carbono y hacerles un seguimiento de la mortalidad cardiovascular.
Escuadrón de estudio
Un estudio de cohorte abarca a los participantes de la investigación que comparten un evento común, la exposición. Un estudio de cohorte clásico identifica un grupo definido de personas expuestas, luego se les da seguimiento a todos y se registra su experiencia de morbilidad y/o mortalidad. Además de una exposición cualitativa común, la cohorte también debe definirse en otros criterio de elegibilidad, como rango de edad, sexo (masculino o femenino o ambos), duración mínima e intensidad de la exposición, ausencia de otras exposiciones y similares, para mejorar la validez y eficiencia del estudio. Al ingreso, todos los miembros de la cohorte deben estar libres de la enfermedad en estudio, de acuerdo con el conjunto de criterios empíricos utilizados para medir la enfermedad.
Si, por ejemplo, en el estudio de cohorte sobre los efectos del disulfuro de carbono en la morbilidad coronaria, la enfermedad coronaria se mide empíricamente como infartos clínicos, aquellos que, al inicio del estudio, han tenido antecedentes de infarto coronario deben ser excluidos de la cohorte. Por el contrario, se pueden aceptar anomalías electrocardiográficas sin antecedentes de infarto. Sin embargo, si la aparición de nuevos cambios electrocardiográficos es la medida de resultado empírica, los miembros de la cohorte también deben tener electrocardiogramas normales al inicio del estudio.
La morbilidad (en términos de incidencia) o la mortalidad de una cohorte expuesta debe compararse con una cohorte de referencia que idealmente debería ser lo más similar posible a la cohorte expuesta en todos los aspectos relevantes, excepto por la exposición, para determinar el riesgo relativo de enfermedad o muerte por exposición. El uso de una cohorte similar pero no expuesta como proveedor de la experiencia de referencia es preferible a la (mala) práctica común de comparar la morbilidad o mortalidad de la cohorte expuesta con cifras nacionales estandarizadas por edad, porque la población general no alcanza a cumplir incluso con los requisitos más importantes. requisitos elementales para la validez de la comparación. La Razón de Morbilidad (o Mortalidad) Estandarizada (SMR), resultante de tal comparación, generalmente genera una subestimación de la verdadera razón de riesgo debido a un sesgo que opera en la cohorte expuesta, lo que lleva a la falta de comparabilidad entre las dos poblaciones. Este sesgo de comparación se ha denominado “Efecto del trabajador sano”. Sin embargo, en realidad no es un verdadero “efecto”, sino un sesgo de confusión negativa, que a su vez ha surgido de la rotación selectiva de salud en una población ocupada. (Las personas con problemas de salud tienden a salir de las cohortes "expuestas", o nunca ingresar a ellas, y su destino final suele ser la sección desempleada de la población general).
Debido a que una cohorte "expuesta" se define como una determinada exposición, solo efectos causados por esa única exposición (o combinación de exposiciones) se pueden estudiar simultáneamente. Por otra parte, el diseño de cohortes permite el estudio de varias enfermedades al mismo tiempo. También se pueden estudiar simultáneamente diferentes manifestaciones de la misma enfermedad, por ejemplo, angina, cambios en el ECG, infartos de miocardio clínicos y mortalidad coronaria. Si bien es adecuado para probar hipótesis específicas (p. ej., "la exposición al disulfuro de carbono causa enfermedad coronaria"), un estudio de cohortes también brinda respuestas a la pregunta más general: "¿Qué enfermedades son causadas por esta exposición?"
Por ejemplo, en un estudio de cohorte que investiga el riesgo de que los trabajadores de una fundición mueran de cáncer de pulmón, los datos de mortalidad se obtienen del registro nacional de causas de muerte. Aunque el estudio fue para determinar si el polvo de fundición causa cáncer de pulmón, la fuente de datos, con el mismo esfuerzo, también brinda información sobre todas las demás causas de muerte. Por lo tanto, se pueden estudiar al mismo tiempo otros posibles riesgos para la salud.
El momento de un estudio de cohortes puede ser retrospectivo (histórico) o prospectivo (concurrente). En ambos casos la estructura de diseño es la misma. Se produce una enumeración completa de las personas expuestas en algún momento o período de tiempo, y el resultado se mide para todos los individuos a través de un punto final definido en el tiempo. La diferencia entre prospectivo y retrospectivo está en el momento del estudio. Si es retrospectivo, el punto final ya ha ocurrido; si es prospectivo, hay que esperarlo.
En el diseño retrospectivo, la cohorte se define en algún momento del pasado (por ejemplo, los expuestos el 1 de enero de 1961, o los que realizaron trabajos expuestos entre 1961 y 1970). La morbilidad y/o mortalidad de todos los miembros de la cohorte luego se sigue hasta el presente. Aunque “todos” significa que también se debe rastrear a quienes han dejado el trabajo, en la práctica rara vez se puede lograr una cobertura del 100 por ciento. Sin embargo, cuanto más completo es el seguimiento, más válido es el estudio.
En el diseño prospectivo, la cohorte se define en el presente, o durante algún período futuro, y luego se sigue la morbilidad en el futuro.
Al realizar estudios de cohortes, se debe permitir suficiente tiempo para el seguimiento a fin de que los puntos finales de interés tengan suficiente tiempo para manifestarse. A veces, debido a que los registros históricos pueden estar disponibles solo por un período corto en el pasado, es deseable aprovechar esta fuente de datos porque significa que se necesitaría un período más corto de seguimiento prospectivo antes de poder obtener los resultados del estudio. disponible. En estas situaciones, una combinación de los diseños de estudio de cohorte retrospectivo y prospectivo puede ser eficiente. El diseño general de las tablas de frecuencia que presentan datos de cohortes se muestra en la tabla 1.
Tabla 1. El diseño general de las tablas de frecuencia que presentan datos de cohortes
Componente de la tasa de enfermedad |
Cohorte expuesta |
Cohorte no expuesta |
Casos de enfermedad o muerte |
c1 |
c0 |
Número de personas en la cohorte |
N1 |
N0 |
La proporción observada de enfermos en la cohorte expuesta se calcula como:
y el de la cohorte de referencia como:
La relación de tasas entonces se expresa como:
N0 y N1 generalmente se expresan en unidades de persona-tiempo en lugar de como el número de personas en las poblaciones Los años-persona se calculan para cada individuo por separado. Diferentes personas a menudo ingresan a la cohorte durante un período de tiempo, no en la misma fecha. Por lo tanto, sus tiempos de seguimiento comienzan en fechas diferentes. Asimismo, después de su muerte, o después de que haya ocurrido el evento de interés, ya no están “en riesgo” y no deben continuar aportando años-persona al denominador.
Si el RR es superior a 1, la morbilidad de la cohorte expuesta es superior a la de la cohorte de referencia y viceversa. El RR es una estimación puntual y se debe calcular un intervalo de confianza (IC). Cuanto más grande sea el estudio, más estrecho será el intervalo de confianza. Si RR = 1 no se incluye en el intervalo de confianza (p. ej., el IC del 95 % es de 1.4 a 5.8), el resultado puede considerarse "estadísticamente significativo" en el nivel de probabilidad elegido (en este ejemplo, α = 0.05).
Si se utiliza la población general como población de referencia, c0 se sustituye por la cifra “esperada”, CE1 ), derivado de las tasas de morbilidad o mortalidad estandarizadas por edad de esa población (es decir, el número de casos que habrían ocurrido en la cohorte, si no hubiera tenido lugar la exposición de interés). Esto produce la razón de mortalidad (o morbilidad) estandarizada, SMR. Por lo tanto,
También para el SMR, se debe calcular un intervalo de confianza. Es mejor dar esta medida en una publicación que un valor p, porque la prueba de significancia estadística no tiene sentido si la población general es la categoría de referencia. Tal comparación implica un sesgo considerable (la efecto trabajador saludable mencionado anteriormente), y las pruebas de significación estadística, desarrolladas originalmente para la investigación experimental, son engañosas en presencia de un error sistemático.
Supongamos que la pregunta es si el polvo de cuarzo causa cáncer de pulmón. Por lo general, el polvo de cuarzo se presenta junto con otros carcinógenos, como los derivados del radón y los gases de escape de diésel en las minas o los hidrocarburos poliaromáticos en las fundiciones. Las canteras de granito no exponen a los trabajadores de la piedra a estos otros carcinógenos. Por lo tanto, el problema se estudia mejor entre los trabajadores de la piedra empleados en las canteras de granito.
Supongamos entonces que todos los 2,000 trabajadores, que han sido empleados por 20 canteras entre 1951 y 1960, se inscriben en la cohorte y se sigue su incidencia de cáncer (alternativamente, solo la mortalidad) comenzando diez años después de la primera exposición (para permitir un tiempo de inducción) y finalizando en 1990. Este es un seguimiento de 20 a 30 años (dependiendo del año de entrada) o, digamos, en promedio, un seguimiento de 25 años de la mortalidad (o morbilidad) por cáncer entre 1,000 de los trabajadores de la cantera que eran específicamente trabajadores del granito. Se debe registrar el historial de exposición de cada miembro de la cohorte. Se debe rastrear a los que han salido de las canteras y registrar su historial de exposición posterior. En países donde todos los habitantes tienen números de registro únicos, este es un procedimiento sencillo, regido principalmente por las leyes nacionales de protección de datos. Cuando no existe tal sistema, rastrear a los empleados con fines de seguimiento puede ser extremadamente difícil. Cuando existan registros apropiados de defunción o enfermedad, la mortalidad por todas las causas, todos los cánceres y las localizaciones específicas del cáncer pueden obtenerse del registro nacional de causas de defunción. (Para la mortalidad por cáncer, el registro nacional de cáncer es una mejor fuente porque contiene diagnósticos más precisos. Además, también se pueden obtener datos de incidencia (o morbilidad).) Las tasas de mortalidad (o tasas de incidencia de cáncer) se pueden comparar con “ números esperados”, calculados a partir de tasas nacionales utilizando como base los años-persona de la cohorte expuesta.
Suponga que se encuentran 70 casos fatales de cáncer de pulmón en la cohorte, mientras que el número esperado (el número que habría ocurrido si no hubiera habido exposición) es 35. Entonces:
c1 = 70, CE1) = 35
Por lo tanto, el SMR = 200, lo que indica un aumento del doble en el riesgo de morir de cáncer de pulmón entre los expuestos. Si se dispone de datos detallados de exposición, la mortalidad por cáncer se puede estudiar en función de diferentes tiempos de latencia (digamos, 10, 15, 20 años), trabajo en diferentes tipos de canteras (diferentes tipos de granito), diferentes períodos históricos, diferentes exposiciones intensidades, etc. Sin embargo, 70 casos no se pueden subdividir en demasiadas categorías, porque el número que cae en cada una rápidamente se vuelve demasiado pequeño para el análisis estadístico.
Ambos tipos de diseños de cohortes tienen ventajas y desventajas. Un estudio retrospectivo puede, por regla general, medir sólo la mortalidad, porque por lo general faltan datos sobre manifestaciones más leves. Los registros de cáncer son una excepción, y quizás algunos otros, como los registros de accidentes cerebrovasculares y los registros de altas hospitalarias, en los que también se dispone de datos de incidencia. Evaluar la exposición pasada siempre es un problema y los datos de exposición suelen ser bastante débiles en los estudios retrospectivos. Esto puede conducir al efecto de enmascaramiento. Por otro lado, dado que los casos ya se han producido, los resultados del estudio están disponibles mucho antes; en, digamos, dos o tres años.
Un estudio de cohorte prospectivo se puede planificar mejor para cumplir con las necesidades del investigador, y los datos de exposición se pueden recopilar de manera precisa y sistemática. Se pueden medir varias manifestaciones diferentes de una enfermedad. Las mediciones tanto de la exposición como del resultado se pueden repetir, y todas las mediciones se pueden estandarizar y se puede verificar su validez. Sin embargo, si la enfermedad tiene una latencia prolongada (como el cáncer), deberá pasar mucho tiempo, incluso de 20 a 30 años, antes de que se puedan obtener los resultados del estudio. Pueden pasar muchas cosas durante este tiempo. Por ejemplo, rotación de investigadores, mejoras en las técnicas de medición de la exposición, remodelación o cierre de las plantas elegidas para el estudio, etc. Todas estas circunstancias hacen peligrar el éxito del estudio. Los costos de un estudio prospectivo también suelen ser más altos que los de un estudio retrospectivo, pero esto se debe principalmente al número mucho mayor de mediciones (monitoreo de exposición repetida, exámenes clínicos, etc.) y no a un registro de muerte más costoso. Por lo tanto, la costos por unidad de información no superan necesariamente los de un estudio retrospectivo. En vista de todo esto, los estudios prospectivos son más adecuados para enfermedades con latencia más bien corta, que requieren un seguimiento corto, mientras que los estudios retrospectivos son mejores para enfermedades con latencia larga.
Estudios de casos y controles (o caso-referente)
Volvamos a la planta de rayón viscosa. Un estudio de cohorte retrospectivo puede no ser factible si se han perdido las listas de trabajadores expuestos, mientras que un estudio de cohorte prospectivo arrojaría resultados sólidos en mucho tiempo. Una alternativa sería entonces la comparación entre los fallecidos por enfermedad coronaria en la localidad, en el transcurso de un período de tiempo definido, y una muestra de la población total en el mismo grupo de edad.
El diseño clásico de casos y controles (o caso-referente) se basa en el muestreo de una población dinámica (abierta, caracterizada por una rotación de miembros). Esta población puede ser la de todo un país, un distrito o un municipio (como en nuestro ejemplo), o puede ser la población definida administrativamente a partir de la cual se ingresan pacientes en un hospital. La población definida proporciona tanto los casos como los controles (o referentes).
La técnica consiste en reunir todos los casos de la enfermedad en cuestión que existen en un punto en el tiempo (casos prevalentes), o han ocurrido durante un tiempo definido período de tiempo (casos incidentes). Los casos, por lo tanto, pueden extraerse de los registros de morbilidad o mortalidad, o recopilarse directamente de los hospitales u otras fuentes que tengan diagnósticos válidos. Los controles se dibujan como un muestra de la misma población, ya sea de entre los no casos o de toda la población. Otra opción es selecciona pacientes con otra enfermedad como controles, pero luego estos pacientes deben ser representativos de la población de donde provienen los casos. Puede haber uno o más controles (es decir, referentes) para cada caso. El enfoque de muestreo difiere de los estudios de cohortes, que examinan a toda la población. No hace falta decir que las ganancias en términos de costos más bajos de los diseños de casos y controles son considerables, pero es importante que la muestra sea representante de toda la población a partir de la cual se originaron los casos (es decir, la “base del estudio”); de lo contrario, el estudio puede estar sesgado.
Cuando se han identificado casos y controles, sus antecedentes de exposición se recopilan mediante cuestionarios, entrevistas o, en algunos casos, a partir de registros existentes (p. ej., registros de nómina de los que se pueden deducir los antecedentes laborales). Los datos se pueden obtener de los propios participantes o, si han fallecido, de familiares cercanos. Para garantizar un recuerdo simétrico, es importante que la proporción de casos y referentes muertos y vivos sea igual, porque los familiares cercanos suelen dar un historial de exposición menos detallado que los propios participantes. La información sobre el patrón de exposición entre los casos se compara con la de los controles, proporcionando una estimación de la proporción de probabilidades (OR), una medida indirecta de la riesgo entre los expuestos de contraer la enfermedad en relación con la de los no expuestos.
Debido a que el diseño de casos y controles se basa en la información de exposición obtenida de pacientes con una determinada enfermedad (es decir, casos) junto con una muestra de personas no enfermas (es decir, controles) de la población de donde se originaron los casos, la conexión con las exposiciones puede ser investigado por sólo una enfermedad. Por el contrario, este diseño permite el estudio concomitante del efecto de varias exposiciones diferentes. El estudio de casos y referencias es adecuado para abordar preguntas de investigación específicas (p. ej., "¿La enfermedad coronaria es causada por la exposición al disulfuro de carbono?"), pero también puede ayudar a responder la pregunta más general: "¿Qué exposiciones pueden causar esta enfermedad?". ?”
La cuestión de si la exposición a disolventes orgánicos causa cáncer hepático primario se plantea (a modo de ejemplo) en Europa. Los casos de cáncer de hígado primario, una enfermedad comparativamente rara en Europa, se recopilan mejor a partir de un registro nacional de cáncer. Suponga que todos los casos de cáncer ocurridos durante tres años forman la serie de casos. La base de población para el estudio es entonces un seguimiento de tres años de toda la población en el país europeo en cuestión. Los controles se extraen como una muestra de personas sin cáncer de hígado de la misma población. Por razones de conveniencia (lo que significa que se puede usar la misma fuente para tomar muestras de los controles), se pueden usar como controles pacientes con otro tipo de cáncer, no relacionado con la exposición a solventes. El cáncer de colon no tiene una relación conocida con la exposición a solventes; por lo tanto, este tipo de cáncer puede incluirse entre los controles. (El uso de controles de cáncer minimiza el sesgo de recuerdo en el sentido de que la precisión de la historia dada por casos y controles es, en promedio, simétrica. Sin embargo, si más tarde se revelara alguna conexión actualmente desconocida entre el cáncer de colon y la exposición a solventes, este tipo de control causaría una subestimación del verdadero riesgo, no una exageración del mismo).
Para cada caso de cáncer de hígado se dibujan dos controles con el fin de lograr un mayor poder estadístico. (Se podrían dibujar aún más controles, pero los fondos disponibles pueden ser un factor limitante. Si los fondos no estuvieran limitados, tal vez hasta cuatro controles serían óptimos. Más allá de cuatro, se aplica la ley de rendimientos decrecientes). Después de obtener el permiso apropiado de los datos Se abordan las autoridades de protección, los casos y controles, o sus familiares cercanos, generalmente mediante un cuestionario enviado por correo, solicitando una historia ocupacional detallada con especial énfasis en una lista cronológica de los nombres de todos los empleadores, los departamentos de trabajo, las tareas laborales en diferentes empleos, y el período de empleo en cada tarea respectiva. Estos datos se pueden obtener de familiares con alguna dificultad; sin embargo, los familiares no suelen recordar bien las sustancias químicas específicas o los nombres comerciales. El cuestionario también debe incluir preguntas sobre posibles datos confusos, como el consumo de alcohol, la exposición a alimentos que contienen aflatoxinas y la infección por hepatitis B y C. Para obtener una tasa de respuesta lo suficientemente alta, se envían dos recordatorios a los que no respondieron en intervalos de tres semanas. Esto generalmente da como resultado una tasa de respuesta final superior al 70%. Luego, un higienista industrial revisa el historial ocupacional, sin conocimiento del estado del caso o control del encuestado, y la exposición se clasifica en exposición alta, media, baja, ninguna y desconocida a los solventes. Los diez años de exposición inmediatamente anteriores al diagnóstico de cáncer no se tienen en cuenta, porque no es biológicamente plausible que los carcinógenos de tipo iniciador puedan ser la causa del cáncer si el tiempo de latencia es tan corto (aunque los promotores, de hecho, podrían). En esta etapa también es posible diferenciar entre diferentes tipos de exposición a solventes. Debido a que se ha proporcionado un historial laboral completo, también es posible explorar otras exposiciones, aunque la hipótesis inicial del estudio no las incluía. Luego se pueden calcular las razones de probabilidad para la exposición a cualquier solvente, solventes específicos, mezclas de solventes, diferentes categorías de intensidad de exposición y para diferentes ventanas de tiempo en relación con el diagnóstico de cáncer. Es recomendable excluir del análisis a aquellos con exposición desconocida.
Los casos y controles pueden muestrearse y analizarse como serie independiente or grupos emparejados. El emparejamiento significa que los controles se seleccionan para cada caso en función de ciertas características o atributos, para formar pares (o conjuntos, si se elige más de un control para cada caso). El emparejamiento generalmente se realiza en función de uno o más de tales factores, como la edad, el estado vital, el historial de tabaquismo, el tiempo calendario del diagnóstico del caso y similares. En nuestro ejemplo, los casos y los controles se emparejan por edad y estado vital. (El estado vital es importante, porque los propios pacientes suelen proporcionar un historial de exposición más preciso que los parientes cercanos, y la simetría es esencial por razones de validez). ) confuso.
Si un control coincide con un caso, el diseño se denomina diseño de pares combinados. Siempre que los costos de estudiar más controles no sean prohibitivos, más de un referente por caso mejora la estabilidad de la estimación del OR, lo que hace que el tamaño del estudio sea más eficiente.
El diseño de los resultados de un estudio de casos y controles no emparejado se muestra en la tabla 2.
Tabla 2. Diseño de muestra de datos de casos y controles
Clasificación de la exposición |
||
Expuesto |
no expuesto |
|
Casos |
c1 |
c0 |
no casos |
n1 |
n0 |
A partir de esta tabla, las probabilidades de exposición entre los casos y las probabilidades de exposición entre la población (los controles) se pueden calcular y dividir para obtener la razón de probabilidades de exposición, OR. Para los casos, la probabilidad de exposición es c1 / c0, y para los controles es n1 / n0. La estimación del OR es entonces:
Si se han expuesto relativamente más casos que controles, el OR es superior a 1 y viceversa. Los intervalos de confianza deben calcularse y proporcionarse para el OR, de la misma manera que para el RR.
A modo de ejemplo adicional, un centro de salud ocupacional de una gran empresa atiende a 8,000 empleados expuestos a una variedad de polvos y otros agentes químicos. Estamos interesados en la conexión entre la exposición al polvo mixto y la bronquitis crónica. El estudio implica el seguimiento de esta población durante un año. Hemos fijado como criterio diagnóstico de bronquitis crónica “tos matutina y producción de flemas durante tres meses durante dos años consecutivos”. Los criterios para la exposición “positiva” al polvo se definen antes de que comience el estudio. Cada paciente que acude al centro de salud y cumple estos criterios durante un período de un año es un caso, y el siguiente paciente que consulta por problemas no pulmonares se define como un control. Suponga que se inscriben 100 casos y 100 controles durante el período de estudio. Sean 40 casos y 15 controles clasificados como expuestos al polvo. Después
c1 = 40, c0 = 60, n1 = 15, y n0 = 85.
En consecuencia,
En el ejemplo anterior, no se ha considerado la posibilidad de confusión, que puede conducir a una distorsión del OR debido a diferencias sistemáticas entre casos y controles en una variable como la edad. Una forma de reducir este sesgo es hacer coincidir los controles con los casos según la edad u otros factores sospechosos. Esto da como resultado un diseño de datos que se muestra en la tabla 3.
Tabla 3. Diseño de los datos de casos y controles si un control se empareja con cada caso
referentes |
||
Casos |
Exposición (+) |
Exposición (-) |
Exposición (+) |
f+ + |
f+ - |
Exposición (-) |
f- + |
f- - |
El análisis se centra en los pares discordantes: es decir, “caso expuesto, control no expuesto” (f+ -); y “caso no expuesto, control expuesto” (f–+). Cuando ambos miembros de un par están expuestos o no, el par no se tiene en cuenta. El OR en un diseño de estudio de pares emparejados se define como
En un estudio sobre la asociación entre el cáncer nasal y la exposición al polvo de madera, hubo en total 164 pares de casos y controles. En solo un par, tanto el caso como el control habían estado expuestos, y en 150 pares, ni el caso ni el control habían estado expuestos. Estos pares no se consideran más. El caso, pero no el control, había sido expuesto en 12 pares, y el control, pero no el caso, en un par. Por eso,
y debido a que la unidad no está incluida en este intervalo, el resultado es estadísticamente significativo, es decir, existe una asociación estadísticamente significativa entre el cáncer nasal y la exposición al polvo de madera.
Los estudios de casos y controles son más eficientes que los estudios de cohortes cuando el la enfermedad es rara; de hecho, pueden proporcionar la única opción. Sin embargo, las enfermedades comunes también se pueden estudiar con este método. Si el la exposición es rara, una cohorte basada en la exposición es el diseño epidemiológico preferible o el único factible. Por supuesto, también se pueden realizar estudios de cohortes sobre exposiciones comunes. La elección entre diseños de cohortes y de casos y controles cuando tanto la exposición como la enfermedad son comunes suele decidirse teniendo en cuenta consideraciones de validez.
Debido a que los estudios de casos y controles se basan en datos de exposición retrospectivos, generalmente basados en el recuerdo de los participantes, su punto débil es la inexactitud y la crudeza de la información de exposición, lo que resulta en el enmascaramiento del efecto a través de no diferencial Clasificación errónea (simétrica) del estado de exposición. Además, a veces el recuerdo puede ser asimétrico entre casos y controles, los casos generalmente se cree que recuerdan "mejor" (es decir, sesgo de recuerdo).
El recuerdo selectivo puede causar un sesgo que magnifica el efecto a través de diferencial clasificación errónea (asimétrica) del estado de exposición. Las ventajas de los estudios de casos y controles radican en su rentabilidad y su capacidad para proporcionar una solución a un problema con relativa rapidez. Debido a la estrategia de muestreo, permiten la investigación de poblaciones objetivo muy grandes (p. ej., a través de registros nacionales de cáncer), aumentando así el poder estadístico del estudio. En países donde la legislación de protección de datos o la falta de buenos registros de población y morbilidad dificulta la ejecución de estudios de cohortes, los estudios de casos y controles en hospitales pueden ser la única forma práctica de realizar investigaciones epidemiológicas.
Muestreo de casos y controles dentro de una cohorte (diseños de estudios de casos y controles anidados)
También se puede diseñar un estudio de cohorte para muestreo en lugar de seguimiento completo. Este diseño se ha llamado anteriormente un estudio de casos y controles "anidado". Un enfoque de muestreo dentro de la cohorte establece diferentes requisitos sobre la elegibilidad de la cohorte, porque ahora las comparaciones se realizan dentro de la misma cohorte. Por lo tanto, esto debería incluir no solo a los trabajadores muy expuestos, sino también a los trabajadores menos expuestos e incluso a los no expuestos, a fin de proporcionar contrastes de exposicion dentro de sí mismo Es importante darse cuenta de esta diferencia en los requisitos de elegibilidad al ensamblar la cohorte. Si primero se lleva a cabo un análisis de cohorte completo en una cohorte cuyos criterios de elegibilidad se basaban en una exposición "mucha", y luego se realiza un estudio de casos y controles "anidado" en la misma cohorte, el estudio se vuelve insensible. Esto introduce un efecto de enmascaramiento porque los contrastes de exposición son insuficientes "por diseño" en virtud de la falta de variabilidad en la experiencia de exposición entre los miembros de la cohorte.
Sin embargo, siempre que la cohorte tenga una amplia gama de experiencias de exposición, el enfoque de casos y controles anidados es muy atractivo. Uno reúne todos los casos que surgieron en la cohorte durante el período de seguimiento para formar la serie de casos, mientras que sólo un muestra de los no casos se dibuja para la serie de control. Luego, los investigadores, como en el diseño tradicional de casos y controles, recopilan información detallada sobre la experiencia de exposición entrevistando casos y controles (o sus parientes cercanos), examinando las listas de personal de los empleadores, construyendo un matriz de exposición laboral, o combinando dos o más de estos enfoques. Los controles pueden combinarse con los casos o pueden tratarse como una serie independiente.
El enfoque de muestreo puede ser menos costoso en comparación con la obtención de información exhaustiva sobre cada miembro de la cohorte. En particular, debido a que solo se estudia una muestra de controles, se pueden dedicar más recursos a la evaluación detallada y precisa de la exposición para cada caso y control. Sin embargo, prevalecen los mismos problemas de poder estadístico que en los estudios de cohortes clásicos. Para lograr un poder estadístico adecuado, la cohorte siempre debe estar compuesta por un número “adecuado” de casos expuestos según la magnitud del riesgo que se deba detectar.
Diseños de estudios transversales
En un sentido científico, un diseño transversal es una muestra transversal de la población de estudio, sin tener en cuenta el tiempo. Tanto la exposición como la morbilidad (prevalencia) se miden en el mismo momento.
Desde el punto de vista etiológico, el diseño de este estudio es débil, en parte porque se trata de prevalencia en lugar de incidencia. La prevalencia es una medida compuesta, que depende tanto de la incidencia como de la duración de la enfermedad. Esto también restringe el uso de estudios transversales a enfermedades de larga duración. Más grave aún es el fuerte sesgo negativo causado por la eliminación dependiente de la salud del grupo expuesto de aquellas personas más sensibles a los efectos de la exposición. Por lo tanto, los problemas etiológicos se resuelven mejor mediante diseños longitudinales. De hecho, los estudios transversales no permiten sacar conclusiones sobre si la exposición precedió a la enfermedad o viceversa. La sección transversal es etiológicamente significativa solo si existe una verdadera relación de tiempo entre la exposición y el resultado, lo que significa que la exposición actual debe tener efectos inmediatos. Sin embargo, la exposición puede medirse transversalmente de modo que represente un período de tiempo pasado más largo (p. ej., el nivel de plomo en sangre), mientras que la medida de resultado es una de prevalencia (p. ej., velocidades de conducción nerviosa). El estudio entonces es una mezcla de un diseño longitudinal y transversal en lugar de una mera sección transversal de la población de estudio.
Encuestas descriptivas transversales
Las encuestas transversales suelen ser útiles para fines prácticos y administrativos, más que científicos. Los principios epidemiológicos se pueden aplicar a las actividades de vigilancia sistemática en el ámbito de la salud ocupacional, tales como:
Es importante elegir indicadores de morbilidad representativos, válidos y específicos para todo tipo de encuestas. Una encuesta o un programa de cribado puede utilizar solo un número bastante pequeño de pruebas, en contraste con el diagnóstico clínico, y por lo tanto, el valor predictivo de la prueba de cribado es importante. Los métodos insensibles no logran detectar la enfermedad de interés, mientras que los métodos altamente sensibles producen demasiados resultados falsos positivos. No vale la pena buscar enfermedades raras en un entorno laboral. Todas las actividades de búsqueda de casos (es decir, detección) también requieren un mecanismo para atender a las personas que tienen hallazgos “positivos”, tanto en términos de diagnóstico como de terapia. De lo contrario, solo se producirá frustración con la posibilidad de que surja más daño que bien.
La necesidad de validez
La epidemiología tiene como objetivo proporcionar una comprensión de la experiencia de la enfermedad en las poblaciones. En particular, se puede utilizar para obtener información sobre las causas ocupacionales de la mala salud. Este conocimiento proviene de estudios realizados en grupos de personas que padecen una enfermedad comparándolos con personas sin esa enfermedad. Otro enfoque es examinar qué enfermedades adquieren las personas que trabajan en ciertos trabajos con exposiciones particulares y comparar estos patrones de enfermedad con los de las personas que no están expuestas de manera similar. Estos estudios proporcionan estimaciones del riesgo de enfermedad para exposiciones específicas. Para que la información de dichos estudios se utilice para establecer programas de prevención, para el reconocimiento de enfermedades profesionales y para que los trabajadores afectados por las exposiciones sean debidamente compensados, estos estudios deben ser válidos.
Validez se puede definir como la capacidad de un estudio para reflejar el estado real de las cosas. Por lo tanto, un estudio válido es aquel que mide correctamente la asociación (ya sea positiva, negativa o ausente) entre una exposición y una enfermedad. Describe la dirección y la magnitud de un riesgo real. Se distinguen dos tipos de validez: la validez interna y la externa. La validez interna es la capacidad de un estudio para reflejar lo que realmente sucedió entre los sujetos del estudio; la validez externa refleja lo que podría ocurrir en la población.
La validez se relaciona con la veracidad de una medida. La validez debe distinguirse de la precisión de la medición, que es una función del tamaño del estudio y la eficiencia del diseño del estudio.
Validez interna
Se dice que un estudio es válido internamente cuando está libre de sesgos y, por lo tanto, refleja verdaderamente la asociación entre exposición y enfermedad que existe entre los participantes del estudio. Un riesgo de enfermedad observado en asociación con una exposición puede ser el resultado de una asociación real y, por lo tanto, ser válido, pero también puede reflejar la influencia de sesgos. Un sesgo dará una imagen distorsionada de la realidad.
Tres tipos principales de sesgos, también llamados errores sistemáticos, se suelen distinguir:
Se presentarán brevemente a continuación, usando ejemplos del ámbito de la salud ocupacional.
Sesgo de selección
El sesgo de selección ocurrirá cuando la entrada en el estudio esté influenciada por el conocimiento del estado de exposición del posible participante del estudio. Por lo tanto, este problema se encuentra solo cuando la enfermedad ya se ha presentado en el momento (antes) de que la persona ingrese al estudio. Por lo general, en el entorno epidemiológico, esto sucederá en estudios de casos y controles o en estudios de cohortes retrospectivos. Esto significa que es más probable que una persona sea considerada un caso si se sabe que ha estado expuesta. Tres conjuntos de circunstancias pueden conducir a tal evento, que también dependerán de la gravedad de la enfermedad.
Sesgo de autoselección
Esto puede ocurrir cuando las personas que saben que han estado expuestas en el pasado a productos nocivos conocidos o que se cree, y que están convencidas de que su enfermedad es el resultado de la exposición, consultan a un médico por síntomas que otras personas, no tan expuestas, podrían haber ignorado. Esto es particularmente probable que suceda en el caso de enfermedades que tienen pocos síntomas perceptibles. Un ejemplo puede ser la pérdida prematura del embarazo o el aborto espontáneo entre enfermeras que manejan medicamentos utilizados para el tratamiento del cáncer. Estas mujeres son más conscientes que la mayoría de la fisiología reproductiva y, al estar preocupadas por su capacidad para tener hijos, es más probable que reconozcan o etiqueten como un aborto espontáneo lo que otras mujeres solo considerarían como un retraso en el inicio de la menstruación. Otro ejemplo de un estudio de cohorte retrospectivo, citado por Rothman (1986), involucra un estudio de leucemia de los Centros para el Control de Enfermedades entre las tropas que habían estado presentes durante una prueba atómica estadounidense en Nevada. De las tropas presentes en el sitio de prueba, el 76% fue rastreado y constituyó la cohorte. De estos, el 82 % fueron encontrados por los investigadores, pero un 18 % adicional contactó a los propios investigadores después de escuchar la publicidad sobre el estudio. Hubo cuatro casos de leucemia entre el 82 % rastreado por los CDC y cuatro casos entre el 18 % autorreferido. Esto sugiere fuertemente que la capacidad de los investigadores para identificar a las personas expuestas estaba relacionada con el riesgo de leucemia.
Sesgo de diagnóstico
Esto ocurrirá cuando sea más probable que los médicos diagnostiquen una determinada enfermedad una vez que sepan a qué ha estado expuesto previamente el paciente. Por ejemplo, cuando la mayoría de las pinturas eran a base de plomo, un síntoma de enfermedad de los nervios periféricos llamado neuritis periférica con parálisis también se conocía como “caída de la muñeca” de los pintores. Conocer la ocupación del paciente facilitó el diagnóstico de la enfermedad incluso en sus primeras etapas, mientras que la identificación del agente causal sería mucho más difícil en los participantes de la investigación que no se sabe que están expuestos ocupacionalmente al plomo.
Sesgo resultante de la negativa a participar en un estudio
Cuando se les pide a las personas, sanas o enfermas, que participen en un estudio, varios factores juegan un papel para determinar si estarán de acuerdo o no. La disposición a responder cuestionarios de extensión variable, que en ocasiones indagan sobre temas delicados, y más aún para donar sangre u otras muestras biológicas, puede estar determinada por el grado de interés propio que tenga la persona. Alguien que es consciente de una posible exposición pasada puede estar dispuesto a cumplir con esta consulta con la esperanza de que ayude a encontrar la causa de la enfermedad, mientras que alguien que considera que no ha estado expuesto a nada peligroso o que no está interesado en su conocimiento, podrá declinar la invitación a participar en el estudio. Esto puede conducir a una selección de aquellas personas que finalmente serán los participantes del estudio en comparación con todos los que podrían haberlo sido.
Sesgo de información
Esto también se denomina sesgo de observación y se refiere al resultado de la enfermedad en los estudios de seguimiento y la evaluación de la exposición en los estudios de casos y controles.
Evaluación diferencial de resultados en estudios prospectivos de seguimiento (cohorte)
Se definen dos grupos al comienzo del estudio: un grupo expuesto y un grupo no expuesto. Surgirán problemas de sesgo diagnóstico si la búsqueda de casos difiere entre estos dos grupos. Por ejemplo, considere una cohorte de personas expuestas a una liberación accidental de dioxinas en una industria determinada. Para el grupo altamente expuesto, se establece un sistema de seguimiento activo con exámenes médicos y monitoreo biológico a intervalos regulares, mientras que el resto de la población activa recibe solo atención de rutina. Es muy probable que se identifiquen más enfermedades en el grupo bajo estrecha vigilancia, lo que conduciría a una posible sobreestimación del riesgo.
Pérdidas diferenciales en estudios de cohortes retrospectivos
El mecanismo inverso al descrito en el párrafo anterior puede ocurrir en estudios de cohortes retrospectivos. En estos estudios, la forma habitual de proceder es partir de los expedientes de todas las personas que han estado empleadas en un determinado sector en el pasado, y evaluar la enfermedad o mortalidad posterior al empleo. Desafortunadamente, en casi todos los estudios los archivos están incompletos, y el hecho de que una persona esté desaparecida puede estar relacionado con el estado de exposición o con el estado de enfermedad o con ambos. Por ejemplo, en un estudio reciente realizado en la industria química en trabajadores expuestos a aminas aromáticas, se encontraron ocho tumores en un grupo de 777 trabajadores a los que se les había realizado un cribado citológico de tumores urinarios. En total, solo faltaban 34 registros, lo que corresponde a una pérdida del 4.4 % del archivo de evaluación de exposición, pero para los casos de cáncer de vejiga, faltaban datos de exposición en dos casos de ocho, o el 25 %. Esto muestra que los archivos de las personas que se convirtieron en casos tenían más probabilidades de perderse que los archivos de otros trabajadores. Esto puede ocurrir debido a cambios de trabajo más frecuentes dentro de la empresa (lo que puede estar relacionado con efectos de exposición), renuncia, despido o mera casualidad.
Evaluación diferencial de la exposición en estudios de casos y controles
En los estudios de casos y controles, la enfermedad ya se ha producido al comienzo del estudio y se buscará información sobre las exposiciones en el pasado. El sesgo puede resultar de la actitud del entrevistador o del participante del estudio hacia la investigación. La información generalmente es recopilada por entrevistadores capacitados que pueden o no estar al tanto de la hipótesis que subyace a la investigación. Por ejemplo, en un estudio de casos y controles basado en la población de cáncer de vejiga realizado en una región altamente industrializada, el personal del estudio bien puede ser consciente del hecho de que ciertas sustancias químicas, como las aminas aromáticas, son factores de riesgo para el cáncer de vejiga. Si también saben quién ha desarrollado la enfermedad y quién no, es probable que realicen entrevistas más detalladas con los participantes que tienen cáncer de vejiga que con los controles. Pueden insistir en información más detallada de ocupaciones pasadas, buscando sistemáticamente la exposición a aminas aromáticas, mientras que para los controles pueden registrar las ocupaciones de una manera más rutinaria. El sesgo resultante se conoce como sesgo de sospecha de exposición.
Los propios participantes también pueden ser responsables de tal sesgo. Se llama sesgo de recuerdo para distinguirlo del sesgo del entrevistador. Ambos tienen la sospecha de exposición como mecanismo del sesgo. Las personas enfermas pueden sospechar un origen laboral de su enfermedad y por ello intentarán recordar con la mayor precisión posible todos los agentes peligrosos a los que pueden haber estado expuestos. En el caso de manipular productos no definidos, pueden estar inclinados a recordar los nombres de productos químicos precisos, particularmente si se les proporciona una lista de productos sospechosos. Por el contrario, es menos probable que los controles pasen por el mismo proceso de pensamiento.
Confuso
Existe confusión cuando la asociación observada entre la exposición y la enfermedad es en parte el resultado de una mezcla del efecto de la exposición en estudio y otro factor. Digamos, por ejemplo, que estamos encontrando un mayor riesgo de cáncer de pulmón entre los soldadores. Estamos tentados a concluir inmediatamente que existe una asociación causal entre la exposición a los humos de soldadura y el cáncer de pulmón. Sin embargo, también sabemos que fumar es, con diferencia, el principal factor de riesgo del cáncer de pulmón. Por lo tanto, si hay información disponible, comenzamos a verificar el estado de tabaquismo de los soldadores y otros participantes del estudio. Podemos encontrar que los soldadores son más propensos a fumar que los no soldadores. En esa situación, se sabe que fumar está asociado con el cáncer de pulmón y, al mismo tiempo, en nuestro estudio también se encuentra que fumar está asociado con ser soldador. En términos epidemiológicos, esto significa que fumar, relacionado tanto con el cáncer de pulmón como con la soldadura, está confundiendo la asociación entre la soldadura y el cáncer de pulmón.
Modificación de interacción o efecto
A diferencia de todos los problemas enumerados anteriormente, a saber, la selección, la información y la confusión, que son sesgos, la interacción no es un sesgo debido a problemas en el diseño o análisis del estudio, sino que refleja la realidad y su complejidad. Un ejemplo de este fenómeno es el siguiente: la exposición al radón es un factor de riesgo para el cáncer de pulmón, al igual que el tabaquismo. Además, fumar y la exposición al radón tienen diferentes efectos sobre el riesgo de cáncer de pulmón dependiendo de si actúan juntos o de forma aislada. La mayoría de los estudios ocupacionales sobre este tema se han realizado entre mineros subterráneos y, en ocasiones, han arrojado resultados contradictorios. En general, parece haber argumentos a favor de una interacción entre el tabaquismo y la exposición al radón en la producción de cáncer de pulmón. Esto significa que el riesgo de cáncer de pulmón aumenta con la exposición al radón, incluso en los no fumadores, pero que el tamaño del aumento del riesgo por el radón es mucho mayor entre los fumadores que entre los no fumadores. En términos epidemiológicos, decimos que el efecto es multiplicativo. A diferencia de la confusión, descrita anteriormente, la interacción debe analizarse y describirse cuidadosamente en el análisis en lugar de simplemente controlarse, ya que refleja lo que sucede a nivel biológico y no es simplemente una consecuencia de un diseño de estudio deficiente. Su explicación conduce a una interpretación más válida de los hallazgos de un estudio.
Validez externa
Este problema solo se puede abordar después de asegurarse de que la validez interna esté asegurada. Si estamos convencidos de que los resultados observados en el estudio reflejan asociaciones que son reales, podemos preguntarnos si podemos o no extrapolar estos resultados a la población más grande de la que se extrajeron los propios participantes del estudio, o incluso a otras poblaciones que son idénticas. o al menos muy similar. La pregunta más común es si los resultados obtenidos para los hombres también se aplican a las mujeres. Durante años, los estudios y, en particular, las investigaciones de epidemiología laboral se han realizado exclusivamente entre hombres. Los estudios entre químicos realizados en las décadas de 1960 y 1970 en los Estados Unidos, el Reino Unido y Suecia encontraron un mayor riesgo de cánceres específicos, a saber, leucemia, linfoma y cáncer de páncreas. En base a lo que sabíamos de los efectos de la exposición a solventes y algunos otros químicos, ya podríamos haber deducido en ese momento que el trabajo de laboratorio también implicaba un riesgo cancerígeno para las mujeres. De hecho, se demostró que este era el caso cuando finalmente se publicó el primer estudio entre mujeres químicas a mediados de la década de 1980, que encontró resultados similares a los de los hombres. Vale la pena señalar que otros cánceres en exceso encontrados fueron los tumores de mama y ovario, tradicionalmente considerados como relacionados solo con factores endógenos o de reproducción, pero en los que los factores ambientales sospechados recientemente, como los pesticidas, pueden desempeñar un papel. Se necesita trabajar mucho más en los determinantes ocupacionales de los cánceres femeninos.
Estrategias para un estudio válido
Nunca puede existir un estudio perfectamente válido, pero corresponde al investigador tratar de evitar, o al menos minimizar, tantos sesgos como sea posible. A menudo, esto se puede hacer mejor en la etapa de diseño del estudio, pero también se puede llevar a cabo durante el análisis.
Diseño del estudio
El sesgo de selección e información solo se puede evitar mediante el diseño cuidadoso de un estudio epidemiológico y la implementación escrupulosa de todas las pautas diarias subsiguientes, incluida la atención meticulosa a la garantía de calidad, para la realización del estudio en condiciones de campo. La confusión se puede tratar en la etapa de diseño o de análisis.
Selección
Los criterios para considerar a un participante como un caso deben definirse explícitamente. Uno no puede, o al menos no debe, intentar estudiar condiciones clínicas mal definidas. Una forma de minimizar el impacto que puede tener el conocimiento de la exposición en la evaluación de la enfermedad es incluir solo los casos graves que se habrían diagnosticado independientemente de cualquier información sobre la historia del paciente. En el campo del cáncer, los estudios a menudo se limitarán a casos con prueba histológica de la enfermedad para evitar la inclusión de lesiones borderline. Esto también significará que los grupos bajo estudio están bien definidos. Por ejemplo, es bien conocido en la epidemiología del cáncer que los cánceres de diferentes tipos histológicos dentro de un órgano dado pueden tener factores de riesgo diferentes. Si el número de casos es suficiente, es mejor separar el adenocarcinoma de pulmón del carcinoma de células escamosas de pulmón. Cualesquiera que sean los criterios finales para participar en el estudio, siempre deben estar claramente definidos y descritos. Por ejemplo, se debe indicar el código exacto de la enfermedad utilizando la Clasificación Internacional de Enfermedades (CIE) y también, para el cáncer, la Clasificación Internacional de Enfermedades-Oncología (CIE-O).
Se deben hacer esfuerzos una vez que se especifican los criterios para maximizar la participación en el estudio. La decisión de negarse a participar casi nunca se toma al azar y, por lo tanto, conduce a un sesgo. En primer lugar, los estudios deben presentarse a los médicos que atienden a los pacientes. Se necesita su aprobación para acercarse a los pacientes y, por lo tanto, habrá que convencerlos para que apoyen el estudio. Un argumento que suele ser persuasivo es que el estudio es de interés para la salud pública. Sin embargo, en esta etapa es mejor no discutir la hipótesis exacta que se está evaluando para evitar influenciar indebidamente a los médicos involucrados. No se debe pedir a los médicos que asuman tareas adicionales; es más fácil convencer al personal de salud para que preste su apoyo a un estudio si los investigadores del estudio proporcionan los medios para llevar a cabo cualquier tarea adicional, además de la atención de rutina, necesaria para el estudio. Los entrevistadores y los extractores de datos deben desconocer el estado de la enfermedad de sus pacientes.
Se debe prestar una atención similar a la información proporcionada a los participantes. El objetivo del estudio debe describirse en términos amplios y neutrales, pero también debe ser convincente y persuasivo. Es importante que los temas de confidencialidad e interés para la salud pública se entiendan completamente evitando la jerga médica. En la mayoría de los entornos, el uso de incentivos financieros o de otro tipo no se considera apropiado, aunque se debe proporcionar una compensación por cualquier gasto en el que pueda incurrir un participante. Por último, pero no menos importante, la población en general debe tener suficientes conocimientos científicos para comprender la importancia de dicha investigación. Tanto los beneficios como los riesgos de la participación deben explicarse a cada posible participante cuando necesite completar cuestionarios y/o proporcionar muestras biológicas para almacenamiento y/o análisis. No se debe ejercer coerción para obtener el consentimiento previo y plenamente informado. Cuando los estudios se basen exclusivamente en registros, se debe obtener la aprobación previa de las agencias responsables de garantizar la confidencialidad de dichos registros. En estos casos, por lo general se puede renunciar al consentimiento del participante individual. En cambio, será suficiente la aprobación de los funcionarios del sindicato y del gobierno. Las investigaciones epidemiológicas no son una amenaza para la vida privada de un individuo, pero son una ayuda potencial para mejorar la salud de la población. Se necesitará la aprobación de una junta de revisión institucional (o comité de revisión de ética) antes de la realización de un estudio, y ellos esperarán gran parte de lo establecido anteriormente para su revisión.
Información
En los estudios prospectivos de seguimiento, los medios para evaluar la enfermedad o el estado de mortalidad deben ser idénticos para los participantes expuestos y no expuestos. En particular, no se deben usar diferentes fuentes, como solo verificar en un registro central de mortalidad para los participantes no expuestos y usar una vigilancia activa intensiva para los participantes expuestos. Del mismo modo, la causa de la muerte debe obtenerse de manera estrictamente comparable. Esto significa que si se utiliza un sistema para obtener acceso a documentos oficiales para la población no expuesta, que a menudo es la población en general, nunca se debe planear obtener información aún más precisa a través de registros médicos o entrevistas a los propios participantes o a sus familias para el subgrupo expuesto.
En los estudios de cohortes retrospectivos, se deben hacer esfuerzos para determinar qué tan cerca se compara la población en estudio con la población de interés. Se debe tener cuidado con las posibles pérdidas diferenciales en los grupos expuestos y no expuestos al utilizar diversas fuentes relacionadas con la composición de la población. Por ejemplo, puede ser útil comparar las listas de nómina con las listas de afiliados a sindicatos u otras listas profesionales. Las discrepancias deben conciliarse y debe seguirse estrictamente el protocolo adoptado para el estudio.
En los estudios de casos y controles, existen otras opciones para evitar sesgos. Los entrevistadores, el personal del estudio y los participantes del estudio no necesitan conocer la hipótesis precisa que se está estudiando. Si no conocen la asociación que se está probando, es menos probable que intenten dar la respuesta esperada. Mantener al personal del estudio en la oscuridad en cuanto a la hipótesis de la investigación es, de hecho, muy poco práctico. El entrevistador casi siempre conocerá las exposiciones de mayor interés potencial, así como quién es un caso y quién es un control. Por tanto, tenemos que confiar en su honestidad y también en su formación en metodología básica de la investigación, que debe formar parte de su formación profesional; la objetividad es el sello distintivo en todas las etapas de la ciencia.
Es más fácil no informar a los participantes del estudio del objeto exacto de la investigación. Las buenas explicaciones básicas sobre la necesidad de recopilar datos para tener una mejor comprensión de la salud y la enfermedad suelen ser suficientes y satisfarán las necesidades de la revisión ética.
Confuso
La confusión es el único sesgo que se puede tratar en la etapa de diseño del estudio o, siempre que se disponga de información adecuada, en la etapa de análisis. Si, por ejemplo, se considera que la edad es un factor de confusión potencial de la asociación de interés porque la edad está asociada con el riesgo de enfermedad (es decir, el cáncer se vuelve más frecuente en la vejez) y también con la exposición (las condiciones de exposición varían con la edad o la edad). con factores relacionados con la edad, como la calificación, el puesto de trabajo y la duración del empleo), existen varias soluciones. La más simple es limitar el estudio a un rango de edad específico; por ejemplo, inscribir solo a hombres caucásicos de 40 a 50 años. Esto brindará elementos para un análisis simple, pero también tendrá la desventaja de limitar la aplicación de los resultados a una sola persona. sexo edad/grupo racial. Otra solución es hacer coincidir la edad. Esto significa que para cada caso se necesita un referente de la misma edad. Esta es una idea atractiva, pero hay que tener en cuenta la posible dificultad de cumplir con este requisito a medida que aumenta el número de factores coincidentes. Además, una vez que se ha emparejado un factor, se vuelve imposible evaluar su papel en la aparición de la enfermedad. La última solución es tener suficiente información sobre posibles factores de confusión en la base de datos del estudio para verificarlos en el análisis. Esto se puede hacer a través de un análisis estratificado simple o con herramientas más sofisticadas como el análisis multivariado. Sin embargo, debe recordarse que el análisis nunca podrá compensar un estudio mal diseñado o realizado.
Conclusión
La posibilidad de que se produzcan sesgos en la investigación epidemiológica está establecida desde hace mucho tiempo. Esto no era una gran preocupación cuando las asociaciones que se estudiaban eran fuertes (como es el caso del tabaquismo y el cáncer de pulmón) y, por lo tanto, cierta inexactitud no causaba un problema demasiado grave. Sin embargo, ahora que ha llegado el momento de evaluar los factores de riesgo más débiles, la necesidad de mejores herramientas se vuelve primordial. Esto incluye la necesidad de diseños de estudio excelentes y la posibilidad de combinar las ventajas de varios diseños tradicionales, como los estudios de casos y controles o de cohortes, con enfoques más innovadores, como los estudios de casos y controles anidados dentro de una cohorte. Además, el uso de biomarcadores puede proporcionar los medios para obtener evaluaciones más precisas de las exposiciones actuales y posiblemente pasadas, así como de las primeras etapas de la enfermedad.
Los errores en la medición de la exposición pueden tener diferentes impactos en la relación exposición-enfermedad que se estudia, según cómo se distribuyan los errores. Si un estudio epidemiológico se ha realizado a ciegas (es decir, se han tomado medidas sin conocimiento de la enfermedad o el estado de salud de los participantes del estudio), esperamos que el error de medición se distribuya uniformemente entre los estratos de enfermedad o estado de salud.
La Tabla 1 proporciona un ejemplo: supongamos que reclutamos una cohorte de personas expuestas en el trabajo a un tóxico, para investigar una enfermedad frecuente. Determinamos el estado de exposición solo en el momento del reclutamiento (T0), y no en otros puntos en el tiempo durante el seguimiento. Sin embargo, digamos que un número de individuos, de hecho, cambia su estado de exposición en el año siguiente: en el momento T1, 250 de las 1,200 personas expuestas originales han dejado de estar expuestas, mientras que 150 de las 750 personas no expuestas originales han comenzado a estar expuestas al tóxico. Por lo tanto, en el tiempo T1, 1,100 personas están expuestas y 850 no están expuestas. Como consecuencia, tenemos una "clasificación errónea" de la exposición, con base en nuestra medición inicial del estado de exposición en el tiempo T0. Estos individuos luego son rastreados después de 20 años (en el tiempo T2) y se evalúa el riesgo acumulativo de enfermedad. (La suposición que se hace en el ejemplo es que solo la exposición de más de un año es una preocupación).
Tabla 1. Cohorte hipotética de 1950 individuos (expuestos y no expuestos en el trabajo), reclutados en el tiempo T0 y cuyo estado de enfermedad se determina en el momento T2
Hora |
|||
T0 |
T1 |
T2 |
Trabajadores expuestos 1200 250 abandonar la exposición 1100 (1200-250+150)
Casos de enfermedad en el tiempo T2 = 220 entre trabajadores expuestos
Trabajadores no expuestos 750 150 exposición inicial 850 (750-150+250)
Casos de enfermedad en el tiempo T2 = 85 entre trabajadores no expuestos
El sistema verdadero riesgo de la enfermedad en el tiempo T2 es del 20% entre los trabajadores expuestos (220/1100),
y 10% en trabajadores no expuestos (85/850) (razón de riesgo = 2.0).
Riesgo estimado en T2 de enfermedad entre los clasificados como expuestos a T0: 20%
(es decir, riesgo real en los expuestos) ´ 950 (es decir, 1200-250)+ 10%
(es decir, riesgo verdadero en no expuestos) ´ 250 = (190+25)/1200 = 17.9%
Riesgo estimado en T2 de enfermedad entre los clasificados como no expuestos al
T0: 20% (es decir, riesgo real en los expuestos) ´ 150 +10%
(es decir, riesgo verdadero en no expuestos) ´ 600 (es decir, 750-150) = (30+60)/750 = 12%
Relación de riesgo estimada = 17.9% / 12% = 1.49
La clasificación errónea depende, en este ejemplo, del diseño del estudio y las características de la población, más que de las limitaciones técnicas de la medición de la exposición. El efecto de la clasificación errónea es tal que la relación "verdadera" de 2.0 entre el riesgo acumulado entre las personas expuestas y las personas no expuestas se convierte en una relación "observada" de 1.49 (tabla 1). Esta subestimación de la razón de riesgo surge de una “borrosidad” de la relación entre la exposición y la enfermedad, que ocurre cuando la clasificación errónea de la exposición, como en este caso, se distribuye uniformemente de acuerdo con la enfermedad o el estado de salud (es decir, la medición de la exposición es no influida por si la persona padecía o no la enfermedad que estamos estudiando).
Por el contrario, puede producirse una subestimación o una sobreestimación de la asociación de interés cuando la clasificación errónea de la exposición no se distribuye uniformemente en el resultado de interés. En el ejemplo, podemos tener parcialidad, y no sólo un desdibujamiento de la relación etiológica, si la clasificación de la exposición depende de la enfermedad o estado de salud de los trabajadores. Esto podría surgir, por ejemplo, si decidimos recolectar muestras biológicas de un grupo de trabajadores expuestos y de un grupo de trabajadores no expuestos, para identificar cambios tempranos relacionados con la exposición en el trabajo. Las muestras de los trabajadores expuestos podrían entonces analizarse de manera más precisa que las muestras de los no expuestos; la curiosidad científica podría llevar al investigador a medir biomarcadores adicionales entre las personas expuestas (incluidos, por ejemplo, aductos de ADN en linfocitos o marcadores urinarios de daño oxidativo al ADN), suponiendo que estas personas son científicamente "más interesantes". Esta es una actitud bastante común que, sin embargo, podría conducir a un serio sesgo.
Hay mucho debate sobre el papel de las estadísticas en la investigación epidemiológica sobre las relaciones causales. En epidemiología, la estadística es principalmente una colección de métodos para evaluar datos basados en poblaciones humanas (y también animales). En particular, la estadística es una técnica para la cuantificación y medición de fenómenos inciertos. Todas las investigaciones científicas que traten aspectos no deterministas y variables de la realidad podrían beneficiarse de la metodología estadística. En epidemiología, la variabilidad es intrínseca a la unidad de observación: una persona no es una entidad determinista. Si bien los diseños experimentales se mejorarían en términos de cumplir mejor con los supuestos de las estadísticas en términos de variación aleatoria, por razones éticas y prácticas, este enfoque no es demasiado común. En cambio, la epidemiología se dedica a la investigación observacional que se ha asociado con ella tanto al azar como a otras fuentes de variabilidad.
La teoría estadística se ocupa de cómo controlar la variabilidad no estructurada de los datos para hacer inferencias válidas a partir de observaciones empíricas. A falta de explicación para el comportamiento variable del fenómeno estudiado, la estadística lo asume como azar—es decir, desviaciones no sistemáticas de algún estado medio de la naturaleza (ver Greenland 1990 para una crítica de estos supuestos).
La ciencia se basa en lo empírico. evidencia sólida para demostrar si sus modelos teóricos de eventos naturales tienen alguna validez. De hecho, los métodos utilizados de la teoría estadística determinan el grado en que las observaciones en el mundo real se ajustan a la visión de los científicos, en forma de modelo matemático, de un fenómeno. Por lo tanto, los métodos estadísticos, basados en matemáticas, deben seleccionarse cuidadosamente; abundan los ejemplos de “cómo mentir con las estadísticas”. Por lo tanto, los epidemiólogos deben ser conscientes de la idoneidad de las técnicas que aplican para medir el riesgo de enfermedad. En particular, se necesita mucho cuidado al interpretar resultados estadísticamente significativos y estadísticamente no significativos.
El primer significado de la palabra. statistics se relaciona con cualquier cantidad resumida calculada sobre un conjunto de valores. Los índices descriptivos o estadísticos como la media aritmética, la mediana o la moda, son muy utilizados para resumir la información en una serie de observaciones. Históricamente, estos descriptores resumidos fueron utilizados con fines administrativos por los estados y, por lo tanto, se denominaron statistics. En epidemiología, las estadísticas que se ven comúnmente se derivan de las comparaciones inherentes a la naturaleza de la epidemiología, que hace preguntas como: "¿Una población tiene mayor riesgo de enfermedad que otra?" Al hacer tales comparaciones, el riesgo relativo es una medida popular de la fuerza de la asociación entre una característica individual y la probabilidad de enfermarse, y se aplica más comúnmente en la investigación etiológica; el riesgo atribuible también es una medida de asociación entre las características individuales y la ocurrencia de la enfermedad, pero enfatiza la ganancia en términos de número de casos evitados por una intervención que elimina el factor en cuestión; se aplica principalmente en salud pública y medicina preventiva.
El segundo significado de la palabra. statistics se relaciona con la colección de técnicas y la teoría subyacente de la inferencia estadística. Esta es una forma particular de lógica inductiva que especifica las reglas para obtener una generalización válida de un conjunto particular de observaciones empíricas. Esta generalización sería válida siempre que se cumplan algunos supuestos. Esta es la segunda forma en que un uso inculto de la estadística nos puede engañar: en la epidemiología observacional, es muy difícil estar seguro de los supuestos que implican las técnicas estadísticas. Por lo tanto, el análisis de sensibilidad y los estimadores robustos deben acompañar a cualquier análisis de datos realizado correctamente. Las conclusiones finales también deben basarse en el conocimiento general y no deben depender exclusivamente de los hallazgos de las pruebas de hipótesis estadísticas.
Definiciones
A unidad estadística es el elemento sobre el que se realizan las observaciones empíricas. Puede ser una persona, un espécimen biológico o una pieza de materia prima a analizar. Por lo general, el investigador elige de forma independiente las unidades estadísticas, pero a veces se pueden configurar diseños más complejos. Por ejemplo, en los estudios longitudinales se realiza una serie de determinaciones sobre un conjunto de personas a lo largo del tiempo; las unidades estadísticas en este estudio son el conjunto de determinaciones, las cuales no son independientes, sino que están estructuradas por sus respectivas conexiones con cada persona objeto de estudio. La falta de independencia o correlación entre las unidades estadísticas merece especial atención en el análisis estadístico.
A variable es una característica individual medida en una unidad estadística determinada. Debe contrastarse con un constante, una característica individual fija; por ejemplo, en un estudio sobre seres humanos, tener una cabeza o un tórax son constantes, mientras que el género de un solo miembro del estudio es una variable.
Las variables se evalúan utilizando diferentes escalas de medida. La primera distinción es entre escalas cualitativas y cuantitativas. Las variables cualitativas proporcionan diferentes modalidades or categoría. Si cada modalidad no se puede clasificar u ordenar en relación con otras, por ejemplo, color de cabello o modalidades de género, denotamos la variable como nominal. Si las categorías se pueden ordenar, como el grado de gravedad de una enfermedad, la variable se llama ordinal. Cuando una variable consta de un valor numérico, decimos que la escala es cuantitativa. A discreto La escala denota que la variable puede asumir solo algunos valores definidos, por ejemplo, valores enteros para el número de casos de enfermedad. A continuo La escala se utiliza para aquellas medidas que dan como resultado real números. Se dice que las escalas continuas son intervalo escalas cuando el valor nulo tiene un significado puramente convencional. Es decir, un valor de cero no significa cantidad cero; por ejemplo, una temperatura de cero grados centígrados no significa energía térmica cero. En este caso, solo las diferencias entre valores tienen sentido (esta es la razón del término escala de "intervalo"). Un valor nulo real denota un proporción escala. Para una variable medida en esa escala, las proporciones de valores también tienen sentido: de hecho, una proporción doble significa el doble de la cantidad. Por ejemplo, decir que un cuerpo tiene una temperatura dos veces mayor que un segundo cuerpo significa que tiene dos veces la energía térmica del segundo cuerpo, siempre que la temperatura se mide en una escala de proporción (p. ej., en grados Kelvin). El conjunto de valores permisibles para una variable dada se denomina dominio de la variable.
Paradigmas estadísticos
La estadística se ocupa de la forma de generalizar a partir de un conjunto de observaciones particulares. Este conjunto de medidas empíricas se denomina muestra. A partir de una muestra, calculamos algunas estadísticas descriptivas para resumir la información recopilada.
La información básica que generalmente se requiere para caracterizar un conjunto de medidas se relaciona con su tendencia central y su variabilidad. La elección entre varias alternativas depende de la escala utilizada para medir un fenómeno y de los propósitos para los que se calculan las estadísticas. En la tabla 1 se describen diferentes medidas de tendencia central y variabilidad (o dispersión) y se asocian con la escala de medida adecuada.
Tabla 1. Índices de tendencia central y dispersión por escala de medida
Escala de medida |
||||
Cualitativo |
Cuantitativo |
|||
Indices |
Definición |
Nominal |
Ordinal |
Intervalo/proporción |
Significado aritmetico |
Suma de los valores observados dividida por el número total de observaciones |
|
|
x |
Mediana |
Valor del punto medio de la distribución observada |
|
x |
x |
Moda |
Valor más frecuente |
x |
x |
x |
Gama de Colores |
Valores más bajos y más altos de la distribución |
|
x |
x |
Diferencia |
Suma de la diferencia al cuadrado de cada valor de la media dividida por el número total de observaciones menos 1 |
|
|
x |
Las estadísticas descriptivas calculadas se denominan estima cuando los usamos como sustituto de la cantidad análoga de la población de la que se ha seleccionado la muestra. Las contrapartes poblacionales de las estimaciones son constantes llamadas parámetros. Se pueden obtener estimaciones de un mismo parámetro utilizando diferentes métodos estadísticos. Una estimación debe ser válida y precisa.
El paradigma muestra-población implica que la validez puede asegurarse por la forma en que se selecciona la muestra de la población. El muestreo aleatorio o probabilístico es la estrategia habitual: si cada miembro de la población tiene la misma probabilidad de ser incluido en la muestra, entonces, en promedio, nuestra muestra debería ser representativa de la población y, además, cualquier desviación de nuestra expectativa podría ser explicado por casualidad. También se puede calcular la probabilidad de una desviación dada de nuestra expectativa, siempre que se haya realizado un muestreo aleatorio. El mismo tipo de razonamiento se aplica a las estimaciones calculadas para nuestra muestra con respecto a los parámetros de la población. Tomamos, por ejemplo, el promedio aritmético de nuestra muestra como una estimación del valor medio de la población. Cualquier diferencia, si existe, entre el promedio de la muestra y la media de la población se atribuye a fluctuaciones aleatorias en el proceso de selección de los miembros incluidos en la muestra. Podemos calcular la probabilidad de cualquier valor de esta diferencia, siempre que la muestra se haya seleccionado al azar. Si la desviación entre la estimación de la muestra y el parámetro de la población no puede explicarse por casualidad, se dice que la estimación es parcial. El diseño de la observación o experimento da validez a las estimaciones y el paradigma estadístico fundamental es el del muestreo aleatorio.
En medicina, se adopta un segundo paradigma cuando el objetivo del estudio es la comparación entre diferentes grupos. Un ejemplo típico es el ensayo clínico controlado: se selecciona un conjunto de pacientes con características similares en base a criterios predefinidos. No se hace ninguna preocupación por la representatividad en esta etapa. Cada paciente inscrito en el ensayo se asigna mediante un procedimiento aleatorio al grupo de tratamiento, que recibirá la terapia estándar más el nuevo fármaco que se evaluará, o al grupo de control, que recibirá la terapia estándar y un placebo. En este diseño, la asignación aleatoria de los pacientes a cada grupo reemplaza la selección aleatoria de los miembros de la muestra. La estimación de la diferencia entre los dos grupos se puede evaluar estadísticamente porque, bajo la hipótesis de que el nuevo fármaco no es eficaz, podemos calcular la probabilidad de cualquier diferencia distinta de cero.
En epidemiología, carecemos de la posibilidad de reunir aleatoriamente grupos de personas expuestas y no expuestas. En este caso, todavía podemos usar métodos estadísticos, como si los grupos analizados hubieran sido seleccionados o asignados al azar. La corrección de esta suposición se basa principalmente en el diseño del estudio. Este punto es particularmente importante y subraya la importancia del diseño de estudios epidemiológicos sobre las técnicas estadísticas en la investigación biomédica.
Señal y Ruido
El término variable aleatoria se refiere a una variable para la cual se asocia una probabilidad definida a cada valor que puede asumir. Los modelos teóricos para la distribución de la probabilidad de una variable aleatoria son modelos poblacionales. Las contrapartes de la muestra están representadas por la distribución de frecuencia de la muestra. Esta es una forma útil de informar un conjunto de datos; consiste en un plano cartesiano con la variable de interés en el eje horizontal y la frecuencia o frecuencia relativa en el eje vertical. Una pantalla gráfica nos permite ver fácilmente cuáles son los valores más frecuentes y cómo la distribución se concentra alrededor de ciertos valores centrales como el promedio aritmético.
Para las variables aleatorias y sus distribuciones de probabilidad, usamos los términos parámetros, valor medio esperado (en lugar de la media aritmética) y diferencia. Estos modelos teóricos describen la variabilidad en un fenómeno dado. En la teoría de la información, la señal se representa por la tendencia central (por ejemplo, el valor medio), mientras que el ruido se mide por un índice de dispersión (como la varianza).
Para ilustrar la inferencia estadística, usaremos el modelo binomial. En las secciones que siguen, se introducirán los conceptos de estimaciones puntuales e intervalos de confianza, pruebas de hipótesis y probabilidad de decisiones erróneas, y potencia de un estudio.
Tabla 2. Posibles resultados de un experimento binomial (sí = 1, no = 0) y sus probabilidades (n = 3)
Trabajador |
Probabilidad |
||
A |
B |
C |
|
0 |
0 |
0 |
|
1 |
0 |
0 |
|
0 |
1 |
0 |
|
0 |
0 |
1 |
|
0 |
1 |
1 |
|
1 |
0 |
1 |
|
1 |
1 |
0 |
|
1 |
1 |
1 |
Un ejemplo: la distribución binomial
En investigación biomédica y epidemiología, el modelo más importante de variación estocástica es la distribución binomial. Se basa en el hecho de que la mayoría de los fenómenos se comportan como una variable nominal con solo dos categorías: por ejemplo, la presencia/ausencia de enfermedad: vivo/muerto o recuperado/enfermo. En tales circunstancias, nos interesa la probabilidad de éxito —es decir, en caso de interés (p. ej., presencia de enfermedad, vivo o recuperación)— y los factores o variables que pueden alterarla. Dejenos considerar n = 3 trabajadores, y supongamos que nos interesa la probabilidad, p, de tener una discapacidad visual (sí/no). El resultado de nuestra observación podría ser los posibles resultados de la tabla 2.
Tabla 3. Posibles resultados de un experimento binomial (sí = 1, no = 0) y sus probabilidades (n = 3)
Número de éxitos |
Probabilidad |
0 |
|
1 |
|
2 |
|
3 |
La probabilidad de cualquiera de estas combinaciones de eventos se obtiene fácilmente considerando p, la probabilidad (individual) de éxito, constante para cada sujeto e independiente de otros resultados. Como estamos interesados en el número total de éxitos y no en una secuencia ordenada específica, podemos reorganizar la tabla de la siguiente manera (ver tabla 3) y, en general, expresar la probabilidad de x éxitos P (x) como:
donde x es el número de éxitos y la notación x! denota el factorial de x, Es decir, x! = x× (x–1)×(x–2)…×1.
Cuando consideramos el evento “estar/no estar enfermo”, la probabilidad individual, se refiere al estado en que se presume el sujeto; en epidemiología, esta probabilidad se denomina “prevalencia”. Para estimar p, usamos la proporción muestral:
p = x/n
con varianza:
En una serie infinita hipotética de muestras replicadas del mismo tamaño n, obtendríamos diferentes proporciones muestrales p = x/n, con probabilidades dadas por la fórmula binomial. El valor “verdadero” de se estima por cada proporción de muestra, y un intervalo de confianza para p, es decir, el conjunto de valores probables para p, dados los datos observados y un nivel de confianza predefinido (por ejemplo, 95%), se estima a partir de la distribución binomial como el conjunto de valores para p que da una probabilidad de x mayor que un valor preespecificado (digamos 2.5%). Para un experimento hipotético en el que observamos x = 15 éxitos en n = 30 intentos, la probabilidad estimada de éxito es:
Tabla 4. Distribución binomial. Probabilidades para diferentes valores de para x = 15 éxitos en n = 30 intentos
Probabilidad |
|
0.200 |
0.0002 |
0.300 |
0.0116 |
0.334 |
0.025 |
0.400 |
0.078 |
0.500 |
0.144 |
0.600 |
0.078 |
0.666 |
0.025 |
0.700 |
0.0116 |
El intervalo de confianza del 95 % para p, obtenido de la tabla 4, es 0.334 – 0.666. Cada entrada de la tabla muestra la probabilidad de x = 15 éxitos en n = 30 intentos calculados con la fórmula binomial; por ejemplo, para = 0.30, obtenemos de:
Para n grande y p cerca de 0.5 podemos usar una aproximación basada en la distribución Gaussiana:
donde za /2 denota el valor de la distribución gaussiana estándar para una probabilidad
P (|z| ³ za /2) = a/2;
1 – siendo a el nivel de confianza elegido. Para el ejemplo considerado, = 15/30 = 0.5; n = 30 y de la tabla gaussiana estándar z0.025 = 1.96. El intervalo de confianza del 95% da como resultado el conjunto de valores 0.321 – 0.679, obtenido al sustituir p = 0.5, n = 30, y z0.025 = 1.96 en la ecuación anterior para la distribución gaussiana. Tenga en cuenta que estos valores están cerca de los valores exactos calculados antes.
Las pruebas estadísticas de hipótesis comprenden un procedimiento de decisión sobre el valor de un parámetro poblacional. Supongamos, en el ejemplo anterior, que queremos abordar la proposición de que existe un riesgo elevado de discapacidad visual entre los trabajadores de una planta determinada. La hipótesis científica a ser probada por nuestras observaciones empíricas entonces es "existe un riesgo elevado de discapacidad visual entre los trabajadores de una planta dada". Los estadísticos demuestran tales hipótesis falseando la hipótesis complementaria “no hay elevación del riesgo de discapacidad visual”. Esto sigue la demostración matemática por absurdo y, en lugar de verificar una afirmación, la evidencia empírica se usa solo para falsificarla. La hipótesis estadística se llama hipótesis nula. El segundo paso consiste en especificar un valor para el parámetro de esa distribución de probabilidad utilizada para modelar la variabilidad en las observaciones. En nuestros ejemplos, dado que el fenómeno es binario (es decir, presencia/ausencia de discapacidad visual), elegimos la distribución binomial con parámetro p, la probabilidad de discapacidad visual. La hipótesis nula afirma que = 0.25, digamos. Este valor se elige a partir de la recopilación de conocimientos sobre el tema y el conocimiento a priori de la prevalencia habitual de discapacidad visual en poblaciones no expuestas (es decir, no trabajadoras). Supongamos que nuestros datos produjeron una estimación = 0.50, de los 30 trabajadores examinados.
¿Podemos rechazar la hipótesis nula?
Si es así, a favor de qué alternativa ¿hipótesis?
Especificamos una hipótesis alternativa como candidata en caso de que la evidencia dicte que se rechace la hipótesis nula. Las hipótesis alternativas no direccionales (bilaterales) establecen que el parámetro de la población es diferente del valor establecido en la hipótesis nula; Las hipótesis alternativas direccionales (unilaterales) establecen que el parámetro de población es mayor (o menor) que el valor nulo.
Tabla 5. Distribución binomial. Probabilidades de éxito para = 0.25 en n = 30 ensayos
X |
Probabilidad |
Probabilidad acumulada |
0 |
0.0002 |
0.0002 |
1 |
0.0018 |
0.0020 |
2 |
0.0086 |
0.0106 |
3 |
0.0269 |
0.0374 |
4 |
0.0604 |
0.0979 |
5 |
0.1047 |
0.2026 |
6 |
0.1455 |
0.3481 |
7 |
0.1662 |
0.5143 |
8 |
0.1593 |
0.6736 |
9 |
0.1298 |
0.8034 |
10 |
0.0909 |
0.8943 |
11 |
0.0551 |
0.9493 |
12 |
0.0291 |
0.9784 |
13 |
0.0134 |
0.9918 |
14 |
0.0054 |
0.9973 |
15 |
0.0019 |
0.9992 |
16 |
0.0006 |
0.9998 |
17 |
0.0002 |
1.0000 |
. |
. |
. |
30 |
0.0000 |
1.0000 |
Bajo la hipótesis nula, podemos calcular la distribución de probabilidad de los resultados de nuestro ejemplo. La Tabla 5 muestra, para = 0.25 y n = 30, las probabilidades (ver ecuación (1)) y las probabilidades acumuladas:
De esta tabla, obtenemos la probabilidad de tener x ³15 trabajadores con discapacidad visual
P(x ³15). = 1 - P(X15). = 1 - 0.9992 = 0.0008
Esto significa que es muy improbable que observemos 15 o más trabajadores con discapacidad visual si experimentaran la prevalencia de la enfermedad de las poblaciones no expuestas. Por tanto, podríamos rechazar la hipótesis nula y afirmar que existe una mayor prevalencia de discapacidad visual en la población de trabajadores estudiada.
Cuándo n×p³ 5 y n×(1-) ³ 5, podemos usar la aproximación Gaussiana:
De la tabla de la distribución gaussiana estándar obtenemos:
P(|z|>2.95). = 0.0008
muy de acuerdo con los resultados exactos. A partir de esta aproximación podemos ver que la estructura básica de una prueba estadística de hipótesis consiste en la relación entre señal y ruido. En nuestro caso, la señal es (p–), la desviación observada de la hipótesis nula, mientras que el ruido es la desviación estándar de P:
Cuanto mayor sea la relación, menor será la probabilidad del valor nulo.
Al tomar decisiones sobre hipótesis estadísticas, podemos incurrir en dos tipos de errores: un error tipo I, rechazo de la hipótesis nula cuando es verdadera; o un error tipo II, aceptación de la hipótesis nula cuando es falsa. El nivel de probabilidad, o valor p, es la probabilidad de un error tipo I, denotada por la letra griega a. Esto se calcula a partir de la distribución de probabilidad de las observaciones bajo la hipótesis nula. Es costumbre predefinir un nivel de error a (por ejemplo, 5%, 1%) y rechazar la hipótesis nula cuando el resultado de nuestra observación tiene una probabilidad igual o menor que este llamado nivel crítico.
La probabilidad de un error de tipo II se denota con la letra griega β. Para calcularlo, necesitamos especificar, en la hipótesis alternativa, valor α para el parámetro a probar (en nuestro ejemplo, valor α para ). Las hipótesis alternativas genéricas (diferente de, mayor que, menor que) no son útiles. En la práctica, interesa el valor β para un conjunto de hipótesis alternativas, o su complemento, que se denomina poder estadístico de la prueba. Por ejemplo, fijando el valor de error α en 5%, de la tabla 5, encontramos:
P(x ³12) <0.05
bajo la hipótesis nula = 0.25. Si observáramos al menos x = 12 aciertos, rechazaríamos la hipótesis nula. Los valores de β correspondientes y la potencia para x = 12 están dados por la tabla 6.
Tabla 6. Error tipo II y potencia para x = 12, n = 30, α = 0.05
β |
Motor |
|
0.30 |
0.9155 |
0.0845 |
0.35 |
0.7802 |
0.2198 |
0.40 |
0.5785 |
0.4215 |
0.45 |
0.3592 |
0.6408 |
0.50 |
0.1808 |
0.8192 |
0.55 |
0.0714 |
0.9286 |
En este caso, nuestros datos no pueden discriminar si es mayor que el valor nulo de 0.25 pero menor que 0.50, porque el poder del estudio es demasiado bajo (<80%) para esos valores de <0.50, es decir, la sensibilidad de nuestro estudio es del 8 % para = 0.3, 22% para = 0.35,…, 64% para = 0.45.
La única forma de lograr un β más bajo, o un nivel de potencia más alto, sería aumentar el tamaño del estudio. Por ejemplo, en la tabla 7 reportamos β y potencia para n = 40; como era de esperar, deberíamos ser capaces de detectar un valor superior a 0.40.
Tabla 7. Error tipo II y potencia para x = 12, n = 40, α = 0.05
β |
Motor |
|
0.30 |
0.5772 |
0.4228 |
0.35 |
0.3143 |
0.6857 |
0.40 |
0.1285 |
0.8715 |
0.45 |
0.0386 |
0.8614 |
0.50 |
0.0083 |
0.9917 |
0.55 |
0.0012 |
0.9988 |
El diseño del estudio se basa en un escrutinio cuidadoso del conjunto de hipótesis alternativas que merecen consideración y garantizan poder al estudio proporcionando un tamaño de muestra adecuado.
En la literatura epidemiológica, se ha enfatizado la relevancia de proporcionar estimaciones de riesgo confiables. Por lo tanto, es más importante reportar intervalos de confianza (95% o 90%) que un p-valor de una prueba de una hipótesis. Siguiendo el mismo tipo de razonamiento, se debe prestar atención a la interpretación de los resultados de estudios de pequeño tamaño: debido a la baja potencia, incluso los efectos intermedios podrían pasar desapercibidos y, por otro lado, los efectos de gran magnitud podrían no replicarse posteriormente.
Métodos avanzados
El grado de complejidad de los métodos estadísticos utilizados en el contexto de la medicina del trabajo ha ido creciendo en los últimos años. Los principales desarrollos se pueden encontrar en el área de modelado estadístico. La familia de modelos no gaussianos (modelos lineales generalizados) de Nelder y Wedderburn ha sido una de las contribuciones más llamativas al aumento del conocimiento en áreas como la epidemiología ocupacional, donde las variables de respuesta relevantes son binarias (p. ej., supervivencia/muerte) o (por ejemplo, número de accidentes industriales).
Este fue el punto de partida para una amplia aplicación de los modelos de regresión como alternativa a los tipos de análisis más tradicionales basados en tablas de contingencia (análisis simple y estratificado). Poisson, Cox y la regresión logística ahora se utilizan de forma rutinaria para el análisis de estudios longitudinales y de casos y controles, respectivamente. Estos modelos son la contrapartida de la regresión lineal para las variables de respuesta categóricas y tienen la característica elegante de proporcionar directamente la medida de asociación epidemiológica relevante. Por ejemplo, los coeficientes de la regresión de Poisson son el logaritmo de las razones de tasas, mientras que los de la regresión logística son el logaritmo de las razones de probabilidades.
Tomando esto como punto de referencia, los desarrollos posteriores en el área del modelado estadístico han tomado dos direcciones principales: modelos para medidas categóricas repetidas y modelos que amplían los Modelos lineales generalizados (Modelos aditivos generalizados). En ambos casos, los objetivos se centran en aumentar la flexibilidad de las herramientas estadísticas para hacer frente a problemas más complejos derivados de la realidad. Se necesitan modelos de medidas repetidas en muchos estudios ocupacionales donde las unidades de análisis están en el nivel subindividual. Por ejemplo:
Se ha visto un desarrollo paralelo y probablemente más rápido en el contexto de las estadísticas bayesianas. La barrera práctica de usar métodos bayesianos se derrumbó después de la introducción de métodos intensivos en computación. Los procedimientos de Monte Carlo, como los esquemas de muestreo de Gibbs, nos han permitido evitar la necesidad de integración numérica para calcular las distribuciones posteriores que representaban la característica más desafiante de los métodos bayesianos. El número de aplicaciones de los modelos bayesianos en problemas reales y complejos ha encontrado un espacio cada vez mayor en las revistas aplicadas. Por ejemplo, los análisis geográficos y las correlaciones ecológicas a nivel de áreas pequeñas y los modelos de predicción del SIDA se abordan cada vez más utilizando enfoques bayesianos. Estos desarrollos son bienvenidos porque representan no solo un aumento en el número de soluciones estadísticas alternativas que podrían emplearse en el análisis de datos epidemiológicos, sino también porque el enfoque bayesiano puede considerarse una estrategia más sólida.
Los artículos anteriores de este capítulo han mostrado la necesidad de una evaluación cuidadosa del diseño del estudio para sacar inferencias creíbles de las observaciones epidemiológicas. Aunque se ha afirmado que las inferencias en la epidemiología observacional son débiles debido a la naturaleza no experimental de la disciplina, no existe una superioridad incorporada de los ensayos controlados aleatorios u otros tipos de diseño experimental sobre la observación bien planificada (Cornfield 1954). Sin embargo, sacar inferencias sólidas implica un análisis exhaustivo del diseño del estudio para identificar posibles fuentes de sesgo y confusión. Tanto los resultados falsos positivos como los falsos negativos pueden originarse a partir de diferentes tipos de sesgo.
En este artículo se discuten algunas de las pautas que se han propuesto para evaluar la naturaleza causal de las observaciones epidemiológicas. Además, aunque la buena ciencia es una premisa para la investigación epidemiológica éticamente correcta, existen cuestiones adicionales que son relevantes para las preocupaciones éticas. Por lo tanto, hemos dedicado alguna discusión al análisis de los problemas éticos que pueden surgir al realizar estudios epidemiológicos.
Evaluación de causalidad
Varios autores han discutido la evaluación de causalidad en epidemiología (Hill 1965; Buck 1975; Ahlbom 1984; Maclure 1985; Miettinen 1985; Rothman 1986; Weed 1986; Schlesselman 1987; Maclure 1988; Weed 1988; Karhausen 1995). Uno de los principales puntos de discusión es si la epidemiología utiliza o debería utilizar los mismos criterios para la determinación de las relaciones causa-efecto que se utilizan en otras ciencias.
Las causas no deben confundirse con los mecanismos. Por ejemplo, el asbesto es una causa de mesotelioma, mientras que la mutación del oncogén es un mecanismo putativo. Sobre la base de la evidencia existente, es probable que (a) diferentes exposiciones externas puedan actuar en las mismas etapas mecánicas y (b) por lo general no hay una secuencia fija y necesaria de pasos mecánicos en el desarrollo de la enfermedad. Por ejemplo, la carcinogénesis se interpreta como una secuencia de transiciones estocásticas (probabilidades), desde la mutación genética a la proliferación celular y luego a la mutación genética nuevamente, que finalmente conduce al cáncer. Además, la carcinogénesis es un proceso multifactorial, es decir, diferentes exposiciones externas son capaces de afectarlo y ninguna de ellas es necesaria en una persona susceptible. Es probable que este modelo se aplique a varias enfermedades además del cáncer.
Tal naturaleza multifactorial y probabilística de la mayoría de las relaciones exposición-enfermedad implica que es problemático desentrañar el papel desempeñado por una exposición específica. Además, la naturaleza observacional de la epidemiología nos impide realizar experimentos que puedan esclarecer relaciones etiológicas mediante una alteración deliberada del curso de los acontecimientos. La observación de una asociación estadística entre exposición y enfermedad no significa que la asociación sea causal. Por ejemplo, la mayoría de los epidemiólogos han interpretado la asociación entre la exposición al escape de diesel y el cáncer de vejiga como causal, pero otros han afirmado que los trabajadores expuestos al escape de diesel (en su mayoría conductores de camiones y taxis) son fumadores de cigarrillos con más frecuencia que las personas no expuestas. . La asociación observada, según esta afirmación, sería “confundida” por un factor de riesgo bien conocido como el tabaquismo.
Dada la naturaleza probabilística multifactorial de la mayoría de las asociaciones exposición-enfermedad, los epidemiólogos han desarrollado pautas para reconocer las relaciones que probablemente sean causales. Estas son las pautas propuestas originalmente por Sir Bradford Hill para las enfermedades crónicas (1965):
Estos criterios deben considerarse solo como pautas generales o herramientas prácticas; de hecho, la evaluación causal científica es un proceso iterativo centrado en la medición de la relación exposición-enfermedad. Sin embargo, los criterios de Hill a menudo se utilizan como una descripción concisa y práctica de los procedimientos de inferencia causal en epidemiología.
Consideremos el ejemplo de la relación entre la exposición al cloruro de vinilo y el angiosarcoma hepático, aplicando los criterios de Hill.
La expresión habitual de los resultados de un estudio epidemiológico es una medida del grado de asociación entre exposición y enfermedad (primer criterio de Hill). Un riesgo relativo (RR) mayor que la unidad significa que existe una asociación estadística entre la exposición y la enfermedad. Por ejemplo, si la tasa de incidencia del angiosarcoma hepático suele ser de 1 en 10 millones, pero es de 1 en 100,000 100 entre las personas expuestas al cloruro de vinilo, entonces el RR es 100 (es decir, las personas que trabajan con cloruro de vinilo tienen un aumento de XNUMX veces riesgo de desarrollar angiosarcoma en comparación con las personas que no trabajan con cloruro de vinilo).
Es más probable que una asociación sea causal cuando el riesgo aumenta con niveles crecientes de exposición (efecto dosis-respuesta, segundo criterio de Hill) y cuando la relación temporal entre exposición y enfermedad tiene sentido desde el punto de vista biológico (la exposición precede al efecto y el la duración de este período de “inducción” es compatible con un modelo biológico de enfermedad (tercer criterio de Hill). Además, es más probable que una asociación sea causal cuando otros que han podido replicar los hallazgos en diferentes circunstancias obtienen resultados similares (“coherencia”, el cuarto criterio de Hill).
Un análisis científico de los resultados requiere una evaluación de la plausibilidad biológica (quinto criterio de Hill). Esto se puede lograr de diferentes maneras. Por ejemplo, un criterio sencillo es evaluar si la supuesta “causa” es capaz de llegar al órgano diana (p. ej., las sustancias inhaladas que no llegan al pulmón no pueden circular por el organismo). Además, la evidencia de apoyo de los estudios en animales es útil: la observación de angiosarcomas hepáticos en animales tratados con cloruro de vinilo refuerza fuertemente la asociación observada en el hombre.
La coherencia interna de las observaciones (por ejemplo, el RR aumenta de manera similar en ambos sexos) es un criterio científico importante (sexto criterio de Hill). La causalidad es más probable cuando la relación es muy específica, es decir, involucra causas raras y/o enfermedades raras, o un tipo histológico específico/subgrupo de pacientes (séptimo criterio de Hill).
La “inducción enumerativa” (la simple enumeración de instancias de asociación entre exposición y enfermedad) es insuficiente para describir completamente los pasos inductivos en el razonamiento causal. Usualmente, el resultado de la inducción enumerativa produce una observación compleja y todavía confusa porque se enredan diferentes cadenas causales o, más frecuentemente, una relación causal genuina y otras exposiciones irrelevantes. Las explicaciones alternativas tienen que ser eliminadas a través de la “inducción eliminativa”, mostrando que es probable que una asociación sea causal porque no se “confunde” con otras. Una definición simple de explicación alternativa es “un factor extraño cuyo efecto se mezcla con el efecto de la exposición de interés, distorsionando así la estimación del riesgo para la exposición de interés” (Rothman 1986).
El rol de la inducción es expandir el conocimiento, mientras que el rol de la deducción es “transmitir la verdad” (Giere 1979). El razonamiento deductivo examina el diseño del estudio e identifica asociaciones que no son empíricamente verdaderas, sino lógicamente verdaderas. Tales asociaciones no son una cuestión de hecho, sino necesidades lógicas. por ejemplo, un Sesgo de selección ocurre cuando el grupo expuesto se selecciona entre personas enfermas (como cuando comenzamos un estudio de cohorte reclutando como “expuestos” al cloruro de vinilo un grupo de casos de angiosarcoma hepático) o cuando el grupo no expuesto se selecciona entre personas sanas. En ambos casos, la asociación que se encuentra entre la exposición y la enfermedad es necesaria (lógicamente) pero no empíricamente cierta (Vineis 1991).
Para concluir, aun considerando su naturaleza observacional (no experimental), la epidemiología no utiliza procedimientos inferenciales que difieran sustancialmente de la tradición de otras disciplinas científicas (Hume 1978; Schaffner 1993).
Cuestiones éticas en la investigación epidemiológica
Debido a las sutilezas involucradas en la inferencia de causalidad, los epidemiólogos deben tener especial cuidado al interpretar sus estudios. De hecho, varias preocupaciones de naturaleza ética se derivan de esto.
Las cuestiones éticas en la investigación epidemiológica se han convertido en tema de intenso debate (Schulte 1989; Soskolne 1993; Beauchamp et al. 1991). La razón es evidente: los epidemiólogos, en particular los epidemiólogos ocupacionales y ambientales, a menudo estudian temas que tienen implicaciones importantes en las políticas económicas, sociales y de salud. Tanto los resultados negativos como los positivos relacionados con la asociación entre exposiciones químicas específicas y enfermedades pueden afectar la vida de miles de personas, influir en las decisiones económicas y, por lo tanto, condicionar seriamente las opciones políticas. Por lo tanto, el epidemiólogo puede estar bajo presión y ser tentado o incluso alentado por otros a alterar —marginal o sustancialmente— la interpretación de los resultados de sus investigaciones.
Entre los varios temas relevantes, transparencia de recopilación, codificación, informatización y análisis de datos es fundamental como defensa contra las acusaciones de parcialidad por parte del investigador. También es crucial, y potencialmente en conflicto con dicha transparencia, el derecho de los sujetos inscritos en investigaciones epidemiológicas a ser protegidos de la divulgación de información personal.
(confidencialidad cuestiones).
Desde el punto de vista de la mala conducta que puede surgir especialmente en el contexto de la inferencia causal, las preguntas que deben abordarse en las pautas éticas son:
Otros temas cruciales, en el caso de la epidemiología ocupacional y ambiental, se relacionan con la participación de los trabajadores en las fases preliminares de los estudios y con la divulgación de los resultados de un estudio a los sujetos que se han inscrito y están directamente afectados (Schulte 1989). ). Desafortunadamente, no es una práctica común que los trabajadores inscritos en estudios epidemiológicos participen en discusiones colaborativas sobre los propósitos del estudio, su interpretación y los posibles usos de los hallazgos (que pueden ser tanto ventajosos como perjudiciales para el trabajador).
Directrices recientes han proporcionado respuestas parciales a estas preguntas (Beauchamp et al. 1991; CIOMS 1991). Sin embargo, en cada país, las asociaciones profesionales de epidemiólogos ocupacionales deben participar en una discusión exhaustiva sobre cuestiones éticas y, posiblemente, adoptar un conjunto de pautas éticas apropiadas para el contexto local al tiempo que reconocen los estándares de práctica normativos internacionalmente aceptados.
La documentación de enfermedades ocupacionales en un país como Taiwán es un desafío para un médico ocupacional. Debido a la falta de un sistema que incluya hojas de datos de seguridad de materiales (MSDS), los trabajadores generalmente no conocían los productos químicos con los que trabajan. Dado que muchas enfermedades profesionales tienen latencias prolongadas y no muestran síntomas ni signos específicos hasta que son clínicamente evidentes, el reconocimiento y la identificación del origen profesional suelen ser muy difíciles.
Para controlar mejor las enfermedades profesionales, hemos accedido a bases de datos que proporcionan una lista relativamente completa de productos químicos industriales y un conjunto de signos y/o síntomas específicos. Combinado con el enfoque epidemiológico de conjeturas y refutaciones (es decir, considerando y descartando todas las posibles explicaciones alternativas), hemos documentado más de diez tipos de enfermedades profesionales y un brote de botulismo. Recomendamos que se aplique un enfoque similar a cualquier otro país en una situación similar, y que se abogue e implemente un sistema que involucre una hoja de identificación (por ejemplo, MSDS) para cada químico como un medio para permitir el reconocimiento rápido y, por lo tanto, la prevención de accidentes ocupacionales. enfermedades.
Hepatitis en una imprenta a color
Tres trabajadores de una imprenta a color fueron ingresados en hospitales comunitarios en 1985 con manifestaciones de hepatitis aguda. Uno de los tres presentaba insuficiencia renal aguda sobreañadida. Dado que la hepatitis viral tiene una alta prevalencia en Taiwán, debemos considerar un origen viral entre las etiologías más probables. También debe incluirse el consumo de alcohol y drogas, así como el de disolventes orgánicos en el lugar de trabajo. Debido a que no había un sistema de MSDS en Taiwán, ni los empleados ni el empleador conocían todos los productos químicos utilizados en la fábrica (Wang 1991).
Tuvimos que compilar una lista de agentes hepatotóxicos y nefrotóxicos de varias bases de datos toxicológicas. Luego, deducimos todas las inferencias posibles de las hipótesis anteriores. Por ejemplo, si la etiología fuera el virus de la hepatitis A (VHA), deberíamos observar anticuerpos (VHA-IgM) entre los trabajadores afectados; si el virus de la hepatitis B fuera la etiología, deberíamos observar más portadores de antígenos de superficie de hepatitis B (HBsAg) entre los trabajadores afectados en comparación con los trabajadores no afectados; si el alcohol fuera la etiología principal, deberíamos observar más alcohólicos o alcohólicos crónicos entre los trabajadores afectados; si algún disolvente tóxico (p. ej., cloroformo) fuera la etiología, deberíamos encontrarlo en el lugar de trabajo.
Realizamos una evaluación médica integral a cada trabajador. La etiología viral fue fácilmente refutada, así como la hipótesis del alcohol, porque no pudieron ser apoyadas por la evidencia.
En cambio, 17 de 25 trabajadores de la planta tenían pruebas de función hepática anormales, y se encontró una asociación significativa entre la presencia de función hepática anormal y antecedentes de haber trabajado recientemente dentro de cualquiera de las tres habitaciones en las que se había conectado un sistema de aire acondicionado. instalado para enfriar las máquinas de impresión. La asociación se mantuvo después de la estratificación por el estado de portador de la hepatitis B. Más tarde se determinó que el incidente ocurrió luego del uso involuntario de un "agente de limpieza" (que era tetracloruro de carbono) para limpiar una bomba en la máquina de impresión. Además, una prueba de simulación de la operación de limpieza de la bomba reveló niveles de tetracloruro de carbono en el aire ambiente de 115 a 495 ppm, lo que podría producir daño hepático. En otro intento de refutación, al eliminar el tetracloruro de carbono en el lugar de trabajo, encontramos que no ocurrieron más casos nuevos y que todos los trabajadores afectados mejoraron después de retirarse del lugar de trabajo durante 20 días. Por lo tanto, llegamos a la conclusión de que el brote se debió al uso de tetracloruro de carbono.
Síntomas neurológicos en una fábrica de impresión en color
En septiembre de 1986, un aprendiz en una fábrica de impresión en color en Chang-Hwa desarrolló repentinamente debilidad bilateral aguda y parálisis respiratoria. El padre de la víctima alegó por teléfono que había varios otros trabajadores con síntomas similares. Debido a que alguna vez se documentó que las imprentas a color tenían enfermedades ocupacionales resultantes de la exposición a solventes orgánicos, fuimos al lugar de trabajo para determinar la etiología con la hipótesis de una posible intoxicación por solventes en mente (Wang 1991).
Sin embargo, nuestra práctica común era considerar todas las conjeturas alternativas, incluidos otros problemas médicos, como el deterioro de la función de las neuronas motoras superiores, las neuronas motoras inferiores y la unión neuromuscular. Nuevamente, deducimos declaraciones de resultados de las hipótesis anteriores. Por ejemplo, si la causa fuera cualquier solvente que produzca polineuropatía (p. ej., n-hexano, metilbutilcetona, acrilamida), también afectaría la velocidad de conducción nerviosa (NCV); si se tratara de otros problemas médicos relacionados con las neuronas motoras superiores, habría signos de alteración de la conciencia y/o movimiento involuntario.
Las observaciones de campo revelaron que todos los trabajadores afectados tenían una conciencia clara durante todo el curso clínico. Un estudio de NCV de tres trabajadores afectados mostró neuronas motoras inferiores intactas. No presentaba movimientos involuntarios, ni antecedentes de medicación ni mordeduras previas a la aparición de los síntomas, y el test de neostigmina era negativo. Se encontró una asociación significativa entre la enfermedad y desayunar en la cafetería de la fábrica el 26 o 27 de septiembre; siete de los siete trabajadores afectados versus siete de los 32 trabajadores no afectados desayunaron en la fábrica en estos dos días. Un esfuerzo de prueba adicional mostró que se detectó toxina botulínica tipo A en maní enlatado fabricado por una empresa sin licencia, y su espécimen también mostró un crecimiento completo de Clostridium botulinum. Un último juicio de refutación fue la retirada de dichos productos del mercado comercial, que no dio lugar a nuevos casos. Esta investigación documentó los primeros casos de botulismo de un producto alimenticio comercial en Taiwán.
Lesiones cutáneas premalignas entre los fabricantes de paraquat
En junio de 1983, dos trabajadores de una fábrica de paraquat visitaron una clínica de dermatología quejándose de numerosas máculas hiperpigmentadas bilaterales con cambios hiperqueratósicos en partes de las manos, el cuello y la cara expuestas al sol. Algunas muestras de piel también mostraron cambios Bowenoides. Dado que se informaron lesiones cutáneas malignas y premalignas entre los trabajadores de la fabricación de bipiridilo, se sospechó fuertemente una causa ocupacional. Sin embargo, también había que considerar otras causas alternativas (o hipótesis) de cáncer de piel como la exposición a radiaciones ionizantes, alquitrán de hulla, brea, hollín o cualquier otro hidrocarburo poliaromático (HAP). Para descartar todas estas conjeturas, llevamos a cabo un estudio en 1985, visitamos las 28 fábricas que alguna vez se dedicaron a la fabricación o envasado de paraquat y examinamos los procesos de fabricación, así como a los trabajadores (Wang et al. 1987; Wang 1993).
Examinamos a 228 trabajadores y ninguno de ellos había estado expuesto a los carcinógenos de la piel antes mencionados, excepto la luz solar y la 4'-4'-bipiridina y sus isómeros. Después de excluir a los trabajadores con exposiciones múltiples, encontramos que uno de cada siete administradores y dos de los 82 trabajadores de empaque de paraquat desarrollaron lesiones cutáneas hiperpigmentadas, en comparación con tres de cada tres trabajadores involucrados solo en la cristalización y centrifugación de bipiridina. Además, los 17 trabajadores con hiperqueratosis o lesiones de Bowen tenían antecedentes de exposición directa al bipiridilo y sus isómeros. Cuanto más prolongada sea la exposición a los bipiridilos, más probable será el desarrollo de lesiones en la piel, y esta tendencia no puede explicarse por la luz solar o la edad, como lo demuestra la estratificación y el análisis de regresión logística. Por lo tanto, la lesión de la piel se atribuyó tentativamente a una combinación de exposiciones al bipiridilo y la luz solar. Hicimos más intentos de refutación para hacer un seguimiento si ocurría algún caso nuevo después de adjuntar todos los procesos relacionados con la exposición a bipiridilos. No se encontró ningún caso nuevo.
Discusiones y conclusiones
Los tres ejemplos anteriores han ilustrado la importancia de adoptar un enfoque de refutación y una base de datos de enfermedades profesionales. La primera nos hace considerar siempre hipótesis alternativas de la misma manera que la hipótesis intuicional inicial, mientras que la segunda proporciona una lista detallada de agentes químicos que nos pueden guiar hacia la verdadera etiología. Una posible limitación de este enfoque es que sólo podemos considerar aquellas explicaciones alternativas que podamos imaginar. Si nuestra lista de alternativas está incompleta, es posible que nos quedemos sin respuesta o con una respuesta incorrecta. Por lo tanto, una base de datos integral de enfermedades profesionales es crucial para el éxito de esta estrategia.
Solíamos construir nuestra propia base de datos de una manera laboriosa. Sin embargo, las bases de datos OSH-ROM publicadas recientemente, que contienen la base de datos NIOSHTIC de más de 160,000 XNUMX resúmenes, pueden ser una de las más completas para tal fin, como se analiza en otra parte del documento. Enciclopedia. Además, si ocurre una nueva enfermedad profesional, podríamos buscar en dicha base de datos y descartar todos los agentes etiológicos conocidos, y no dejar ninguno sin refutar. En tal situación, podemos tratar de identificar o definir el nuevo agente (o entorno ocupacional) de la manera más específica posible para que el problema pueda mitigarse primero y luego probar otras hipótesis. El caso de las lesiones cutáneas premalignas entre los fabricantes de paraquat es un buen ejemplo de este tipo.
Papel de los cuestionarios en la investigación epidemiológica
La investigación epidemiológica generalmente se lleva a cabo para responder a una pregunta de investigación específica que relaciona la exposición de las personas a sustancias o situaciones peligrosas con resultados de salud posteriores, como el cáncer o la muerte. En el centro de casi todas estas investigaciones hay un cuestionario que constituye la herramienta básica de recopilación de datos. Incluso cuando se van a realizar mediciones físicas en un entorno de trabajo, y especialmente cuando se van a recolectar materiales biológicos como el suero de sujetos de estudio expuestos o no expuestos, un cuestionario es esencial para desarrollar una imagen de exposición adecuada mediante la recolección sistemática de datos personales y de otro tipo. características de manera organizada y uniforme.
El cuestionario cumple una serie de funciones críticas de investigación:
Lugar del diseño del cuestionario dentro de los objetivos generales del estudio
Si bien el cuestionario es a menudo la parte más visible de un estudio epidemiológico, particularmente para los trabajadores u otros participantes del estudio, es solo una herramienta y, de hecho, los investigadores lo llaman a menudo un "instrumento". La figura 1 describe de manera muy general las etapas del diseño de la encuesta desde la concepción hasta la recopilación y el análisis de datos. La figura muestra cuatro niveles o niveles de operación del estudio que proceden en paralelo a lo largo de la vida del estudio: muestreo, cuestionario, operaciones y análisis. La figura demuestra claramente la forma en que las etapas del desarrollo del cuestionario se relacionan con el plan de estudio general, desde un esquema inicial hasta un primer borrador tanto del cuestionario como de sus códigos asociados, seguido de una prueba previa dentro de una subpoblación seleccionada, uno o más revisiones dictadas por experiencias previas y preparación del documento final para la recolección de datos reales en el campo. Lo que es más importante es el contexto: cada etapa del desarrollo del cuestionario se lleva a cabo junto con una etapa correspondiente de creación y perfeccionamiento del plan general de muestreo, así como el diseño operativo para la administración del cuestionario.
Figura 1. Las etapas de una encuesta.
Tipos de estudios y cuestionarios
Los objetivos de investigación del propio estudio determinan la estructura, la extensión y el contenido del cuestionario. Estos atributos del cuestionario están invariablemente atenuados por el método de recopilación de datos, que por lo general cae dentro de uno de los tres modos: en persona, por correo y por teléfono. Cada uno de estos tiene sus ventajas y desventajas que pueden afectar no solo la calidad de los datos sino también la validez del estudio en general.
A cuestionario enviado por correo es el formato menos costoso y puede cubrir a trabajadores en un área geográfica amplia. Sin embargo, dado que las tasas generales de respuesta suelen ser bajas (típicamente del 45 al 75%), no puede ser demasiado complejo ya que hay poca o ninguna oportunidad para aclarar las preguntas, y puede ser difícil determinar si las posibles respuestas a la exposición crítica u otras las preguntas difieren sistemáticamente entre los encuestados y los no encuestados. El diseño físico y el idioma deben acomodar a los participantes potenciales del estudio menos educados y deben poder completarse en un período de tiempo bastante corto, generalmente de 20 a 30 minutos.
Cuestionarios telefónicos se pueden usar en estudios basados en la población, es decir, encuestas en las que se sondea una muestra de una población definida geográficamente, y son un método práctico para actualizar la información en los archivos de datos existentes. Pueden ser más largos y más complejos que los cuestionarios enviados por correo en cuanto a idioma y contenido, y dado que son administrados por entrevistadores capacitados, el mayor costo de una encuesta telefónica puede compensarse parcialmente estructurando físicamente el cuestionario para una administración eficiente (por ejemplo, a través de patrones de omisión). Las tasas de respuesta suelen ser mejores que con los cuestionarios enviados por correo, pero están sujetas a sesgos relacionados con el uso creciente de contestadores automáticos telefónicos, negativas, no contactos y problemas de poblaciones con servicio telefónico limitado. Dichos sesgos generalmente se relacionan con el diseño de la muestra en sí y no especialmente con el cuestionario. Aunque los cuestionarios telefónicos se han utilizado durante mucho tiempo en América del Norte, aún no se ha establecido su viabilidad en otras partes del mundo.
Cara a cara las entrevistas brindan la mejor oportunidad para recopilar datos complejos precisos; también son los más costosos de administrar, ya que requieren capacitación y viajes para el personal profesional. El diseño físico y el orden de las preguntas pueden organizarse para optimizar el tiempo de administración. Los estudios que utilizan entrevistas en persona generalmente tienen las tasas de respuesta más altas y están sujetos al menor sesgo de respuesta. Este es también el tipo de entrevista en la que es más probable que el entrevistador sepa si el participante es o no un caso (en un estudio de casos y controles) o el estado de exposición del participante (en un estudio de cohorte). Por lo tanto, se debe tener cuidado para preservar la objetividad del entrevistador entrenándolo para evitar preguntas capciosas y lenguaje corporal que pueda provocar respuestas sesgadas.
Cada vez es más común utilizar un diseño de estudio híbrido en el que se evalúan situaciones de exposición complejas en una entrevista personal o telefónica que permite el máximo sondeo y aclaración, seguido de un cuestionario enviado por correo para capturar datos de estilo de vida como el tabaquismo y la dieta.
Confidencialidad y problemas de los participantes en la investigación
Dado que el propósito de un cuestionario es obtener datos sobre las personas, el diseño del cuestionario debe guiarse por los estándares establecidos para el tratamiento ético de los sujetos humanos. Estas pautas se aplican a la adquisición de datos del cuestionario tal como lo hacen para muestras biológicas como sangre y orina, o para pruebas genéticas. En los Estados Unidos y muchos otros países, no se pueden realizar estudios que involucren humanos con fondos públicos a menos que se obtenga primero la aprobación del lenguaje y el contenido del cuestionario de una Junta de Revisión Institucional apropiada. Dicha aprobación tiene por objeto asegurar que las preguntas se limiten a los propósitos legítimos del estudio y que no violen los derechos de los participantes del estudio a responder preguntas voluntariamente. Se debe asegurar a los participantes que su participación en el estudio es totalmente voluntaria y que negarse a responder preguntas o incluso a participar no los someterá a ninguna sanción ni alterará su relación con su empleador o médico.
Los participantes también deben estar seguros de que la información que proporcionen será mantenida en estricta confidencialidad por el investigador, quien, por supuesto, debe tomar medidas para mantener la seguridad física y la inviolabilidad de los datos. Esto a menudo implica la separación física de la información sobre la identidad de los participantes de los archivos de datos computarizados. Es una práctica común informar a los participantes del estudio que sus respuestas a los elementos del cuestionario se utilizarán solo en conjunto con las respuestas de otros participantes en los informes estadísticos, y no se divulgarán al empleador, al médico ni a otras partes.
Aspectos de medición del diseño de cuestionarios
Una de las funciones más importantes de un cuestionario es obtener datos sobre algún aspecto o atributo de una persona en forma cualitativa o cuantitativa. Algunos elementos pueden ser tan simples como el peso, la altura o la edad, mientras que otros pueden ser considerablemente más complicados, como la respuesta de un individuo al estrés. Las respuestas cualitativas, como el género, normalmente se convertirán en variables numéricas. Todas estas medidas pueden caracterizarse por su validez y su fiabilidad. La validez es el grado en que un número derivado de un cuestionario se acerca a su valor verdadero, pero posiblemente desconocido. La confiabilidad mide la probabilidad de que una medida dada arroje el mismo resultado en la repetición, ya sea que ese resultado se acerque a la "verdad" o no. La figura 2 muestra cómo se relacionan estos conceptos. Demuestra que una medida puede ser válida pero no confiable, confiable pero no válida, o válida y confiable a la vez.
Figura 2. Relación de validez y confiabilidad
A lo largo de los años, los investigadores han desarrollado muchos cuestionarios para responder preguntas de investigación de amplio interés. Los ejemplos incluyen la Prueba de Aptitud Académica, que mide el potencial de un estudiante para el logro académico futuro, y el Inventario Multifásico de Personalidad de Minnesota (MMPI), que mide ciertas características psicosociales. Una variedad de otros indicadores psicológicos se discuten en el capítulo sobre psicometría. También existen escalas fisiológicas establecidas, como el cuestionario del British Medical Research Council (BMRC) para la función pulmonar. Estos instrumentos tienen una serie de ventajas importantes. El principal de ellos es el hecho de que ya se han desarrollado y probado, por lo general en muchas poblaciones, y que se conocen su fiabilidad y validez. Se recomienda a cualquiera que construya un cuestionario que utilice tales escalas si se ajustan al propósito del estudio. No solo ahorran el esfuerzo de “reinventar la rueda”, sino que hacen más probable que los resultados del estudio sean aceptados como válidos por la comunidad investigadora. También hace que las comparaciones de resultados de diferentes estudios sean más válidas, siempre que se hayan utilizado correctamente.
Las escalas anteriores son ejemplos de dos tipos importantes de medidas que se usan comúnmente en los cuestionarios para cuantificar conceptos que pueden no ser medibles objetivamente en la forma en que lo son la altura y el peso, o que requieren muchas preguntas similares para "aprovechar completamente el dominio" de un patrón de comportamiento específico. De manera más general, los índices y las escalas son dos técnicas de reducción de datos que brindan un resumen numérico de grupos de preguntas. Los ejemplos anteriores ilustran índices fisiológicos y psicológicos, y también se utilizan con frecuencia para medir el conocimiento, la actitud y el comportamiento. Brevemente, un índice generalmente se construye como una puntuación obtenida al contar, entre un grupo de preguntas relacionadas, el número de elementos que se aplican a un participante del estudio. Por ejemplo, si un cuestionario presenta una lista de enfermedades, un índice de historial de enfermedades podría ser el número total de las que un encuestado dice que ha tenido. A escala es una medida compuesta basada en la intensidad con la que un participante responde una o más preguntas relacionadas. Por ejemplo, la escala de Likert, que se usa con frecuencia en la investigación social, se construye típicamente a partir de afirmaciones con las que uno puede estar muy de acuerdo, estar de acuerdo débilmente, no ofrecer ninguna opinión, estar en desacuerdo débil o estar en desacuerdo totalmente, y la respuesta se califica como un número de 1 a 5. Las escalas y los índices pueden sumarse o combinarse de otro modo para formar una imagen bastante compleja de las características físicas, psicológicas, sociales o conductuales de los participantes del estudio.
La validez merece especial consideración por su reflejo de la “verdad”. Tres tipos importantes de validez discutidos a menudo son la validez aparente, de contenido y de criterio. Validez aparente es una cualidad subjetiva de un indicador que asegura que la redacción de una pregunta sea clara e inequívoca. Validez de contenido asegura que las preguntas servirán para aprovechar esa dimensión de respuesta en la que el investigador está interesado. Criterio (o predictivo) validez se deriva de una evaluación objetiva de qué tan cerca se aproxima la medición de un cuestionario a una cantidad medible por separado, como por ejemplo qué tan bien una evaluación del cuestionario de la ingesta dietética de vitamina A coincide con el consumo real de vitamina A, basado en el consumo de alimentos documentado con registros dietéticos.
Contenido, calidad y extensión del cuestionario
Fraseología. La redacción de preguntas es tanto un arte como una habilidad profesional. Por lo tanto, solo se pueden presentar las pautas más generales. En general, se acepta que deben diseñarse preguntas que:
Secuencia y estructura de las preguntas. Tanto el orden como la presentación de las preguntas pueden afectar la calidad de la información recopilada. Un cuestionario típico, ya sea autoadministrado o leído por un entrevistador, contiene un prólogo que presenta el estudio y su tema al encuestado, brinda cualquier información adicional que necesite y trata de motivar al encuestado a responder las preguntas. La mayoría de los cuestionarios contienen una sección diseñada para recopilar información demográfica, como edad, género, origen étnico y otras variables sobre los antecedentes del participante, incluidas posibles variables de confusión. El tema principal de la recopilación de datos, como la naturaleza del lugar de trabajo y la exposición a sustancias específicas, suele ser una sección distinta del cuestionario y, a menudo, está precedida por un prólogo introductorio propio que primero puede recordar al participante aspectos específicos del trabajo. o lugar de trabajo con el fin de crear un contexto para preguntas detalladas. El diseño de las preguntas destinadas a establecer cronologías de vida laboral debe organizarse de manera que se minimice el riesgo de omisiones cronológicas. Finalmente, se acostumbra agradecer al entrevistado por su participación.
Tipos de preguntas. El diseñador debe decidir si utiliza preguntas abiertas en las que los participantes componen sus propias respuestas, o preguntas cerradas que requieren una respuesta definitiva o una selección de un menú corto de posibles respuestas. Las preguntas cerradas tienen la ventaja de que aclaran las alternativas para el encuestado, evitan las respuestas rápidas y minimizan las divagaciones largas que pueden ser imposibles de interpretar. Sin embargo, requieren que el diseñador anticipe el rango de posibles respuestas para evitar perder información, particularmente en situaciones inesperadas que ocurren en muchos lugares de trabajo. Esto, a su vez, requiere una prueba piloto bien planificada. El investigador debe decidir si y en qué medida permitir una categoría de respuesta "no sé".
Longitud Determinar la longitud final de un cuestionario requiere lograr un equilibrio entre el deseo de obtener la mayor cantidad de información detallada posible para lograr los objetivos del estudio con el hecho de que si un cuestionario es demasiado largo, en algún momento muchos encuestados perderán interés y dejarán de responder. o responder de forma precipitada, imprecisa y sin pensar para dar por finalizada la sesión. Por otro lado, un cuestionario muy corto puede obtener una alta tasa de respuesta pero no alcanzar los objetivos del estudio. Dado que la motivación del encuestado a menudo depende de tener un interés personal en el resultado, como mejorar las condiciones de trabajo, la tolerancia a un cuestionario largo puede variar mucho, especialmente cuando algunos participantes (como los trabajadores de una planta en particular) pueden percibir que su interés es mayor que otros (como personas contactadas a través de marcación telefónica aleatoria). Este equilibrio solo se puede lograr a través de pruebas piloto y experiencia. Los cuestionarios administrados por el entrevistador deben registrar la hora de inicio y finalización para permitir el cálculo de la duración de la entrevista. Esta información es útil para evaluar el nivel de calidad de los datos.
Idioma. Es fundamental utilizar el lenguaje de la población para que las preguntas sean entendidas por todos. Esto puede requerir familiarizarse con la lengua vernácula local que puede variar dentro de un mismo país. Incluso en países donde nominalmente se habla el mismo idioma, como Gran Bretaña y los Estados Unidos, o los países de habla hispana de América Latina, los modismos y usos locales pueden variar de una manera que puede oscurecer la interpretación. Por ejemplo, en los EE. UU., "té" es simplemente una bebida, mientras que en Gran Bretaña puede significar "una taza de té", "té alto" o "la cena principal", según el lugar y el contexto. Es especialmente importante evitar la jerga científica, excepto cuando se espera que los participantes del estudio posean conocimientos técnicos específicos.
Claridad y preguntas capciosas. Si bien suele ocurrir que las preguntas más cortas son más claras, hay excepciones, especialmente cuando es necesario introducir un tema complejo. Sin embargo, las preguntas cortas aclaran el pensamiento y reducen las palabras innecesarias. También reducen la posibilidad de sobrecargar al encuestado con demasiada información para digerir. Si el propósito del estudio es obtener información objetiva sobre la situación laboral del participante, es importante formular las preguntas de forma neutra y evitar las preguntas capciosas que puedan favorecer una respuesta en particular, como "¿Está de acuerdo en que su lugar de trabajo condiciones son perjudiciales para su salud?
Diseño del cuestionario. El diseño físico de un cuestionario puede afectar el costo y la eficiencia de un estudio. Es más importante para los cuestionarios autoadministrados que para los que son realizados por entrevistadores. Un cuestionario que está diseñado para que lo complete el encuestado pero que es demasiado complejo o difícil de leer puede completarse a la ligera o incluso descartarse. Incluso los cuestionarios diseñados para ser leídos en voz alta por entrevistadores capacitados deben estar impresos en letra clara y legible, y los patrones de omisión de preguntas deben indicarse de manera que se mantenga un flujo constante de preguntas y se minimice el cambio de página y la búsqueda de la siguiente pregunta aplicable. pregunta.
Preocupaciones de validez
Parcialidad
El enemigo de la recopilación de datos objetivos es el sesgo, que resulta de diferencias sistemáticas pero no planificadas entre grupos de personas: casos y controles en un estudio de casos y controles o expuestos y no expuestos en un estudio de cohortes. Sesgo de información puede introducirse cuando dos grupos de participantes entienden o responden de manera diferente a la misma pregunta. Esto puede ocurrir, por ejemplo, si las preguntas se plantean de tal manera que requieren un conocimiento técnico especial de un lugar de trabajo o sus exposiciones que sería entendido por los trabajadores expuestos, pero no necesariamente por el público en general del que se extraen los controles.
El uso de sustitutos para trabajadores enfermos o fallecidos tiene el potencial de sesgo porque es probable que los parientes más cercanos recuerden la información de diferentes maneras y con menos precisión que el propio trabajador. La introducción de dicho sesgo es especialmente probable en estudios en los que algunas entrevistas se llevan a cabo directamente con los participantes del estudio, mientras que otras entrevistas se llevan a cabo con familiares o compañeros de trabajo de otros participantes de la investigación. En cualquier situación, se debe tener cuidado para reducir cualquier efecto que pueda surgir del conocimiento del entrevistador sobre la enfermedad o el estado de exposición del trabajador de interés. Dado que no siempre es posible mantener “ciegos” a los entrevistadores, es importante enfatizar la objetividad y evitar las preguntas capciosas o sugestivas o el lenguaje corporal inconsciente durante la capacitación, y monitorear el desempeño mientras se lleva a cabo el estudio.
Sesgo de recuerdo resultados cuando los casos y los controles “recuerdan” las exposiciones o situaciones de trabajo de manera diferente. Los casos hospitalizados con una posible enfermedad relacionada con el trabajo pueden ser más capaces de recordar detalles de su historial médico o exposiciones ocupacionales que las personas contactadas al azar por teléfono. Un tipo de este sesgo que se está volviendo más común ha sido etiquetado sesgo de deseabilidad social. Describe la tendencia de muchas personas a subestimar, conscientemente o no, su indulgencia en los "malos hábitos", como fumar cigarrillos o el consumo de alimentos ricos en grasas y colesterol, y exagerar los "buenos hábitos", como el ejercicio.
Sesgo de respuesta denota una situación en la que un grupo de participantes del estudio, como los trabajadores con una exposición ocupacional particular, puede tener más probabilidades de completar cuestionarios o participar en un estudio que las personas no expuestas. Tal situación puede resultar en una estimación sesgada de la asociación entre exposición y enfermedad. Se puede sospechar un sesgo de respuesta si las tasas de respuesta o el tiempo necesario para completar un cuestionario o una entrevista difieren sustancialmente entre los grupos (p. ej., casos frente a controles, expuestos frente a no expuestos). El sesgo de respuesta generalmente difiere según el modo de administración del cuestionario. Los cuestionarios que se envían por correo generalmente son más propensos a ser devueltos por personas que ven un interés personal en los hallazgos del estudio, y es más probable que sean ignorados o descartados por personas seleccionadas al azar de la población general. Muchos investigadores que utilizan encuestas por correo también incorporan un mecanismo de seguimiento que puede incluir un segundo y tercer envío por correo, así como contactos telefónicos posteriores con los que no respondieron para maximizar las tasas de respuesta.
Los estudios que utilizan encuestas telefónicas, incluidos los que hacen uso de la marcación de dígitos al azar para identificar los controles, suelen tener un conjunto de reglas o un protocolo que define cuántas veces se debe intentar contactar a los encuestados potenciales, incluida la hora del día, y si es por la tarde o por la noche. se deben intentar las llamadas de fin de semana. Quienes realizan estudios en hospitales suelen registrar el número de pacientes que se niegan a participar y los motivos de la no participación. En todos estos casos, varias medidas de tasas de respuesta se registran para proporcionar una evaluación de la medida en que se ha llegado realmente a la población objetivo.
Sesgo de selección resultados cuando un grupo de participantes responde preferentemente o participa en un estudio, y puede resultar en una estimación sesgada de la relación entre la exposición y la enfermedad. Para evaluar el sesgo de selección y si conduce a una subestimación o sobreestimación de la exposición, se puede utilizar información demográfica como el nivel educativo para comparar a los encuestados con los que no respondieron. Por ejemplo, si los participantes con poca educación tienen tasas de respuesta más bajas que los participantes con educación superior, y si se sabe que una ocupación o hábito de fumar en particular es más frecuente en los grupos menos educados, entonces el sesgo de selección con subestimación de la exposición para esa ocupación o categoría de tabaquismo es probable que haya ocurrido.
Confuso Es un tipo importante de sesgo de selección que se produce cuando la selección de los encuestados (casos y controles en un estudio de casos y controles, o expuestos y no expuestos en un estudio de cohortes) depende de alguna manera de una tercera variable, a veces de forma desconocida para los encuestados. investigador. Si no se identifica y controla, puede conducir de manera impredecible a subestimaciones o sobrestimaciones de los riesgos de enfermedad asociados con las exposiciones ocupacionales. La confusión suele abordarse manipulando el diseño del estudio en sí (p. ej., emparejando casos con controles de edad y otras variables) o en la etapa de análisis. Los detalles de estas técnicas se presentan en otros artículos dentro de este capítulo.
Documentación
En cualquier estudio de investigación, todos los procedimientos del estudio deben estar completamente documentados para que todo el personal, incluidos los entrevistadores, el personal de supervisión y los investigadores, tengan claras sus respectivas funciones. En la mayoría de los estudios basados en cuestionarios, un manual de codificación está preparado que describe pregunta por pregunta todo lo que el entrevistador necesita saber más allá de la redacción literal de las preguntas. Esto incluye instrucciones para codificar respuestas categóricas y puede contener instrucciones explícitas sobre sondeo, enumerando aquellas preguntas para las que está permitido y aquellas para las que no. En muchos estudios, ocasionalmente se encuentran en el campo opciones de respuesta nuevas e imprevistas para ciertas preguntas; estos deben registrarse en el libro de códigos maestro y las copias de las adiciones, cambios o nuevas instrucciones deben distribuirse a todos los entrevistadores de manera oportuna.
Planificación, prueba y revisión.
Como se puede ver en la figura 1, el desarrollo del cuestionario requiere una gran cantidad de análisis planificar. Cada cuestionario debe probarse en varias etapas para asegurarse de que las preguntas “funcionen”, es decir, que sean comprensibles y produzcan respuestas de la calidad deseada. Es útil probar nuevas preguntas con los voluntarios y luego interrogarlos extensamente para determinar qué tan bien entendieron las preguntas específicas y qué tipos de problemas o ambigüedades se encontraron. Luego, los resultados se pueden utilizar para revisar el cuestionario, y el procedimiento se puede repetir si es necesario. A veces se hace referencia a los voluntarios como un “grupo focal”.
Todos los estudios epidemiológicos requieren prueba piloto, no solo para los cuestionarios, sino también para los procedimientos del estudio. Un cuestionario bien diseñado cumple su propósito solo si se puede entregar de manera eficiente a los participantes del estudio, y esto solo se puede determinar probando los procedimientos en el campo y haciendo ajustes cuando sea necesario.
Capacitación y supervisión del entrevistador
En los estudios que se realizan por teléfono o entrevistas cara a cara, el entrevistador juega un papel fundamental. Esta persona es responsable no solo de presentar preguntas a los participantes del estudio y registrar sus respuestas, sino también de interpretar esas respuestas. Incluso con el estudio de entrevista estructurado más rígidamente, los encuestados ocasionalmente solicitan aclaraciones de preguntas u ofrecen respuestas que no se ajustan a las categorías de respuesta disponibles. En tales casos, el trabajo del entrevistador es interpretar la pregunta o la respuesta de manera coherente con la intención del investigador. Para hacerlo de manera efectiva y consistente, se requiere capacitación y supervisión por parte de un investigador o administrador experimentado. Cuando se emplea a más de un entrevistador en un estudio, la capacitación de los entrevistadores es especialmente importante para garantizar que las preguntas se presenten y las respuestas se interpreten de manera uniforme. En muchos proyectos de investigación, esto se logra en entornos de capacitación grupal y se repite periódicamente (p. ej., anualmente) para mantener frescas las habilidades de los entrevistadores. Los seminarios de capacitación suelen cubrir los siguientes temas con considerable detalle:
La supervisión del estudio a menudo implica la observación in situ, que puede incluir la grabación de las entrevistas para la disección posterior. Es una práctica común que el supervisor revise personalmente cada cuestionario antes de aprobarlo y enviarlo para el ingreso de datos. El supervisor también establece y hace cumplir los estándares de desempeño para los entrevistadores y, en algunos estudios, realiza nuevas entrevistas independientes con participantes seleccionados como verificación de confiabilidad.
Recopilación de datos
La distribución propiamente dicha de los cuestionarios a los participantes del estudio y su posterior recogida para su análisis se realiza a través de una de las tres modalidades descritas anteriormente: por correo, teléfono o personalmente. Algunos investigadores organizan e incluso realizan esta función ellos mismos dentro de sus propias instituciones. Si bien existe un mérito considerable para que un investigador principal se familiarice con la dinámica de la entrevista de primera mano, es más rentable y conducente a mantener una alta calidad de los datos si se incluye a entrevistadores profesionales capacitados y bien supervisados como parte del equipo de investigación. .
Algunos investigadores hacen arreglos contractuales con empresas que se especializan en investigación de encuestas. Los contratistas pueden proporcionar una variedad de servicios que pueden incluir una o más de las siguientes tareas: distribución y recolección de cuestionarios, realización de entrevistas telefónicas o personales, obtención de muestras biológicas como sangre u orina, gestión de datos y análisis estadístico y reporte escrito. Independientemente del nivel de apoyo, los contratistas suelen ser responsables de proporcionar información sobre las tasas de respuesta y la calidad de los datos. Sin embargo, es el investigador quien tiene la responsabilidad final de la integridad científica del estudio.
Confiabilidad y re-entrevistas
La calidad de los datos puede evaluarse volviendo a entrevistar a una muestra de los participantes del estudio original. Esto proporciona un medio para determinar la confiabilidad de las entrevistas iniciales y una estimación de la repetibilidad de las respuestas. No es necesario volver a administrar todo el cuestionario; un subconjunto de preguntas suele ser suficiente. Las pruebas estadísticas están disponibles para evaluar la confiabilidad de un conjunto de preguntas formuladas al mismo participante en diferentes momentos, así como para evaluar la confiabilidad de las respuestas proporcionadas por diferentes participantes e incluso para aquellas consultadas por diferentes entrevistadores (es decir, inter e intra). -evaluaciones de evaluadores).
Tecnología de procesamiento de cuestionarios
Los avances en la tecnología informática han creado muchas formas diferentes en las que los datos del cuestionario pueden capturarse y ponerse a disposición del investigador para su análisis informático. Existen tres formas fundamentalmente diferentes en las que se pueden computarizar los datos: en tiempo real (es decir, mientras el participante responde durante una entrevista), mediante métodos tradicionales de ingreso de datos y mediante métodos ópticos de captura de datos.
Captura de datos asistida por computadora
Muchos investigadores ahora usan computadoras para recopilar respuestas a las preguntas planteadas en entrevistas tanto cara a cara como telefónicas. Los investigadores en el campo encuentran conveniente usar computadoras portátiles que han sido programadas para mostrar las preguntas secuencialmente y que permiten al entrevistador ingresar la respuesta de inmediato. Las empresas de investigación de encuestas que realizan entrevistas telefónicas han desarrollado sistemas análogos llamados sistemas de entrevistas telefónicas asistidas por computadora (CATI). Estos métodos tienen dos ventajas importantes sobre los cuestionarios en papel más tradicionales. En primer lugar, las respuestas pueden cotejarse instantáneamente con una variedad de respuestas permitidas y la coherencia con las respuestas anteriores, y las discrepancias pueden señalarse inmediatamente a la atención tanto del entrevistador como del encuestado. Esto reduce en gran medida la tasa de error. En segundo lugar, se pueden programar patrones de omisión para minimizar el tiempo de administración.
El método más común para informatizar los datos sigue siendo el tradicional. entrada clave por un operador capacitado. Para estudios muy grandes, los cuestionarios generalmente se envían a una empresa de contrato profesional que se especializa en la captura de datos. Estas empresas a menudo utilizan equipos especializados que permiten a un operador introducir un cuestionario (un procedimiento que a veces se denomina perforador por razones históricas) y un segundo operador para volver a teclear los mismos datos, un proceso llamado verificación clave. Los resultados de la segunda codificación se comparan con los de la primera para garantizar que los datos se hayan ingresado correctamente. Se pueden programar procedimientos de control de calidad que aseguren que cada respuesta se encuentre dentro de un rango permitido y que sea consistente con otras respuestas. Los archivos de datos resultantes pueden transmitirse al investigador en disco, cinta o electrónicamente por teléfono u otra red informática.
Para estudios más pequeños, existen numerosos programas comerciales basados en PC que tienen funciones de entrada de datos que emulan las de los sistemas más especializados. Estos incluyen programas de bases de datos como dBase, Foxpro y Microsoft Access, así como hojas de cálculo como Microsoft Excel y Lotus 1-2-3. Además, las funciones de entrada de datos se incluyen en muchos paquetes de programas informáticos cuyo objetivo principal es el análisis de datos estadísticos, como SPSS, BMDP y EPI INFO.
Un método generalizado de captura de datos que funciona bien para ciertos cuestionarios especializados utiliza sistemas ópticos. Lectura óptica de marcas o la detección óptica se usa para leer respuestas en cuestionarios que están especialmente diseñados para que los participantes ingresen datos marcando pequeños rectángulos o círculos (a veces llamados "códigos de burbujas"). Estos funcionan de manera más eficiente cuando cada individuo completa su propio cuestionario. Equipos más sofisticados y costosos pueden leer caracteres escritos a mano, pero en la actualidad esta no es una técnica eficiente para capturar datos en estudios a gran escala.
Archivo de cuestionarios y manuales de codificación
Debido a que la información es un recurso valioso y está sujeta a interpretación y otras influencias, a veces se les pide a los investigadores que compartan sus datos con otros investigadores. La solicitud de compartir datos puede estar motivada por una variedad de razones, que pueden ir desde un interés sincero en replicar un informe hasta la preocupación de que los datos no se hayan analizado o interpretado correctamente.
Cuando se sospeche o se alegue la falsificación o fabricación de datos, se vuelve esencial que los registros originales en los que se basan los hallazgos informados estén disponibles para fines de auditoría. Además de los cuestionarios originales y/o los archivos informáticos de datos sin procesar, el investigador debe poder proporcionar para su revisión los manuales de codificación desarrollados para el estudio y los registros de todos los cambios de datos que se realizaron en el curso. de codificación, informatización y análisis de datos. Por ejemplo, si un valor de datos se modificó porque inicialmente apareció como un valor atípico, entonces se debería haber registrado en el registro un registro del cambio y las razones para realizar el cambio para posibles propósitos de auditoría de datos. Dicha información también es valiosa en el momento de la preparación del informe porque sirve como un recordatorio de cómo se manejaron realmente los datos que dieron lugar a los hallazgos informados.
Por estas razones, al finalizar un estudio, el investigador tiene la obligación de garantizar que todos los datos básicos se archivan adecuadamente durante un período de tiempo razonable y que podrían recuperarse si se le solicitara al investigador que los proporcionara.
A menudo se citan varios ejemplos de peligros en el lugar de trabajo para ejemplificar no solo los posibles efectos adversos para la salud asociados con las exposiciones en el lugar de trabajo, sino también para revelar cómo un enfoque sistemático para el estudio de las poblaciones de trabajadores puede descubrir importantes relaciones exposición-enfermedad. Un ejemplo de ello es el del asbesto. La sencilla elegancia con la que el difunto Dr. Irving J. Selikoff demostró el elevado riesgo de cáncer entre los trabajadores del asbesto ha sido documentada en un artículo de Lawrence Garfinkel. Se reproduce aquí con ligeras modificaciones y con el permiso de CA-A Cancer Journal for Clinicians (Garfinkel 1984). Las tablas provienen del artículo original del Dr. Selikoff y colaboradores (1964).
La exposición al asbesto se ha convertido en un problema de salud pública de considerable magnitud, con ramificaciones que se extienden más allá del campo inmediato de los profesionales de la salud hacia áreas atendidas por legisladores, jueces, abogados, educadores y otros líderes comunitarios interesados. Como resultado, las enfermedades relacionadas con el asbesto son motivo de creciente preocupación para los médicos y las autoridades sanitarias, así como para los consumidores y el público en general.
Antecedentes históricos
El asbesto es un mineral de gran utilidad que se ha utilizado de diversas formas durante muchos siglos. Los estudios arqueológicos en Finlandia han mostrado evidencia de fibras de asbesto incorporadas en la cerámica desde el año 2500 a. En el siglo V a. C., se utilizó como mecha para lámparas. Herodoto comentó sobre el uso de tela de asbesto para la cremación alrededor del 5 a. El asbesto se usó en chalecos antibalas en el siglo XV y en la fabricación de textiles, guantes, calcetines y bolsos en Rusia. c. 1720. Aunque no se sabe cuándo se desarrolló el arte de tejer asbesto, sabemos que los antiguos a menudo tejían asbesto con lino. La producción comercial de asbesto comenzó en Italia alrededor de 1850, en la fabricación de papel y tela.
El desarrollo de la extracción de asbesto en Canadá y Sudáfrica alrededor de 1880 redujo los costos y estimuló la fabricación de productos de asbesto. Poco después siguió la extracción y producción de asbesto en los Estados Unidos, Italia y Rusia. En los Estados Unidos, el desarrollo del asbesto como aislamiento de tuberías incrementó la producción y fue seguido poco después por otros usos variados que incluyen forros de frenos, tuberías de cemento, ropa protectora, etc.
La producción en EE. UU. aumentó de unas 6,000 toneladas en 1900 a 650,000 toneladas en 1975, aunque en 1982 era de unas 300,000 toneladas y en 1994 la producción se había reducido a 33,000 toneladas.
Se informa que Plinio el Joven (61-113 dC) comentó sobre la enfermedad de los esclavos que trabajaban con asbesto. La referencia a la enfermedad profesional asociada a la minería apareció en el siglo XVI, pero no fue hasta 16 en Inglaterra cuando apareció la primera referencia a la fibrosis pulmonar en un trabajador del amianto. Poco después se informó un exceso de muertes en trabajadores involucrados en aplicaciones de fabricación de asbesto en Francia e Italia, pero el mayor reconocimiento de la enfermedad inducida por asbesto comenzó en Inglaterra en 1906. Para 1924, Wood y Gloyne habían informado sobre 1930 casos de fibrosis pulmonar.
La primera referencia al carcinoma de pulmón en un paciente con “amianto-silicosis” apareció en 1935. Siguieron varios otros informes de casos. Informes de altos porcentajes de cáncer de pulmón en pacientes que murieron de asbestosis aparecieron en 1947, 1949 y 1951. En 1955, Richard Doll en Inglaterra informó un exceso de riesgo de cáncer de pulmón en personas que habían trabajado en una planta de asbesto desde 1935, con un riesgo especialmente alto. riesgo en quienes estuvieron empleados más de 20 años.
Observaciones clínicas
Fue en este contexto que comenzaron las observaciones clínicas del Dr. Irving Selikoff sobre las enfermedades relacionadas con el asbesto. El Dr. Selikoff ya era en ese momento un científico distinguido. Sus logros anteriores incluyeron el desarrollo y el primer uso de isoniazida en el tratamiento de la tuberculosis, por lo que recibió un premio Lasker en 1952.
A principios de la década de 1960, como médico torácico que ejercía en Paterson, Nueva Jersey, había observado muchos casos de cáncer de pulmón entre los trabajadores de una fábrica de amianto de la zona. Decidió ampliar sus observaciones para incluir a dos locales del sindicato de trabajadores de aisladores de asbesto, cuyos miembros también habían estado expuestos a las fibras de asbesto. Reconoció que todavía había muchas personas que no creían que el cáncer de pulmón estuviera relacionado con la exposición al asbesto y que solo un estudio exhaustivo de una población total expuesta podría convencerlos. Existía la posibilidad de que la exposición al asbesto en la población pudiera estar relacionada con otros tipos de cáncer, como el mesotelioma pleural y peritoneal, como se había sugerido en algunos estudios, y quizás también en otros sitios. La mayoría de los estudios sobre los efectos del asbesto en la salud en el pasado se habían centrado en los trabajadores expuestos en la extracción y producción de asbesto. Era importante saber si la inhalación de amianto también afectaba a otros grupos expuestos al amianto.
El Dr. Selikoff había oído hablar de los logros del Dr. E. Cuyler Hammond, entonces Director de la Sección de Investigación Estadística de la Sociedad Americana del Cáncer (ACS), y decidió pedirle que colaborara en el diseño y análisis de un estudio. Fue el Dr. Hammond quien escribió el histórico estudio prospectivo sobre el tabaquismo y la salud publicado unos años antes.
El Dr. Hammond vio de inmediato la importancia potencial de un estudio de los trabajadores del asbesto. Aunque estaba muy ocupado analizando los datos del entonces nuevo estudio prospectivo de la ACS, el Estudio de Prevención del Cáncer I (CPS I), que había comenzado unos años antes, accedió de buena gana a colaborar en su “tiempo libre”. Sugirió limitar el análisis a aquellos trabajadores con al menos 20 años de experiencia laboral, quienes por lo tanto habrían tenido la mayor cantidad de exposición al asbesto.
Al equipo se unió la Sra. Janet Kaffenburgh, investigadora asociada del Dr. Selikoff en el Hospital Mount Sinai, quien trabajó con el Dr. Hammond en la preparación de las listas de los hombres en el estudio, incluidas sus edades y fechas de empleo y la obtención de los datos. sobre hechos de muerte y causas de los registros de las sedes sindicales. Esta información fue posteriormente transferida a fichas de archivo que fueron clasificadas literalmente en el piso de la sala de la casa del Dr. Hammond por el Dr. Hammond y la Sra. Kaffenburgh.
El Dr. Jacob Churg, patólogo del Barnert Memorial Hospital Center en Paterson, Nueva Jersey, verificó patológicamente la causa de la muerte.
Tabla 1. Años-hombre de experiencia de 632 trabajadores del asbesto expuestos a polvo de asbesto durante 20 años o más
Edad |
Periodo de tiempo |
|||
1943 - 47 |
1948 - 52 |
1953 - 57 |
1958 - 62 |
|
35-39 |
85.0 |
185.0 |
7.0 |
11.0 |
40-44 |
230.5 |
486.5 |
291.5 |
70.0 |
45-49 |
339.5 |
324.0 |
530.0 |
314.5 |
50-54 |
391.5 |
364.0 |
308.0 |
502.5 |
55-59 |
382.0 |
390.0 |
316.0 |
268.5 |
60-64 |
221.0 |
341.5 |
344.0 |
255.0 |
65-69 |
139.0 |
181.0 |
286.0 |
280.0 |
70-74 |
83.0 |
115.5 |
137.0 |
197.5 |
75-79 |
31.5 |
70.0 |
70.5 |
75.0 |
80-84 |
5.5 |
18.5 |
38.5 |
23.5 |
85+ |
3.5 |
2.0 |
8.0 |
13.5 |
Total |
1,912.0 |
2,478.0 |
2,336.5 |
2,011.0 |
El estudio resultante fue del tipo clasificado como “estudio prospectivo realizado retrospectivamente”. La naturaleza de los registros sindicales hizo posible realizar un análisis de un estudio de largo alcance en un período de tiempo relativamente corto. Aunque solo participaron 632 hombres en el estudio, hubo 8,737 años-hombre de exposición al riesgo (ver tabla 1); Ocurrieron 255 muertes durante el período de observación de 20 años desde 1943 hasta 1962 (ver tabla 2). Es en la tabla 28.17 donde se puede ver que el número observado de muertes invariablemente excede el número esperado, lo que demuestra la asociación entre la exposición al asbesto en el lugar de trabajo y una tasa elevada de muerte por cáncer.
Tabla 2. Número observado y esperado de muertes entre 632 trabajadores del asbesto expuestos al polvo de asbesto durante 20 años o más
Causa de la muerte |
Periodo de tiempo |
Total |
|||
1943 - 47 |
1948 - 52 |
1953 - 57 |
1958 - 62 |
1943 - 62 |
|
Total, todas las causas |
|||||
Observado (trabajadores del asbesto) |
28.0 |
54.0 |
85.0 |
88.0 |
255.0 |
Esperado (hombres blancos de EE. UU.) |
39.7 |
50.8 |
56.6 |
54.4 |
203.5 |
Cáncer total, todos los sitios |
|||||
Observado (trabajadores del asbesto) |
13.0 |
17.0 |
26.0 |
39.0 |
95.0 |
Esperado (hombres blancos de EE. UU.) |
5.7 |
8.1 |
13.0 |
9.7 |
36.5 |
Cáncer de pulmón y pleura |
|||||
Observado (trabajadores del asbesto) |
6.0 |
8.0 |
13.0 |
18.0 |
45.0 |
Esperado (hombres blancos de EE. UU.) |
0.8 |
1.4 |
2.0 |
2.4 |
6.6 |
Cáncer de estómago, colon y recto |
|||||
Observado (trabajadores del asbesto) |
4.0 |
4.0 |
7.0 |
14.0 |
29.0 |
Esperado (hombres blancos de EE. UU.) |
2.0 |
2.5 |
2.6 |
2.3 |
9.4 |
Cáncer de todos los demás sitios combinados |
|||||
Observado (trabajadores del asbesto) |
3.0 |
5.0 |
6.0 |
7.0 |
21.0 |
Esperado (hombres blancos de EE. UU.) |
2.9 |
4.2 |
8.4 |
5.0 |
20.5 |
Importancia de la obra
Este documento constituyó un punto de inflexión en nuestro conocimiento de las enfermedades relacionadas con el amianto y marcó la dirección de futuras investigaciones. El artículo ha sido citado en publicaciones científicas al menos 261 veces desde que se publicó originalmente. Con el apoyo financiero de la ACS y los Institutos Nacionales de Salud, el Dr. Selikoff y el Dr. Hammond y su creciente equipo de mineralogistas, neumólogos, radiólogos, patólogos, higienistas y epidemiólogos continuaron explorando diversas facetas de la enfermedad del asbesto.
Un artículo importante de 1968 informó sobre el efecto sinérgico del tabaquismo sobre la exposición al amianto (Selikoff, Hammond y Churg 1968). Los estudios se ampliaron para incluir a los trabajadores de la producción de asbesto, las personas indirectamente expuestas al asbesto en su trabajo (trabajadores de astilleros, por ejemplo) y aquellos con exposición familiar al asbesto.
En un análisis posterior, en el que se unió al equipo Herbert Seidman, MBA, Vicepresidente Asistente de Epidemiología y Estadísticas de la Sociedad Estadounidense del Cáncer, el grupo demostró que incluso la exposición a corto plazo al asbesto resultó en un aumento significativo del riesgo de cáncer hasta a 30 años después (Seidman, Selikoff y Hammond 1979). Solo hubo tres casos de mesotelioma en este primer estudio de 632 aisladores, pero investigaciones posteriores mostraron que el 8% de todas las muertes entre los trabajadores del asbesto se debieron al mesotelioma pleural y peritoneal.
A medida que se ampliaron las investigaciones científicas del Dr. Selikoff, él y sus compañeros de trabajo hicieron contribuciones notables para reducir la exposición al asbesto a través de innovaciones en técnicas de higiene industrial; persuadiendo a los legisladores sobre la urgencia del problema del asbesto; en la evaluación de los problemas de los pagos por discapacidad en relación con la enfermedad del asbesto; y en la investigación de la distribución general de partículas de asbesto en los suministros de agua y en el aire ambiente.
El Dr. Selikoff también llamó la atención de la comunidad médica y científica sobre el problema del asbesto organizando conferencias sobre el tema y participando en muchas reuniones científicas. Muchas de sus reuniones de orientación sobre el problema de la enfermedad del asbesto fueron estructuradas especialmente para abogados, jueces, presidentes de grandes corporaciones y ejecutivos de seguros.
" EXENCIÓN DE RESPONSABILIDAD: La OIT no se responsabiliza por el contenido presentado en este portal web que se presente en un idioma que no sea el inglés, que es el idioma utilizado para la producción inicial y la revisión por pares del contenido original. Ciertas estadísticas no se han actualizado desde la producción de la 4ª edición de la Enciclopedia (1998)."