[This article is also available in English. Thanks to Pensar for the Spanish translation.]
Los estudios de investigación médica se pueden dividir en dos tipos: observacionales y experimentales. Los estudios observacionales simplemente observan el efecto de una variable en una población. Pueden evaluar la fuerza de una relación, por ejemplo, entre factores dietéticos y enfermedades. ¿Son los vegetarianos menos propensos a desarrollar cáncer? ¿Los pacientes tratados con un nuevo medicamento para la diabetes tienen menos probabilidades de morir de ataques cardíacos que los pacientes tratados con medicamentos más antiguos?
Dos tipos de estudios observacionales son los estudios de cohortes y de casos y controles. En un estudio de cohorte, se observa un conjunto de personas con características definidas (por ejemplo, pacientes a los que se les ha diagnosticado diabetes) durante un período de tiempo para determinar si una variable (como el tratamiento con un nuevo fármaco) se asocia con mejores resultados (como menos muertes u hospitalizaciones). Los estudios de cohortes pueden ser prospectivos o retrospectivos, siendo estos últimos menos confiables porque dependen de los informes de los pacientes sobre eventos pasados y están sujetos a sesgos de recuerdo y memoria defectuosa.
En un estudio de casos y controles, las personas que tienen una enfermedad se comparan con las personas que no la padecen pero que, por lo demás, parecen ser idénticas. Sin embargo, existe un problema: es posible que no sean tan idénticos como parecen. Siempre existe el riesgo de que se hayan pasado por alto factores de confusión. Al emparejar individuos, nadie pensaría en preguntarles qué marca de salsa de espagueti han estado comprando, pero ¿qué pasaría si más personas en el grupo de la enfermedad se cambiaran a una nueva marca que simplemente contiene una hierba que es eficaz para combatir la enfermedad en cuestión? Como señaló Donald Rumsfeld, hay factores que se conocen y factores desconocidos, pero los más difíciles son los factores desconocidos que no se conocen. Si no sabemos si existe algún factor de confusión, no hay forma de que podamos controlarlo.
Correlación no es causalidad
Los estudios observacionales son útiles para encontrar correlaciones. Es posible que descubran que cuanta más carne consumen las personas, es más probable que mueran de un ataque cardíaco.
Si A está correlacionado con B, eso no nos dice que A causa B. Quizás B causa A. Quizás tanto A como B son causados por otro factor, C. Quizás no sea una correlación verdadera sino un hallazgo falso debido a errores en la forma en que se diseñó o llevó a cabo el estudio. Quizás la aparente correlación sea una coincidencia sin sentido. Eso pasa mucho.
Hay un sitio web dedicado enteramente a las correlaciones espurias, una compilación divertida de Tyler Vigen. El sitio web muestra gráficos y calcula los porcentajes de correlación para la asombrosa cantidad de 30.000 ejemplos. Si nunca lo has visto, vale la pena echarle un vistazo. La tasa de divorcios en Maine se correlaciona con el consumo per cápita de margarina. El número de suicidios por ahorcamiento, estrangulamiento y asfixia se correlaciona con el número de abogados en Carolina del Norte. Un ejemplo ampliamente citado es la correlación casi perfecta entre los diagnósticos de autismo y las ventas de alimentos orgánicos (r = 0.9971, p <0.0001). No creo que nadie se imagine que los alimentos orgánicos causen autismo o que el autismo aumente las ventas de alimentos orgánicos. La correlación es obviamente una coincidencia sin sentido. Y sin embargo…
Muchos periodistas que escriben sobre investigación médica no están bien instruidos en ciencia y pensamiento crítico. Persisten en informar correlaciones de estudios observacionales como evidencia de causalidad. Los medios están llenos de titulares alarmistas como “Un estudio muestra que comer X causa la enfermedad Y” y “Si quieres evitar la enfermedad Y, deja de comer X”. En mi humilde opinión, los periodistas que informan erróneamente la correlación como causa deberían ser despedidos y obligados a recibir educación correctiva.
Los criterios de Bradford Hill para la causalidad conforman una lista de nueve principios que pueden ayudar a establecer si una correlación representa causalidad:
- Fuerza (tamaño del efecto)
- Consistencia (reproducibilidad)
- Especificidad
- Temporalidad (el efecto ocurre después de la causa)
- Gradiente biológico (relación dosis-respuesta)
- Plausibilidad
- Coherencia entre diferentes tipos de evidencia
- Confirmación experimental
- Analogía con otras asociaciones
- Algunos autores añaden un décimo principio: la reversibilidad (si se elimina la causa, el efecto debería desaparecer).
Estudios experimentales
Los estudios observacionales pueden producir correlaciones sugerentes, pero no pueden establecer una causalidad. Para eso, necesitamos el otro tipo de estudio: estudios experimentales. En un estudio experimental, los investigadores introducen una intervención y estudian sus efectos. Si comer X está correlacionado con Y, ¿cambiar la cantidad de X en la dieta da como resultado diferentes resultados? El estudio experimental estándar de oro es el ensayo controlado aleatorio (ECA), preferiblemente a doble ciego.
A veces, no es posible ni factible hacer un estudio experimental. Consideremos la cuestión de si fumar causa cáncer de pulmón. La forma ideal de responder a esa pregunta sería aleatorizar a un gran número de jóvenes y hacer que la mitad de ellos empiece a fumar y continúe fumando por el resto de sus vidas mientras se evita que la otra mitad vuelva a fumar, y tendríamos que seguirlos durante los años que tarda en desarrollarse el cáncer de pulmón. Eso no se puede hacer. Incluso si fuera ético, no hay forma de controlar eficazmente el comportamiento de las personas. La esclavitud no es legal, e incluso si pudiéramos experimentar con una población cautiva de prisioneros, no hay forma de que podamos asegurarnos de que no encontrarán formas de evitar cumplirlo. No es como si pudiéramos poner a la fuerza cigarrillos encendidos entre sus labios muchas veces al día y hacerlos inhalar. Y cegarlos sería imposible: las personas que fuman saben muy bien que están fumando.
Afortunadamente, no hemos tenido que recurrir a estudios experimentales. Existe suficiente evidencia para establecer definitivamente que fumar causa cáncer de pulmón. La evidencia es fuerte, consistente y biológicamente plausible. Los estudios ecológicos, los estudios epidemiológicos, los estudios en animales y los estudios in vitro coinciden. Se sabe que los cigarrillos contienen carcinógenos. Y sabemos que cuando las personas dejan de fumar, su riesgo de cáncer de pulmón disminuye rápidamente. Los principios de Bradford Hill se cumplen ampliamente.
Problemas con los Ensayos Controlados Aleatorios (ECA)
Los ensayos controlados aleatorios son el “estándar de oro” de la investigación, pero no siempre son apropiados, porque pueden pasar por alto resultados que tardan mucho en desarrollarse o que afectan solo a una pequeña minoría de personas. Y pueden inspirar falsa confianza. Debemos recordar que solo porque un estudio es un ensayo controlado aleatorio, doble ciego, no podemos asumir que sus conclusiones sean correctas.
Reviso muchos suplementos dietéticos y las llamadas medicinas alternativas; a veces informan resultados positivos de un ensayo controlado aleatorio que puede parecer un estudio estándar de oro, pero no lo es. Uno de los mayores escollos es cuando intentan hacer buena ciencia en algo que nunca se ha demostrado que exista. A esto lo llamo ciencia del Ratoncito Pérez: se puede estudiar cuánto dinero deja el Ratoncito Pérez a los niños de familias empobrecidas en comparación con las familias acomodadas; podría tabular la cantidad mediana de dinero que reciben los niños por el primer diente en comparación con el décimo diente perdido. Su estudio podría tener todas las trampas de la ciencia. Sus resultados podrían ser replicables y estadísticamente significativos. Pero tu información no tiene sentido, porque no existe el Hada de los Dientes. Ha estado malinterpretando el comportamiento de los padres y las costumbres populares y las ha atribuido erróneamente como las acciones de un ser imaginario. Otras cosas inexistentes que he visto con frecuencia estudiadas son los puntos de acupuntura, los meridianos de acupuntura, los movimientos craneosacrales del cráneo y las fluctuaciones rítmicas en el líquido cefalorraquídeo, la fotografía de Kirlian y el campo de energía humana que los practicantes de toque terapéutico se han engañado pensando que están detectando y manipulando. Incluso ha habido ECA sobre homeopatía, lo cual es increíblemente tonto y no solo no funciona, sino que posiblemente no podría funcionar como se afirma.
Otro error frecuente es confiar en un diseño de investigación defectuoso, a menudo llamado “pragmático”. El diseño “A + B versus B” generalmente compara un tratamiento alternativo con la atención habitual más el tratamiento alternativo. Si agrega algo a la atención habitual, se garantiza que la combinación se verá mejor debido a las expectativas, la sugerencia, la atención adicional y la respuesta al placebo. Edzard Ernst ha criticado repetidamente ese diseño, por ejemplo en un ensayo entre sobrevivientes de cáncer con dolor musculoesquelético crónico, donde la electroacupuntura más la atención habitual y la acupuntura auricular más la atención habitual produjeron una mayor reducción del dolor que la atención habitual sola.
El cegamiento puede ser difícil, pero los ECA que omiten el cegamiento son sospechosos. En los estudios doble ciego, ni el paciente ni el proveedor saben si el paciente recibió el tratamiento de prueba o el placebo. En los estudios triple ciego, las personas que evalúan los resultados también están cegadas en cuanto al grupo en el que se encontraba el paciente.
A veces es difícil encontrar un placebo apropiado que los pacientes no puedan distinguir del real. La mejor manera de saber si es un buen control de placebo es lo que yo llamo una encuesta de salida: una vez finalizado el ensayo, se les pide a los sujetos que adivinen si habían estado en el grupo de tratamiento o en el grupo de placebo. Si pueden adivinar mejor que el azar, o el placebo no los engañó o la información se filtró de alguna manera a los participantes.
Dificultades de la investigación
John Ioannidis demostró que la mayoría de los hallazgos de investigación publicados son falsos. La investigación la realizan investigadores humanos, que son susceptibles a errores humanos. Para enumerar solo algunas de las muchas cosas que pueden salir mal:
- Los técnicos pueden manipular los datos de forma consciente o inconsciente para obtener los resultados que creen que quieren sus jefes.
- Datos fabricados: no se realizó ningún experimento; el investigador acaba de inventar datos.
- Es posible que haya errores de cálculo en las matemáticas o que se haya utilizado una prueba estadística incorrecta.
- Es posible que el protocolo publicado no se haya seguido correctamente.
- Es posible que los reactivos no se hayan almacenado correctamente.
- Fraude y mala conducta científica; no siempre se detecta, pero en 2014 se tuvieron que retirar 1000 estudios.
- Sesgo del experimentador.
- Mal cumplimiento de los sujetos.
- Los resultados son estadísticamente significativos, pero no clínicamente
- Los materiales de prueba pueden estar contaminados.
- Es posible que el equipo no se haya mantenido o calibrado correctamente.
- Incluso cuando los datos son buenos, los investigadores pueden haber llegado a una conclusión equivocada.
- Es posible que no se hayan corregido varios puntos finales.
Evitar errores
La revisión por pares no es perfecta, pero puede ayudar a detectar errores. Suele ser un error creer en un solo estudio que no ha sido replicado o corroborado por otros grupos de investigación. Incluso los buenos estudios preliminares son seguidos con demasiada frecuencia por estudios más grandes y mejores que revierten los hallazgos originales. Cuando varios estudios no están de acuerdo, se puede realizar una revisión sistemática o un metaanálisis para ayudar a esclarecer la verdad. Pero si los estudios revisados no son de alta calidad, puede ser una cuestión de basura que entra/basura que sale.
La ciencia es la mejor herramienta que tenemos para comprender la realidad, pero la llevan a cabo humanos falibles y los resultados pueden ser falsos o malinterpretados. La ciencia es difícil y complicada, ¡pero no te desesperes! Incluso con todos sus defectos, sigue siendo mucho más fiable que cualquier otra forma de conocimiento.