Más de una forma de medir

Ben A. Williams, PhD, se debió a su desconfianza en los ensayos controlados aleatorios (ECA) de la manera difícil: Desarrolló un tipo de cáncer cerebral sin tratamiento probado.

Hubo ensayos aleatorios de varios enfoques, pero todos fueron fracasos, dice Williams, profesor emérito de psicología en la Universidad de California en San Diego. Y aunque varios medicamentos habían ayudado a un pequeño porcentaje de pacientes en ensayos de Fase II, dice, puede ser difícil obtener terapias que aún no han sido examinadas en ensayos de Fase III.

«La medicina básicamente decía que si no se hace de esta manera, no cuenta», dice Williams, describiendo las dificultades que sus médicos tuvieron para acceder a terapias que probablemente no lo ayudarían, pero podrían hacerlo. «El problema es la mentalidad de talla única para todos.»

Al igual que Williams, muchos otros psicólogos, así como investigadores médicos, cuestionan la suposición de los Institutos Nacionales de Salud, la Administración de Alimentos y Medicamentos y otros de que los ECA deben ser el estándar de oro para la investigación clínica. Si bien la metodología, que implica asignar aleatoriamente a los participantes a un grupo de tratamiento o de control, tiene sus fortalezas, dicen, también tiene serias limitaciones que a menudo se pasan por alto o se ignoran.

Debido a que los participantes del ensayo normalmente no representan a la población en su conjunto, por ejemplo, es posible que los resultados de los ECA no se apliquen de manera más general. E incluso si lo hicieran, es imposible decir a partir de un ECA qué subconjunto de participantes se benefició realmente de la intervención que se está estudiando.

Estos críticos no quieren rechazar los ECA por completo. Más bien, quieren complementar sus hallazgos con evidencia de otras metodologías, como estudios epidemiológicos, experimentos de un solo caso, el uso de controles históricos o simplemente experiencia clínica.

Fortalezas y debilidades

Nadie niega que los ECA tienen sus fortalezas.

» Los ensayos aleatorios hacen dos cosas que son muy raras entre otros diseños», dice William R. Shadish, PhD, profesor de ciencias psicológicas en la Universidad de California en Merced. «Producen una estimación del efecto que es imparcial y consistente.»Aunque Shadish es reacio a describir los RTC como el estándar de oro porque la frase connota perfección, se describe a sí mismo como un «gran fan» de la metodología.

«Si puedes hacer un ensayo aleatorizado», dice, «hazlo por todos los medios.»

Pero eso no siempre es posible. Por su propia naturaleza, dice, algunas preguntas no permiten la asignación aleatoria de participantes. Hacerlo podría ser poco ético, por ejemplo.

Incluso cuando los ECA son viables, es posible que no proporcionen las respuestas que los investigadores están buscando.

» Todo lo que hacen los ECA es demostrar que no se trata de aceite de serpiente», dice Williams. «No le dicen la información crítica que necesita, que es qué pacientes se van a beneficiar del tratamiento.»

Para tener en cuenta la heterogeneidad entre los participantes, explica, los ECA deben ser bastante grandes para lograr significación estadística. En lo que terminan los investigadores, dice, son las «tendencias centrales» de un gran número de personas, una medida que «no va a ser representativa de gran parte de nadie si se los mira como individuos.»

Ir más allá del contexto de un ECA en sí, y la aplicabilidad de los resultados a pacientes individuales se vuelve aún más problemática.

Por un lado, los participantes en los ECA tienden a ser una «población bastante enrarecida» que no es representativa de la población del mundo real a la que se dirigiría una intervención, dice Steven J. Breckler, PhD, director ejecutivo de la Dirección de Ciencias de APA.

«Piense en las personas que se presentan para los ensayos de medicamentos, pacientes que probablemente han probado todo lo demás y están desesperados por algún tipo de tratamiento», dice, y agrega que se ven más debilitados a medida que los investigadores eliminan a los posibles participantes con enfermedades comórbidas y similares. «¿ Los resultados de ese ensayo se generalizarán para ti y para mí? ¿O venimos de una población de personas que nunca se habrían inscrito en un ensayo para empezar?»

Los experimentos, dice Breckler, típicamente implican un equilibrio entre la validez interna — la capacidad de rastrear inferencias causales a la intervención — y la validez externa — la generalización de los resultados.

«Lo que la gente parece no reconocer es que el RCT perfecto está diseñado estrictamente teniendo en cuenta la validez interna», dice.

Los ECA pueden ser especialmente inadecuados para intervenciones psicológicas en comparación con intervenciones médicas, agrega Breckler. En contraste con los medicamentos que tienen un efecto bioquímico directo que es poco probable que varíe entre los individuos, dice, las intervenciones psicológicas tienden a interactuar con factores como el género, la edad y el nivel educativo.

Complementa Eca

nadie sugiere que los investigadores dan hasta Eca. En cambio, instan a complementar los ECA con otras formas de evidencia.

«La práctica basada en la evidencia debe basarse en una base de evidencia muy amplia y diversa», dice Breckler. «Los ECA serían una fuente, pero hay muchas otras fuentes.»Estas fuentes podrían incluir datos de ensayos de fase II, datos epidemiológicos, datos cualitativos e informes de campo de médicos que utilizan una intervención, dicen Breckler y otros.

Williams defiende el uso de controles históricos como fuente complementaria de información.

En esta metodología, los investigadores examinan los resultados de ensayos anteriores no aleatorizados para establecer una línea de base bruta. Luego comparan los resultados de ensayos posteriores no aleatorizados con ese parámetro de referencia.

El enfoque funciona, dice Williams, y agrega que el proceso permite probar muchas intervenciones en rápida sucesión. Ante los fracasos de los ECA para el tratamiento del glioblastoma, por ejemplo, los investigadores recurrieron al registro histórico y encontraron que solo el 15 por ciento de las personas con cáncer no tenían progresión de la enfermedad seis meses después de comenzar el tratamiento.

«Descubrieron que si agregas esto al tratamiento estándar, puedes aumentar ese número hasta un 25 por ciento y agregar dos cosas y aumentarlo hasta un 35 por ciento», dice. «Es una comparación cruda, sin duda, pero resulta ser una forma efectiva de hacer la investigación.»

La FDA aceptó, aprobando un medicamento para el tratamiento del glioblastoma no sobre la base de un ECA, sino en múltiples ensayos de fase II cuyos resultados fueron mejores que la norma histórica.

Los experimentos de un solo caso son otra fuente importante de evidencia, dice Alan E. Kazdin, PhD, ex presidente de APA y profesor de psicología y psiquiatría infantil en Yale. A diferencia de los ECA, que involucran a muchos sujetos y pocas observaciones, los diseños de un solo caso involucran muchas observaciones, pero a menudo pocos sujetos. En lugar de simplemente hacer una evaluación previa y posterior, el investigador evalúa el comportamiento de un individuo, un aula, incluso toda una escuela, a lo largo del tiempo.

Digamos que un paciente tiene un tic, dice Kazdin. En un diseño de un solo caso, el investigador observaría al paciente y establecería el número de tics por hora. El investigador entonces realizaría una intervención y observaría lo que sucede con el tiempo.

«Si solo hace una evaluación antes de un tratamiento y una evaluación después del tratamiento y compara el grupo que lo recibió con el grupo que no lo recibió, pierde la riqueza del cambio día a día, semana a semana, mes a mes», dice Kazdin, enfatizando que los diseños de un solo caso no son meros estudios de casos.

Para Kazdin, confiar excesivamente en los ECA significa perderse todo tipo de información valiosa. Piensa en el programa de telescopios de la nación, dice. El telescopio Hubble mira la luz visible. Otro telescopio observa los rayos X. Otro maneja los rayos gamma.

«El método que usas para estudiar algo puede influir en los resultados que obtienes», dice Kazdin. «Por eso, siempre quieres usar tantos métodos diferentes como puedas.»*

Rebecca A. Clay es escritora en Washington, D. C.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

More: