estadísticas de revisión

se identificaron cuatro mil noventa y cinco registros únicos, de los cuales 93 fueron revisados en texto completo (Ver Fig. 1). En total, se incluyeron 30 documentos en la revisión sistemática que representan 25 conjuntos únicos de orientación., La mayoría de las fuentes de orientación no identificaron explícitamente al público al que iban dirigidas y las orientaciones variaron en cuanto a su pertinencia para la salud pública. La tabla 2 presenta una visión general de todas las fuentes de orientación incluidas en la revisión, con fuentes de orientación más o menos relevantes para la salud pública identificadas, así como las que se aplicaron específicamente a los estudios exploratorios con un diseño aleatorizado.

Fig., 1

diagrama de Flujo

Tabla 2 Resumen de orientación

los Hallazgos de orientación

El se incluyó una guía reportado una amplia gama de recomendaciones sobre el proceso de realización y presentación de informes de estudios exploratorios., Los clasificamos en ocho temas que capturan: requisitos previos para realizar un estudio exploratorio, Nomenclatura, orientación para la evaluación de la intervención, orientación sobre el diseño del estudio de evaluación futuro, diseños adaptativos vs rígidos, criterios de progresión para estudios exploratorios, participación de las partes interesadas e informes.,

descripción narrativa de los temas

Tema 1: Requisitos previos para la realización de un estudio exploratorio

Cuando se menciona, las actividades previas incluyeron la determinación de la base de evidencia, el establecimiento de la base teórica para la intervención, la identificación de los componentes de la intervención, así como la modelización de la intervención con el fin de comprender cómo interactúan los componentes de la intervención e impactan en los resultados finales . Estas cuestiones se debatieron a menudo en el contexto del ciclo de desarrollo y evaluación de las intervenciones del MRC ., También se destacó la comprensión de cómo interactúan los componentes de la intervención con diversos entornos contextuales y la identificación de daños no deseados, así como posibles problemas de implementación. Hubo una falta de detalle al juzgar cuándo estas condiciones anteriores se cumplieron lo suficiente para pasar a un estudio exploratorio.

Tema 2: Nomenclatura

se utilizó una amplia gama de términos, a veces indistintamente, para describir estudios exploratorios, siendo el más común el ensayo / estudio piloto. El cuadro 3 muestra la frecuencia de los términos utilizados en las orientaciones, incluidos otros términos aprobados.,

Tabla 3 Frecuencia de nomenclatura utilizada

diferentes terminologías no parecen estar consistentemente asociadas con propósitos específicos del estudio (Ver Tema 3), como se ilustra en la Tabla 2. Los estudios «piloto» y «de viabilidad» se utilizaron a veces indistintamente, mientras que otros hicieron distinciones entre los dos según las características del diseño o los objetivos particulares ., Por ejemplo , algunos describieron los estudios piloto como una versión más pequeña de un futuro ECA que se ejecutaría en miniatura y a veces se asoció con un diseño aleatorio, pero no siempre . Por el contrario, los estudios de viabilidad fueron utilizados como un término general por Eldridge et al. con estudios piloto que representan un subconjunto de estudios de viabilidad: «sugerimos que los investigadores vean la viabilidad como un concepto global, con todos los estudios realizados en preparación para un estudio principal abierto a ser llamado Estudios de viabilidad, y con estudios piloto como un subconjunto de estudios de viabilidad.»(p. 18).,

Los estudios de viabilidad podrían centrarse en elementos concretos de intervención y diseño de ensayos que podrían no incluir la aleatorización . Los estudios piloto internos se consideraron principalmente como parte del ensayo completo y, por lo tanto, no se describen en la nomenclatura en la Tabla 3.

mientras que ninguna fuente declaró explícitamente que un estudio exploratorio debe centrarse en un área y no en la otra, los objetivos y los métodos asociados de los estudios exploratorios divergieron en dos temas separados. Se referían al examen de la intervención en sí o del diseño de la evaluación futura, y se detallan a continuación en los temas 3 y 4.,

Tema 3: orientación para la evaluación de la intervención

Las Fuentes de orientación respaldaron los estudios exploratorios con fines formativos (es decir, refinar la intervención y abordar las incertidumbres relacionadas con la implementación de la intervención), así como los objetivos sumativos (es decir, evaluar el impacto potencial de una intervención o su promesa ).

Refining the intervention and underlying theory

algunas orientaciones sugirieron que se podrían hacer cambios dentro de los estudios exploratorios para refinar la intervención y la teoría subyacente y adaptar el contenido de la intervención a un nuevo entorno ., Sin embargo, la orientación no era clara sobre lo que constituía cambios menores o mayores y las implicaciones para los criterios de progresión (véase el tema 6). Al hacer cambios en la intervención o teoría subyacente, algunas orientaciones recomendaron que esto se llevara a cabo durante el curso del estudio exploratorio (véase el tema 5). Otros destacaron el papel de utilizar un diseño de múltiples brazos para seleccionar el contenido de la intervención antes de una evaluación completa y para evaluar los posibles mecanismos de múltiples intervenciones diferentes o componentes de intervención ., Varias fuentes destacaron el papel de la investigación cualitativa en la optimización o refinación de una intervención, particularmente para comprender los componentes del modelo lógico y descubrir aspectos ocultos de la intervención importantes para obtener resultados .

implementación de la intervención

hubo acuerdo en una amplia gama de orientaciones en el sentido de que los estudios exploratorios podrían explorar las incertidumbres clave relacionadas con la implementación de la intervención, como la aceptabilidad, la viabilidad o la viabilidad. En particular, estos términos a menudo estaban mal definidos y se usaban indistintamente., La aceptabilidad fue considerada en términos de las reacciones de los receptores, mientras que otros también estuvieron atentos a la viabilidad desde la perspectiva de los proveedores de intervención, los proveedores y los profesionales de la salud . La implementación, la viabilidad, la fidelidad y la «practicidad» exploraron la probabilidad de poder entregar en la práctica lo que se pretendía . Estos fueron a veces referidos como objetivos dentro de una evaluación de procesos integrada que tuvo lugar junto con un estudio exploratorio, aunque el término evaluación de procesos nunca fue definido .,

se fomentó la investigación cualitativa para la evaluación de la aceptabilidad de la intervención o para la implementación (por ejemplo, a través de la observación no participante ). Se recomendó precaución con respecto a los grupos focales donde existe el riesgo de enmascarar puntos de vista divergentes . Otros recomendaron que se realizaran encuestas cuantitativas para examinar las tasas de retención y las razones de la deserción escolar . Además, varias fuentes enfatizaron la importancia de probar la implementación en una variedad de contextos, especialmente en grupos menos favorecidos socioeconómicamente, para examinar el riesgo de ampliar las desigualdades en salud .,

una fuente de orientación consideró si la aleatorización era necesaria para evaluar la aceptabilidad de la intervención, creyendo que esto era innecesario, pero también sugiriendo que podría «depender potencialmente de la preferencia entre las intervenciones ofrecidas en el ensayo principal» (; p. 9). Por lo tanto, las cuestiones de aceptabilidad de la intervención, particularmente dentro de los ensayos de múltiples grupos, pueden estar relacionadas con el equilibrio clínico y la aceptabilidad de los procedimientos de aleatorización entre los participantes .,

conveniencia de evaluar el impacto de la intervención

varias fuentes de orientación discutieron la necesidad de comprender el impacto de la intervención, incluidos los daños, beneficios o consecuencias no deseadas . Gran parte de la orientación se centró en las pruebas estadísticas de eficacia, con desacuerdo sobre la solidez de este objetivo, aunque también se recomendaron métodos cualitativos . Algunos condenaron las pruebas estadísticas de efectividad, ya que estos estudios a menudo tienen poca potencia, lo que conduce a estimaciones imprecisas y potencialmente engañosas de los tamaños de los efectos ., Otros argumentaron que una estimación del tamaño del efecto probable podría demostrar que la intervención estaba funcionando según lo previsto y no tenía daños graves no deseados y, por lo tanto, se podría utilizar para calcular la potencia para el juicio completo . La orientación posterior del MRC es más ambigua que la anterior, ya que establece que las estimaciones deben interpretarse con precaución, al tiempo que establece supuestos «seguros» de los tamaños de los efectos como requisito previo antes de continuar con una evaluación completa ., Las directrices del NIHR, que distinguían entre estudios piloto y de viabilidad, apoyaban la evaluación de un resultado primario en estudios piloto, aunque no está claro si esto sugiere que un piloto debe implicar una prueba inicial de cambios en el resultado primario, o simplemente que el resultado primario debe medirse de la misma manera que lo haría en una evaluación completa. Por el contrario, para los «estudios de viabilidad», indicó que un objetivo puede incluir el diseño de una medida de resultados que se utilizará en una evaluación completa.,

otros abogaron por la identificación de evidencia de efectividad potencial, incluyendo el uso de criterios de valoración provisionales o sustitutos , definidos como «variables variables en la ruta causal de lo que eventualmente podría ser el resultado primario en el futuro ECA definitivo, o resultados en puntos de tiempo tempranos, con el fin de evaluar el potencial de que la intervención afecte los resultados probables en el futuro ECA definitivo…» (p. 14).,

la aleatorización se implicó como una característica de diseño de los estudios exploratorios al estimar una estimación del tamaño del efecto de la intervención , ya que maximizó la probabilidad de que las diferencias observadas se deban a la intervención, con la orientación principalmente escrita a partir de la suposición inicial de que la evaluación completa tomará la forma de un ECA y la orientación se centró menos en estudios exploratorios para diseños cuasi-experimentales u otros., Para los estudios que tienen como objetivo evaluar la eficacia potencial utilizando un resultado sustituto o provisional, se recomendó el uso de un cálculo de tamaño de muestra estándar para garantizar una potencia adecuada, aunque se observó que este objetivo es raro en los estudios exploratorios .

Tema 4: orientación en torno al diseño de la evaluación futura

Las Fuentes abogaron sistemáticamente por evaluar la viabilidad de los procedimientos de estudio o estimar los parámetros de la evaluación futura. Las recomendaciones se detallan a continuación.,

evaluar la viabilidad del diseño de la evaluación futura

evaluar la viabilidad de los procedimientos de evaluación futuros se recomendó comúnmente para evitar problemas que podrían socavar la realización o aceptabilidad de la evaluación futura . Se sugirió una amplia gama de procedimientos que requerían evaluaciones de viabilidad , incluida la recopilación de datos , las estrategias de retención de los participantes , la aleatorización , los métodos de reclutamiento , la ejecución del Protocolo del ensayo completo, la disposición de los participantes a ser aleatorizados y los problemas de contaminación ., Hubo desacuerdo con respecto a la conveniencia de evaluar el cegamiento en estudios exploratorios , con una fuente señalando que el doble cegamiento es difícil cuando se ayuda a los participantes a cambiar su comportamiento; aunque la evaluación de un solo cegamiento puede ser posible .

se aprobaron métodos cualitativos, cuantitativos y mixtos para evaluar estos procesos. Como reflejo de la tendencia a que la orientación de los estudios exploratorios se limite a los estudios preparatorios de los ECA, el debate sobre el papel de la aleatorización en la fase de los estudios exploratorios figuró en gran medida en las orientaciones., La aleatorización dentro de un estudio exploratorio se consideró necesaria para examinar la viabilidad del reclutamiento, el consentimiento a la aleatorización, la retención, la contaminación o el mantenimiento del cegamiento en los grupos de control e intervención, los procedimientos de aleatorización y si todos los componentes de un protocolo pueden trabajar juntos, aunque la aleatorización no se consideró necesaria para evaluar la carga de resultados y la elegibilidad de los participantes ., Si bien hubo consenso sobre qué cuestiones podrían evaluarse a través de la aleatorización, las fuentes discreparon sobre si la aleatorización siempre debe preceder a un estudio de evaluación futuro, incluso si ese estudio futuro va a ser un ECA. La controversia parecía estar vinculada a la variación de la nomenclatura y los objetivos conexos. Por ejemplo, algunos definieron el estudio piloto como un estudio realizado en miniatura para probar cómo funcionan todos sus componentes juntos, dictando así un diseño aleatorio . Sin embargo, para los estudios de viabilidad, la aleatorización sólo era necesaria si reducía las incertidumbres en la estimación de los parámetros para la futura evaluación ., Del mismo modo, otras orientaciones destacaron que un estudio exploratorio (independientemente de la nomenclatura) debería abordar las principales incertidumbres y, por lo tanto, no depender de la aleatorización .

estimación de los parámetros del diseño de la evaluación futura

mientras que los métodos cualitativos se consideraron útiles para seleccionar los resultados y sus medidas adecuadas , la mayoría de las orientaciones se concentraron en Métodos Cuantitativos para estimar los tamaños de las muestras de la evaluación futura., Esto fue polémico debido a la posibilidad de sobre – o sub-estimación de los tamaños de muestra necesarios en una evaluación futura debido a la falta de precisión de las estimaciones de un pequeño piloto . No obstante, algunos argumentaron que la estimación del tamaño de la muestra a partir de las estimaciones del tamaño del efecto en un estudio exploratorio era útil si había poca literatura y el estudio exploratorio utilizaba el mismo diseño y resultado que la evaluación futura . Los ECA agrupados, que son comunes en las intervenciones de salud pública, fueron específicamente asignados como inadecuados para estimar los parámetros para los cálculos del tamaño de la muestra (p. ej., coeficientes de correlación entre grupos), así como tasas de contratación y seguimiento sin información adicional de otros recursos, porque se necesitaría un gran número de grupos y participantes individuales . Otros se refirieron a las «reglas empíricas» al determinar los tamaños de muestra en un estudio exploratorio con números que variaban entre 10 y 75 participantes por grupo de ensayo en estudios aleatorizados individualmente ., Varios también recomendaron la necesidad de considerar una diferencia significativa deseada en los resultados de salud de una evaluación futura y el tamaño de muestra apropiado necesario para detectar esto, en lugar de realizar cálculos de tamaño de muestra utilizando estimaciones del tamaño del efecto probable a partir de datos piloto .

un diseño aleatorizado se consideró innecesario para estimar los costos o seleccionar los resultados, aunque se valoró para estimar las tasas de reclutamiento y retención para los grupos de intervención y control ., Cuando las directrices indicaban la estimación de un tamaño de efecto apropiado para informar el tamaño de la muestra para una futura evaluación, se consideró necesario un diseño aleatorizado .

Tema 5: diseño flexible vs. fijo

Las fuentes indicaron que los estudios exploratorios podrían emplear un diseño rígido o flexible. Con este último, el diseño puede cambiar durante el curso del estudio, lo que es útil para hacer cambios en la intervención, así como en el diseño de la evaluación futura ., Aquí, los datos cualitativos pueden analizarse a medida que se recopilan, dando forma al proceso de estudio exploratorio, por ejemplo , el muestreo de los puntos de recolección de datos posteriores, y aclarando las implicaciones para la eficacia de la intervención .

por el contrario, se alentaron los estudios exploratorios fijos cuando se investigaron principalmente los parámetros y procesos de evaluación futuros . Puede ser que la nomenclatura utilizada en algunas orientaciones (por ejemplo, estudios piloto que se describen como versiones en miniatura de la evaluación) sugiera una distinción entre diseños más flexibles y diseños más estrictos., En algunas orientaciones no se mencionó si los cambios debían hacerse durante el curso de un estudio exploratorio o después, a fin de obtener el mejor diseño posible para la evaluación futura .

Tema 6: criterios de progresión para un estudio de evaluación futuro

se proporcionó poca orientación sobre lo que debe considerarse al formular criterios de progresión para continuar en un estudio de evaluación futuro., Algunos se centraron en las incertidumbres pertinentes de la viabilidad , mientras que otros destacaron aspectos específicos relativos a la eficacia en función de los costos , refinando hipótesis causales que se pondrían a prueba en una evaluación futura y cumpliendo los objetivos de contratación . Como se discutió en los temas 3 y 4, la prueba estadística de la eficacia y el uso de tamaños de efecto para los cálculos de potencia fueron advertidos por algunos, por lo que los criterios basados en los tamaños de efecto no se especificaron .

se dedicó una mayor discusión a cómo ponderar la evidencia de un estudio exploratorio que abordó múltiples objetivos y utilizó diferentes métodos., Algunos criterios de progresión explícitamente establecidos no deben juzgarse como umbrales estrictos, sino como directrices utilizando, por ejemplo, un sistema de semáforos con diferentes niveles de aceptabilidad . Otros destacaron un enfoque realista, alejándose de los Indicadores Binarios para centrarse en «lo que es factible y aceptable para quién y bajo qué circunstancias». A la luz de las dificultades que rodean la interpretación de las estimaciones de efectos, varias fuentes recomendaron que los hallazgos cualitativos de los estudios exploratorios deberían ser más influyentes que los hallazgos cuantitativos .,

curiosamente, hubo ambigüedad con respecto a la progresión cuando los hallazgos exploratorios indicaron cambios sustanciales en el diseño de intervención o evaluación. Las fuentes que consideraron este tema sugirieron que si se realizan «cambios extensos» o «modificaciones importantes» en cualquiera de ellos (tenga en cuenta que no especificaron lo que calificó como tal), los investigadores deberían regresar a las fases de desarrollo exploratorio o de intervención .,

‘alternativamente, en la fase de viabilidad, los investigadores pueden identificar problemas fundamentales con la intervención o la realización del ensayo y regresar a la fase de desarrollo en lugar de proceder a un ensayo completo.»(p. 1).

como se ha descrito anteriormente, sin embargo, el umbral en el que se determina que los cambios son «importantes» sigue siendo Ambiguo., Si bien las directrices actualizadas del MRC se trasladaron a un modelo más iterativo, aceptando que a veces puede ser necesario retroceder entre la viabilidad/experimentación y el desarrollo de la intervención, no hubo orientación sobre las condiciones en que debería tener lugar el movimiento entre estas dos etapas.

Tema 7: participación de los interesados

varias fuentes recomendaron una serie de interesados (P., los proveedores de intervención, los beneficiarios de la intervención, los representantes públicos, así como los profesionales que podrían utilizar la evidencia producida por el ensayo completo) participen en la planificación y ejecución del estudio exploratorio para garantizar que los estudios exploratorios reflejen las realidades del entorno de intervención . En particular, se recomendaron enfoques participativos basados en la comunidad ., Si bien muchos destacaron el valor de las partes interesadas en los comités directivos de ensayos y otros grupos de estudio similares , algunos advirtieron sobre el equilibrio entre los investigadores y las partes interesadas y también advirtieron en contra de que los investigadores confundan la participación de las partes interesadas con la investigación cualitativa .

‘aunque los representantes de los pacientes y del público en los equipos de investigación pueden proporcionar comentarios útiles sobre la intervención, esto no constituye una investigación cualitativa y puede no resultar en datos suficientemente sólidos para informar el desarrollo apropiado de la intervención.»(p. 8).,

Tema 8: presentación de informes de estudios exploratorios

recientemente se proporcionaron recomendaciones detalladas para la presentación de informes de estudios exploratorios en las nuevas directrices Consolidated Standards of Reporting Trials (CONSORT) de Eldridge et al. . Además, otras fuentes de orientación plantearon puntos recurrentes. En particular, se recomendó que los estudios exploratorios se publicaran en revistas revisadas por pares, ya que esto puede proporcionar información útil a otros investigadores sobre lo que se ha hecho, lo que no funcionó y lo que podría ser más apropiado ., Un estudio exploratorio también puede dar lugar a múltiples publicaciones, pero debe proporcionar referencia a otros trabajos realizados en el mismo estudio exploratorio . Varias fuentes de orientación también destacan que los estudios exploratorios deben etiquetarse adecuadamente en el título/resumen para facilitar la identificación; sin embargo, la nomenclatura sugerida varía según la orientación .

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *