Всех приветствую! Поделитесь, пожалуйста, опытом проведения промежуточного анализа с целью оценки SD (данные литературы для первичной конечной точки не внушают доверия). В частности, вопрос рисков проведения раннего анализа - не в середине исследования, а после набора 25% пациентов.
Чтобы увидеть, как это работает, перейдите на опубликованный сайт.
Поиск
Добрый день, Мария!
Правильно я понимаю, что цель промежуточного анализа не совсем оценка SD, а скорее переоценка размера выборки на основе измеренного SD?
На мой взгляд, достаточно хороший подход к переоценке без разослепления и без тестирования гипотез каких-либо. На практике я лично еще не сталкивался, но FDA об этом говорит (https://www.fda.gov/downloads/Drugs/.../Guidances/ucm201790.pdf): "In general, adequately prespecified adaptations based on non comparative data have a negligible effect on the Type I error probability. This makes them an attractive choice in many settings, particularly when uncertainty about event probabilities or endpoint variability is high."
Вот тут (https://peerj.com/preprints/1825.pdf) есть некоторые выжимки как раз по этому вопросу. EMEA об этом говорит следующее (https://www.ema.europa.eu/documents/scientific-guideline/reflection-paper-methodological-issues-confirmatory-clinical-trials-planned-adaptive-design_en.pdf): "Whenever possible, methods for blinded sample size reassessment that properly control the type I error should be used, especially if the sole aim of the interim analysis is the re-calculation of sample size."
В целом, надо понимать, что переоценка размера выборки НЕ ДОЛЖНА уменьшать планируемое количество и одна переоценка предпочтительнее нескольких.
Все что касается проведения на 25% пациентов - вопрос очень индивидуальный, т.к. это может быть и 5 и 200 пациентов, в зависимости от того сколько вообще планируется. В литературе не найти информации о минимальном адекватном количестве пациентов (устно произносится что-то вроде "30 пациентов") для оценки параметров (среднее, стандартное отклонение, коэффициент вариации и т.п.). Я думаю, что на 25% пациентов переоценка будет адекватнее, если количество этих 25% будет не менее 30 субъектов.
Второй вопрос - брать SD обеих групп вместе или наиболее консервативный вариант из 2-х заслепленных (т.е. мы не знаем, что чем является, но можем разделить на 2-е группы) - на счет возможности второго варианта нужно поискать информацию.
Есть хорошая статья здесь про переоценку РВ: https://www.nejm.org/doi/full/10.1056/NEJMra1510061
Пример описания в протоколе: https://www.nejm.org/doi/suppl/10.1056/NEJMoa1602014/suppl_file/nejmoa1602014_protocol.pdf https://www.nejm.org/doi/suppl/10.1056/NEJMoa1204133/suppl_file/nejmoa1204133_protocol.pdf
Литература об этом - "Mid-course sample size modification in clinical trials based on the observed treatment effect":
http://sci-hub.tw/10.1002/sim.1457
Надеюсь, написанное может помочь!
Андрей, приветствую! А что скажете про влияние такого подхода на достоверность полученного значения SD и вероятность его значимого изменения к финальному анализу? На мой взгляд, предложенный Вами ориентир "не менее 30 субъектов" может стать причиной слишком случайного значения...с неслучайными последствиями))
@Виктор, хороший вопрос, мой ориентир лучше читать как: "30 точно лучше, чем 20", но ведь 50 лучше чем 30 и т.д.
Тут же задача выглядит так: 1. Мы перед началом исследования оценили SD (каким-то образом) и это может стать причиной "последствий"
2. На промежуточном этапе проводится переоценка SD, которая может привести к увеличению размера выборки (уменьшать нельзя), уровень альфа не меняется, т.к. переоценка слепая, а SD может быть увеличено и, как следствие, размер выборки может быть увеличен
Т.е. я не очень понимаю почему именно 30 субъектов приведут к последствиям, а не исходное предположение, например.
Стандартное отклонение не очень-то зависит от размера выборки для ситуации "в вакууме", пример в R, который наглядно демонстрирует это:
set.seed(160187) # можно выбрать любой seed - он определяет случайное число
pop <- rnorm(1000000) # Это будет популяцией (с нормальным распределением и Mean=0, SD=1) из которой будем брать выборку
# Берем 100 выборок размером 100 субъектов и находим их SD
sdsamp100 <- vector('numeric', 100)
for(i in 1:100)
sdsamp100[i] <- sd(sample(pop,100))
sdsamp100 # Выводим результат
# Берем 100 выборок размером 30 субъектов и находим их SD
sdsamp30 <- vector('numeric', 100)
for(i in 1:100)
sdsamp30[i] <- sd(sample(pop,30))
sdsamp30 # Выводим результат
Можно попробовать разные seed и убедиться, что SD примерно одинаковы.
Что же повлияет на SD в реальной жизни? Выбросы и не нормальное распределение (во всяком случае, доказательств, что распределение нормальное у нас нет), возможны еще какие-то ковариаты типа "исследовательский центр" и т.п.
А так, Вы, конечно, правы, достоверность полученного значения SD и вероятность его значимого изменения к финальному анализу - вопрос требующий внимательного изучения и какого-то контекста, т.е. что за параметр изучается и в каких условиях.
Если речь о температуре тела при критерии включения "Температура тела выше 37,9" - это одна история и SD не превысит 5 точно, если речь о HIV RNA при критерии включения "наивные пациенты с подтверждением ВИЧ с помощью качественного теста", тогда при включении каждого следующего пациента SD для HIV RNA может меняться достаточно серьезно.
@Andrey Myslivets
Андрей, со всем сказанным согласен. Просто предыдущий пост, на мой взгляд, прозвучал с нотками «все хорошо прекрасная Маркиза»…точнее Мария :)
Вижу, что Вы биостатистик, поэтому и уточнил. Ведь мощность исследования чувствует себя в безопасности только за могучими плечами биостатистика, никто другой ее так старательно оберегать не будет)).
Как я понял, в случае Марии сдвинуть промежуточный анализ от классической «середины пути» хотят администраторы - люди далекие от стат анализа. И самым простым контраргументом для них будет, что SD при раннем анализе может оказаться «недостаточно точным». Упор можно сделать даже не на возможный fail (случайное завышение SD при промежуточном анализе), а на возможный излишний бюджет (случайное завышение SD).
Вы абсолютно правы, что все очень сильно зависит от изучаемого параметра. И, действительно, стандартное отклонение не так чувствительно к размеру выборки как стандартная ошибка среднего. Но это только если речь идет о достаточно больших выборках и идеальном эксперименте.
Вот пример моделирования зависимости расчетного значения SD от увеличения размера выборки (в модели использовано истинное значение среднего 3,9172, стандартное отклонение 0,72):
Между 30 и 100 пациентами может оказаться большая разница.
Ну и в клинических исследованиях есть множество «сюрпризов». Хороший озвученный Вами пример фактор центра – ситуация, когда алчные главные исследователи top enrollerЫ, готовые даже на фальстарт, сразу после начала КИ вырвутся в наборе далеко вперед. А голодные, но дотошные исследователи из глубинки активно вступят в работу уже во второй половине КИ.
Андрей, добрый день! Огромное спасибо за такой подробный ответ – внимательно изучу все материалы!
Да, цель – увеличение итогового размера выборки или остановка по бюджетной неприемлемости. Ранее мы уже проводили исследование с промежуточным анализом в середине набора (50%), никаких вопросов со стороны регулятора не было, был слепой анализ с оценкой общего SD, без коррекции альфы. Мы тогда угадали с SD и ничего не пересчитывали.
Сейчас на меня давят сверху, делая упор на бюджет :( Руководство боится кратного увеличения выборки (сейчас 25% это 56 пациентов). Поэтому хочется подстелить соломки и сразу озвучить возможные сложности/последствия.
Мария, для меня этот вопрос очень интересен, так что обязательно напишите, что Вы думаете, после ознакомления с документами. И вообще о результатах и решениях, если это возможно, конечно.
Наверное, еще одной важной деталью, которая не упоминалась в данной ветке напрямую, является вопрос куда планируется подача данного исследования. Речь же о Минздраве?