Data Blue

データの海で遊んでます。

繰り返し測定がどれぐらい検出力を上げるのか

経時データ解析のパワーについて以前のブログで少し話題にしましたが、

mako-shark.hatenablog.com

このトピックで面白い論文を見たのでご紹介

www.ncbi.nlm.nih.gov

この論文では、二群間の差を比較する研究において、測定の繰り返し数が症例数に与える影響について検討しています。

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC280679/table/T2/?report=objectonly

測定間の相関係数が1に近くなる(測定結果がほとんど変わらない)と、繰り返し測定する意味がなくなりますので症例数を少なくすることもできません(0%に近くなります)。一方で測定間の相関係数が低い(値がばらつく)場合は、測定を繰り返すことで平均の精度が上がるので、症例数を減らすことができるということが示されています。

上記はBaseline測定なしの繰り返し測定ですが、Baselineのデータも測定しているともう少し症例数を減らせて、下記のような結果です。(このシミューレーションは、測定間の相関係数が割合低い(0.5)です。

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC280679/table/T4/?report=objectonly

ただ、臨床指標や検査値などはある程度測定間のばらつきは抑えられているでしょうから、現実的な設定としては症例数を半分ぐらいに減らすことができれば十分という気がします。

著者のおすすめは、繰り返し測定のコストにもよりますが、Baseline4回、Follow-upで7回ぐらいで十分なのではないかと言う事でした。

 

私もある検査値を経過中に繰り返し測定したデータを解析しています。二群間の変化の差を取るには経時的な繰り返し測定は必須なのですが、平均の差については、検出力に与える影響はこのようにあまり大きくないようです。縦断研究は横断研究と比較してオペレーションコストが10倍ぐらいかかる気がしますので、平均の差に興味があるのであれば、横断研究の症例数を増やすほうが安上がりではないかと最近は思っています。