Discussion about this post

User's avatar
Martin Bier's avatar

Goed stuk! Mooi zoals de statistische details zijn nageplozen. In 2014 was er een artikel in de Proceedings of the National Academy of Science. Daar is de peer review doorgaans strenger dan bij de PLoS. Dat artikel beschrijft hoe Nijmeegse onderzoekers 24 vrijwilligers rekruteerden. Twaalf van hen werden 10 dagen lang getraind in de Wim Hof Methode. De overige twaalf vormden de controlegroep. Wie bij welke groep terecht kwam was random. De fysiologische metingen lieten naderhand een gunstig effect zien van de Wim Hof Methode. Het grote probleem is natuurlijk dat het onmogelijk is om zulk onderzoek op een gedegen random dubbelblinde manier te doen. Mensen die bereid zijn 10 dagen op te offeren voor instructie in de Wim Hof Methode zijn hoogstwaarschijnlijk mensen die er sowieso al in geloven. Zulke confirmation bias bij de vrijwilligers zou wel eens van grote invloed kunnen zijn. Het zou mooi zijn als dat PNAS artikel op nauwgezette wijze onder de loep genomen zou worden. De statistiek in dat artikel ben ik bijvoorbeeld niet nagegaan.

Expand full comment
Tim Verlaan's avatar

"Bij dit soort onderzoeken moet je een statistisch model kiezen dat het beste past bij je data."

Even mieren neuken: je zou kunnen zeggen dat je een statistisch model moet kiezen dat het beste bij de *aard* van je data past. Maar data verzamelen, die bekijken (descriptieve statistieken w/e) en daar een statistisch model bij kiezen is niet de bedoeling. En een bron van veel p-hacking in mijn ervaring.

Expand full comment
9 more comments...

No posts