Złudzenie publikacyjne

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Złudzenie publikacyjne, tendencyjność publikacyjna, efekt szuflady – zafałszowanie naukowego obrazu rzeczywistości powstające wskutek wybiórczości w publikowaniu wyników naukowych. Może ono powstawać między innymi wówczas, gdy autorzy lub wydawcy nie interesują się wynikami, które uważają za mało interesujące lub niezgodne z ich poglądami, lub celowo ukrywają takie wyniki (stąd „efekt szuflady”)[1]. Wynika również z niezrozumienia lub nieintuicyjności metodologii weryfikacji zerowych hipotez statystycznych – obserwuje się, że wyniki zerowe są publikowane rzadziej od pozytywnych, na przykład w przeglądzie badań medycznych z 1987 roku trzykrotnie rzadziej[2]. Studiowanie literatury przedmiotu daje więc zniekształcony obraz proporcji badań, w których dane twierdzenie zostało potwierdzone i sfalsyfikowane[3][4]. Autorzy mogą więc pomijać raportowanie „nieudanych” badań i eksperymentów. Problem ten pogłębia dodatkowo dziennikarstwo popularnonaukowe, które dokonuje kolejnej, wybiórczej selekcji wyników badań, skupiając się w informacji publicznej na sensacyjnych rezultatach, i pomijając wyniki zerowe – jak demonstruje analiza z 2017 roku[5].

Przykładowo, badanie potwierdzające przewagę czynnika genetycznego nad czynnikiem środowiskowym w ludzkiej inteligencji zostałoby dopuszczone do publikacji w czasopiśmie naukowym, natomiast badanie, które nie wykazałoby takiej zależności, zostałoby uznane za „niekonkluzywne”, a tym samym niedopuszczone do publikacji. Wskutek tego wśród badaczy utrwaliłoby się nieudowodnione przekonanie o wyższym znaczeniu genów w ludzkiej inteligencji, podczas gdy w rzeczywistości połowa badań potwierdzałaby to twierdzenie, a połowa je obalała.

Metodą badawczą silnie narażoną na złudzenie publikacyjne jest podstawowa metaanaliza[6] – choć jednocześnie właśnie przy pomocy zaawansowanych narzędzi metaanalitycznych można wykrywać tendencyjność badań. Zjawisko to ma charakter samospełniającej się prognozy, gdyż czasopisma naukowe rzadko przyjmują do publikacji artykuły napisane na podstawie badań, które są jedynie replikacjami wcześniejszych[7]. Czasopismem naukowym, które publikuje głównie replikacje lub badania potwierdzające hipotezę zerową, jest Representative Research In Social Psychology[8].

Wykrywanie[edytuj]

Funnel plot z metaanalizy badań zagrożenia stereotypem, sugerujący obecność w literaturze tendencyjności, ze względu na obecność grup wyników wychodzących poza oczekiwany stopień symetrii
Funnel plot z metaanalizy badań zagrożenia stereotypem, sugerujący obecność w literaturze tendencyjności, ze względu na obecność grupy wyników odstających od oczekiwanej symetrii[9]

Tendencyjność publikacji można wykrywać poprzez stwierdzenie w statystykach metaanalitycznych rozbieżności z wynikającą z praw statystyki postacią wyników. Jednym z narzędzi do tego służących jest P-Curve, opierające się na sprawdzaniu, czy P-wartości badań mają konkretne oczekiwane rozkłady: w przypadku poprawnego rozpoznania istnienia (mocno prawoskośny) i nieistnienia (jednostajny) badanego zjawiska[10]. Innym przykładowym narzędziem jest funnel plot, testujący czy statystyki badawcze mają normalny, symetryczny rozkład wokół średniego wyniku, czy zachodzi jakieś niespodziewane zniekształcenie[11].

Przypisy[edytuj]

  1. Robert Rosenthal. The file drawer problem and tolerance for null results.. „Psychological Bulletin”, s. 638–641, 1979-05-01. DOI: 10.1037/0033-2909.86.3.638. ISSN 1939-1455. [dostęp 2017-01-05]. 
  2. K. Dickersin, S. Chan, T. C. Chalmersx, H. S. Sacks, H. Smith. Publication bias and clinical trials. „Controlled Clinical Trials”, s. 343–353, 1987-12-01. DOI: 10.1016/0197-2456(87)90155-3. [dostęp 2017-01-05]. 
  3. Witkowski 2009 ↓, s. 86
  4. Witkowski 2009 ↓, s. 85
  5. Publikacja w otwartym dostępie – możesz ją przeczytać Estelle Dumas-Mallet i inni, Poor replication validity of biomedical association studies reported by newspapers, „PLOS ONE”, 12 (2), 2017, e0172650, DOI10.1371/journal.pone.0172650, ISSN 1932-6203 [dostęp 2017-02-25].
  6. Witkowski 2009 ↓, s. 87
  7. Witkowski 2009 ↓, s. 88
  8. Witkowski 2009 ↓, s. 89
  9. K. Dickersin i inni, Publication bias and clinical trials, „Controlled Clinical Trials”, 4, 1987, s. 343–353, DOI10.1016/0197-2456(87)90155-3 [dostęp 2017-01-05].
  10. Uri Simonsohn, Joseph P. Simmons, Leif D. Nelson, Better P-Curves: Making P-Curve Analysis More Robust to Errors, Fraud, and Ambitious P-Hacking, A Reply to Ulrich and Miller, Rochester, NY: Social Science Research Network, 10 lipca 2015 [dostęp 2017-01-05].
  11. Matthias Egger, George Davey Smith, Martin Schneider, Christoph Minder. Bias in meta-analysis detected by a simple, graphical test. „BMJ”, s. 629–634, 1997-09-13. DOI: 10.1136/bmj.315.7109.629. ISSN 0959-8138. PMID: 9310563 (ang.). [dostęp 2017-01-05]. 

Bibliografia[edytuj]

  • Tomasz Witkowski: Zakazana Psychologia. T. I. Taszów: Biblioteka Moderatora, 2009.