Błąd poznawczy

Z Wikipedii, wolnej encyklopedii

Błąd poznawczy – wzorzec nieracjonalnego spostrzegania rzeczywistości, mający wpływ na ludzkie postawy, emocje, rozumowanie lub zachowania (działania). Badaniem błędów poznawczych zajmują się nauki społeczne.

Historia badań[edytuj | edytuj kod]

Wzorce nieracjonalnego postrzegania rzeczywistości nie od razu były nazywane błędami poznawczymi, a od zauważenia i opisania mechanizmu do jego zdefiniowania i wyjaśnienia mijało czasami kilkaset lat. Na przykład filozof John Locke już w XVII wieku zauważył, że letnia woda może wydawać się raz gorąca, a raz zimna, w zależności od tego w jakiej wodzie (zimnej czy gorącej) trzymaliśmy wcześniej rękę[1]. Dopiero w XX wieku zdefiniowano to jako efekt kontrastu. A o efekcie wyświadczonej przysługi pisali wcześniej m.in. Benjamin Franklin[2] i Lew Tołstoj[3].

Badania nad czynnikami wpływającymi na percepcję[edytuj | edytuj kod]

Za początki naukowego zainteresowania tą tematyką uznaje się lata 50 XX wieku. Jerome S. Bruner i Leo Postman rozpoczęli wówczas badania nad tym, jak potrzeby, motywacja i oczekiwania wpływają na ludzką percepcję. Jak pisze J. Bruner w autobiografii to, co oni uznali za „psychologiczny fenomen” warty dalszych badań, prawie sto lat wcześniej Gustav Theodor Fechner, który również zauważył wpływ różnych czynników na ludzką percepcję, nazwał „błędem badania”" i dążył do wykluczenia go z wyników eksperymentów. Tych dwóch psychologów zapoczątkowało tym samym okres w psychologii zwany „nowym spojrzeniem” (New Look), stawianym w opozycji do dotychczasowego podejścia postulującego badanie procesów percepcji niezależnie od otaczającego świata i osoby, która ten świat spostrzega[4]. W swoich badaniach zauważyli oni między innymi, że dzieci, którym pokazuje się atrakcyjną zabawkę i tej samej wielkości zwykłe klocki, uważają zabawkę za większą od klocków, ponieważ ma ona dla nich większą wartość. Wartość tej zabawki dodatkowo rosła w sytuacji, gdy nie można było się nią bawić[a]. W trakcie kilku następnych lat kolejni badacze dokonywali podobnych odkryć: między innymi o tym, że stan organizmu wraz z bodźcami zewnętrznymi wpływał na percepcję określonego bodźca[5] lub o tym, że myślenie życzeniowe osób badanych wpływało na ich postrzeganie świata[6].

Naiwny naukowiec i ukryte teorie osobowości[edytuj | edytuj kod]

W latach 60, głównie pod wpływem teorii gier (a zwłaszcza jej założenia o racjonalności wyborów) pojawiły się próby tłumaczenia zauważonych nieracjonalności w myśleniu potocznym. Uznanie zyskała teoria przedstawiająca człowieka jako naiwnego naukowca (naive scientist), który tworzy własne teorie psychologiczne, a następnie sprawdza je w praktyce, choć z różnym skutkiem[7]. Sugerowano, że zwykły człowiek i naukowiec stosują te same reguły: operują pojęciami statystycznymi, stosują kanony Milla i podejmują racjonalne decyzje przynoszące im maksymalną użyteczność. Rozpowszechniły się ukryte teorie osobowości, których używano do opisu naiwnych reguł wnioskowania o cechach i zachowaniach ludzi na podstawie ograniczonych informacji[8]. W tym samym czasie Peter Wason prowadził badania nad selektywnością poszukiwanych informacji i nad testem selekcji, które doprowadziły potem do zdefiniowania błędu konfirmacji[9][10]. Ponieważ wnioski Wasona były sprzeczne z ideą człowieka jako naiwnego naukowca, więc jego badania stały się obiektem zainteresowań dopiero w latach 70.

Ocena prawdopodobieństwa i błędy przy podejmowaniu decyzji oraz pierwsze użycie nazwy błąd poznawczy[edytuj | edytuj kod]

Daniel Kahneman

Formalnymi autorami definicji błędu poznawczego są Daniel Kahneman i Amos Tversky. Zaczęło się od publikacji artykułu, w którym opisali oni między innymi wyniki eksperymentu nazywanego "problemem oddziału położniczego". W badaniu tym studenci dostawali informację, że w dużym szpitalu rodzi się około 60 dzieci dziennie, a w małym około 15 dzieci dziennie. Następnie pytano ich, w którym szpitalu będzie więcej takich dni w roku, w których urodzi się przynajmniej 60% chłopców. Około 1/3 studentów uważało, że takich dni będzie więcej w szpitalu większym, kolejna 1/3, że w szpitalu mniejszym, a reszta osób twierdziła, że nie będzie różnicy pomiędzy szpitalami[11]. Ten prosty problem statystyczny zapoczątkował kolejne badania. Rok później, w 1973 r. ci sami autorzy opublikowali kolejne dwa artykuły, pierwszy o podejmowaniu decyzji w warunkach niepewności[12]. Przedstawili w nim wyniki kilkunastu eksperymentów, w których trzeba było wykazać się pojęciami z zakresu rachunku prawdopodobieństwa, a wyniki pokazały, że nawet osoby z przygotowaniem merytorycznym (studenci po zajęciach statystyki) mają tendencję do popełniania podstawowych błędów wnioskowania. Nazwali oni m.in.: błąd nieregresyjnych przewidywań, złudzenie gracza oraz błąd koniunkcji. W drugim artykule opisali badania nad przypisywaniem większego prawdopodobieństwa zdarzeniom, które łatwiej przywołać do świadomości (heurystyka dostępności)[13]. Jako wytłumaczenie całości tych zjawisk zaproponowali pojęcie heurystyki jako uproszczonej reguły wnioskowania, czyli myślowego "pójścia na skróty", której stosowanie doprowadza do błędów poznawczych[14].

Te pierwsze publikacje zapoczątkowały cały szereg badań nad heurystykami i błędami poznawczymi, które wykroczyły poza psychologię i objęły również takie dziedziny jak ekonomia[15], medycyna czy politologia[16]. Były również inspiracją do stworzenia w 1979 r. stojącej w opozycji do teorii oczekiwanej użyteczności, teorii perspektywy[17], za którą Daniel Kahneman otrzymał w 2002 r. Nagrodę Nobla w dziedzinie ekonomii[18].

Rozwój badań[edytuj | edytuj kod]

Lata 80 i 90 zaowocowały dużą liczbą publikacji dotyczących błędów poznawczych. Z jednej strony kontynuowano badania nad heurystykami stosowanymi w podejmowaniu decyzji[19][20][21], z drugiej strony odkrywano (lub przypominano sobie) inne przykłady odchyleń od racjonalności, które definiowano jako błędy poznawcze. Tak stało się na przykład z efektem czystej ekspozycji Roberta Zajonca[22], fenomenem sprawiedliwego świata[23] czy efektem posiadania[24]. Obecnie jako błąd poznawczy traktuje się każdy w miarę stały wzorzec nieracjonalnego spostrzegania rzeczywistości.

Zobacz też[edytuj | edytuj kod]

Uwagi[edytuj | edytuj kod]

  1. Robert Cialdini w swojej książce "Wywieranie wpływu na ludzi" nazywa to regułą niedostępności.

Przypisy[edytuj | edytuj kod]

  1. L.H. Kushner: Contrast in judgments of mental health. ProQuest, 2008, s. 1. ISBN 978-0-549-91314-6.
  2. B. Franklin: Żywot własny (tłum. Julian Stawiński). Warszawa: Państwowy Instytut Wydawniczy, 1960, s. 130-131.
  3. L. Tołstoj: Wojna i pokój (e-book). Gdańsk: Tower Press, 2000, s. 93.
  4. J. S. Bruner: In search of mind: essays in autobiography. New York: Harper & Row, 1983. ISBN 0-06-015191-9. OCLC 9325266.
  5. H. Werner, S. Wapner. Toward a general theory of perception. „Psychological Review”. 59, s. 324-338, 1952. DOI: 10.1037/h0059673. 
  6. R. R. Blake, G. V. Ramsey: Perception: an approach to personality. New York: Ronald Press, 1951. OCLC 14653176.
  7. G. A. Kelly: A theory of personality: the psychology of personal constructs. New York: W. W. Norton, 1963. ISBN 0-393-00152-0. OCLC 445715.
  8. J.S. Bruner, D. Shaprio, R. Tagiuri: The meaning of traits in isolation and in combination. W: R.Tagiuri, L. Petrullo (red.): Person perception and interpersonal behavior. Stanford: Stanford University Press, 1958, s. 277-288. OCLC 194154.
  9. Peter C. Wason. On the failure to eliminate hypotheses in a conceptual task. „Quarterly Journal of Experimental Psychology”. 12 (3), s. 129–140, 1960. Psychology Press. DOI: 10.1080/17470216008416717. ISSN 1747-0226. 
  10. P. C. Wason: New horizons in psychology. Harmondsworth: Penguin, 1966.
  11. D. Kahneman, A. Tversky. Subjective probability: A judgment of representativeness. „Cognitive Psychology”. 3 (3), s. 430–454, 1972. DOI: 10.1016/0010-0285(72)90016-3. 
  12. D. Kahneman, A. Tversky. On the psychology of prediction. „Psychological Review”. 80, s. 237-251, 1973. DOI: 10.1037/h0034747. 
  13. A. Tversky, D. Kahneman. Availability: A heuristic for judging frequency and probability. „Cognitive Psychology”. 5 (2), s. 207–232, 1973. DOI: 10.1016/0010-0285(73)90033-9. 
  14. A. Tversky, D. Kahneman. Judgment under uncertainty: Heuristics and biases. „Science”. 185, s. 1124–1131, 1974. DOI: 10.1126/science.185.4157.1124. 
  15. Heuristics and Biases: Then and Now. W: T. Gilovich, D. Griffin: Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge: Cambridge University Press, 2002, s. 1–4. ISBN 978-0-521-79679-8. OCLC 316059575.
  16. Radosław Zyzik, Błędy poznawcze w decyzjach politycznych: perspektywa nowych mediów, [w:] M.K. Zwierżdżyński, M. Lakomy, K. Oświecimski (red.), Technopolityka w świecie nowych mediów, Kraków: Wydawnictwo Akademii Ignatianum & WAM, 2015, s. 289-320.
  17. D. Kahneman, A. Tversky. Prospect Theory: An Analysis of Decision under Risk. „Econometrica”. 47, s. 263-291, 1979. DOI: 10.2307/1914185. 
  18. Oficjalna strona Nagrody Nobla. [dostęp 2012-01-14].
  19. Robin. M. Hogarth: Judgement and choice: the psychology of decision. New York: J. Wiley, 1980. ISBN 0-471-27744-4. OCLC 6015897.
  20. D.Kahneman, P. Slovic, A. Tversky: Judgment under uncertainty: heuristics and biases. New York: Cambridge University Press, 1982. ISBN 0-521-24064-6. OCLC 7578020.
  21. J. Evans: Thinking and reasoning. London: Routledge & Paul, 1983. ISBN 0-7100-9460-4. OCLC 252039736.
  22. R. Bornstein. Exporuse and affect: Overview and meta-analysis of research, 1968-1987. „Psychological Bulletin”. 106, s. 265-289, 1989. DOI: 10.1037/0033-2909.106.2.265. 
  23. M. J. Lerner: The belief in a just world: a fundamental delusion. New York: Plenum Press, 1980. ISBN 0-306-40495-8. OCLC 6305068.
  24. R. Thaler. Toward a positive theory of consumer choice. „Journal of Economic Behavior and Organization”. 1, s. 39-60, 1980. DOI: 10.1037/h0031322. 

Bibliografia[edytuj | edytuj kod]

  • J. S. Bruner, J. M. Anglin, B. Mroziak: Poza dostarczone informacje: studia z psychologii poznawania. Warszawa: Państwowe Wydawnictwo Naukowe, 1978. OCLC 749758415.
  • M. Lewicka: Aktor czy obserwator: psychologiczne mechanizmy odchyleń od racjonalności w myśleniu potocznym. Warszawa: Polskie Towarzystwo Psychologiczne. Pracownia Wydawnicza, 1993. ISBN 83-900685-2-4. OCLC 749580611.
  • T. Tyszka: Psychologiczne pułapki oceniania i podejmowania decyzji. Gdańsk: Gdańskie Wydawnictwo Psychologiczne, 1999. ISBN 83-85416-95-1. OCLC 749621473.
  • S. Woll: Everyday Thinking: Memory, Reasoning, and Judgment in the Real World. Mahwah, N.J. : London : Lawrence Erlbaum, 2002. ISBN 0-8058-1481-7. OCLC 59498172.

Linki zewnętrzne[edytuj | edytuj kod]