Czcionka:Mniejsze АаWiększe Aa

Daniel Kahneman

PUŁAPKI MYŚLENIA

O myśleniu szybkim i wolnym

Przełożył

Piotr Szymczak


Tytuł oryginału: THINKING, FAST AND SLOW

Copyright © 2011 by Daniel Kahneman. All rights reserved.

Copyright © for the Polish translation by Media Rodzina Sp. z o.o., 2012

Wszelkie prawa zastrzeżone. Przedruk lub kopiowanie całości albo fragmentów książki – z wyjątkiem cytatów w artykułach i przeglądach krytycznych – możliwe jest tylko na podstawie pisemnej zgody wydawcy.

Projekt okładki: Dorota Wątkowska

Wydanie I elektroniczne

Poznań 2012

ISBN 978-83-7278-710-1

Media Rodzina Sp. z o.o.

ul. Pasieka 24, 61-657 Poznań

www.mediarodzina.pl mediarodzina@mediarodzina.pl

Konwersja: eLitera s.c.

Spis treści

Wprowadzenie

Część I. Dwa systemy

1. Poznaj bohaterów opowieści

2. Uwaga i wysiłek

3. Leniwy kontroler

4. Maszyneria skojarzeniowa

5. Łatwość poznawcza

6. Normy, niespodzianki i przyczyny

7. Maszyna do wyciągania pochopnych wniosków

8. Skąd biorą się osądy

9. Odpowiadanie na łatwiejsze pytanie

Część II. Heurystyki i błędy (skrzywienia) poznawcze

10. Prawo małych liczb

11. Kotwice

12. Naukowe badanie dostępności umysłowej

13. Umysłowa dostępność, emocje i ryzyko

14. Co studiuje Tomasz W.

15. Linda: mniej znaczy więcej

16. Przyczyny mają pierwszeństwo przed statystykami

17. Powrót do średniej

18. Poskramianie prognoz intuicyjnych

Część III. Nadmierna pewność siebie

19. Złudzenie zrozumienia

20. Złudzenie trafności

21. Intuicja kontra wzory

22. Intuicja ekspertów: kiedy możemy jej ufać

23. Spojrzenie z zewnątrz

24. Motor kapitalizmu

Część IV. Wybory

25. Błędy Bernoulliego

26. Teoria perspektywy

27. Efekt posiadania

28. Zdarzenia niekorzystne

29. Cztery warianty stosunku do ryzyka

30. Zdarzenia rzadkie

31. Podejście do ryzyka

32. Mentalna punktacja

33. Odwracanie preferencji

34. Ramy interpretacyjne (framing) a rzeczywistość

Część V. Dwie jaźnie

35. Dwie jaźnie

36. Życie jako opowieść

37. Dobrostan doznawany

38. Jak myślimy o życiu

Wnioski

Załącznik A: Osądy w warunkach niepewności: heurystyki i błędy poznawcze

Załącznik B: Wybory, wartości i ramy interpretacyjne

Przypisy

Podziękowania

Pamięci Amosa Tversky’ego

Dokument chroniony elektronicznym znakiem wodnym

This ebook was bought on LitRes

Wprowadzenie

Chyba każdy autor zaczyna pracę z myślą o miejscu, w którym czytelnicy jego książki będą mogli zrobić z niej najlepszy użytek. Według mnie takim miejscem jest po prostu biurowa kuchnia, gdzie pracownicy wymieniają się opiniami i plotkami. Liczę, że uda mi się wzbogacić słownictwo, którym rozmawiamy o rozumowaniu i decyzjach innych osób, o nowej polityce firmy albo inwestycyjnych decyzjach znajomych.

Po co zawracać sobie głowę plotkami? Dlatego że znacznie łatwiej i przyjemniej jest zauważać i klasyfikować cudze błędy. Trudno jest kwestionować własne pragnienia i przekonania – zwłaszcza wtedy, kiedy naprawdę by nam się to przydało – jednak każdy może skorzystać na wysłuchaniu wyważonej cudzej opinii. Często sami z siebie zadajemy sobie pytanie, jak znajomi albo współpracownicy ocenią jakąś naszą decyzję, a zatem treść i trafność ich przypuszczalnej oceny nie jest dla nas bez znaczenia. Poczucie, że nasze postępowanie będzie przedmiotem inteligentnych plotek, o wiele bardziej pomaga we wnikliwej samoocenie niż noworoczne postanowienie, że odtąd będziemy już podejmować lepsze decyzje w pracy i życiu codziennym.

Żeby móc stawiać trafne diagnozy, lekarze muszą opanować obszerną terminologię związaną z różnymi chorobami. Każdy termin łączy jakieś schorzenie z charakterystycznymi objawami, przyczynami, przypuszczalnym podłożem, spodziewanym przebiegiem, możliwymi skutkami, a także leczeniem, które pozwoli wyleczyć chorobę albo złagodzić jej przebieg. Studiowanie medycyny to częściowo nic innego jak opanowywanie medycznego języka. Tak samo nie da się lepiej zrozumieć ludzkich decyzji i osądów, o ile nie będziemy dysponowali bogatszym słownictwem niż tylko potoczne. W przypadku inteligentnych plotek możemy sądzić, że błędy ludzkie cechują się wyraźnymi prawidłowościami. Takie systemowe błędy nazywamy błędami poznawczymi (biases) – w pewnych okolicznościach pojawiają się one w sposób przewidywalny. Kiedy np. na scenę energicznym krokiem wchodzi przystojny, pewny siebie mówca, można z góry przewidzieć, że widzowie ocenią jego wypowiedź lepiej, niż na to zasługuje. Dzięki temu, że dysponujemy diagnostyczną etykietą dla tego konkretnego błędu poznawczego (nazywamy go „efektem halo”), łatwiej go przewidzieć, rozpoznać i zrozumieć.

Kiedy ktoś pyta, o czym myślisz, zwykle potrafisz odpowiedzieć. Sądzisz, że wiesz, co się dzieje w twoim umyśle, w którym jedne świadome myśli często prowadzą w uporządkowany sposób do kolejnych. Jednak nie tylko tak działa umysł. Mało tego – taki sposób działania nie jest nawet dla umysłu typowy. Większość myśli i wrażeń pojawia się w świadomości, choć nie masz pojęcia, skąd się wzięły. Nie umiesz powiedzieć, skąd wzięło się twoje przekonanie, że masz na biurku lampę; ani jak to się dzieje, że podczas telefonicznej rozmowy wykrywasz irytację w głosie bliskiej osoby; ani jak udało ci się zrobić unik kierownicą, zanim zagrożenie w ogóle pojawiło się w twojej świadomości. Umysł wykonuje milczącą pracę, z której biorą się wrażenia, domysły i wiele naszych decyzji.

W tej książce często będziemy mówić o błędach poznawczych popełnianych przez intuicję. Jednak choć skupiam się na błędach, nie próbuję podważać wartości ludzkiej inteligencji – tak samo jak teksty medyczne o chorobach nie oznaczają, że nie istnieje zdrowie fizyczne. Podobnie jak większość ludzi na ogół pozostaje w dobrym zdrowiu, tak też nasze wnioski i działania są na ogół i w większości trafne. W życiowej wędrówce najczęściej pozwalamy, żeby kierowały nami wrażenia i odczucia, i zazwyczaj takie zaufanie do intuicyjnych przekonań i preferencji jest uzasadnione. Jednak nie jest tak zawsze. Często demonstrujemy pewność nawet wtedy, kiedy nie mamy racji, a obiektywny obserwator potrafi zauważyć nasze błędy częściej niż my sami.

 

Stąd cel, który sobie postawiłem w stosunku do rozmów w biurowej kuchni: chciałbym sprawić, abyśmy umieli lepiej zauważać i rozumieć błędy wpływające na wnioski i decyzje – błędy cudze, ale w ostatecznym rozrachunku również własne. W tym celu oddaję czytelnikom do dyspozycji bogatsze i bardziej precyzyjne słownictwo, pozwalające o tym rozmawiać. Przynajmniej w niektórych wypadkach trafna diagnoza być może podpowie nam interwencję, która ograniczy szkody wynikające z błędnych decyzji i wniosków.

Początki

W książce przedstawiam swoje aktualne rozumienie procesów wnioskowania i podejmowania decyzji. Na mój sposób myślenia wpłynęły odkrycia psychologiczne ostatnich dziesięcioleci, jednak najważniejsze idee miały początek pewnego dnia w 1969 roku, kiedy szczęśliwym trafem zaprosiłem na prowadzone przez siebie seminarium kolegę z Wydziału Psychologii Uniwersytetu Hebrajskiego i poprosiłem, żeby powiedział kilka słów studentom. Wiedziałem, że będzie ciekawie – Amos Tversky uchodził za wschodzącą gwiazdę badań nad procesami decyzyjnymi, a także każdej innej dziedziny, której się tknął. Wielu znajomych twierdziło, że nigdy w życiu nie spotkali równie inteligentnej osoby. Amos był błyskotliwy, charyzmatyczny i elokwentny. Miał doskonałą pamięć do dowcipów, które z wyjątkowym talentem wplatał do dyskusji. W jego towarzystwie nie można się było nudzić choćby przez moment. Amos miał wtedy trzydzieści dwa lata, ja trzydzieści pięć.

Amos opowiedział studentom o programie badawczym prowadzonym na Uniwersytecie Michigan, który miał przynieść odpowiedź na pytanie, czy ludzie mają dobrą intuicję statystyczną. Było już wtedy wiadomo, że ludzie mają świetną intuicję gramatyczną: czteroletnie dziecko bez trudu przestrzega zasad gramatyki, choć nie ma bladego pojęcia o ich istnieniu. Czy ludzie mają też intuicyjne wyczucie podstawowych zasad statystyki? Amos zreferował wyniki programu, z których wynikało, że owszem, mają – choć nie do końca. Na seminarium wywiązała się żywa dyskusja i w końcu doszliśmy do wniosku, że lepszą odpowiedzią byłoby, że nie, nie mają – choć nie do końca.

I ja, i Amos uczestniczyliśmy w dyskusji z przyjemnością. Uznaliśmy, że statystyka intuicyjna to ciekawa sprawa i fajnie byłoby przyjrzeć się jej bliżej we dwóch. W piątek poszliśmy na obiad do Café Rimon, ulubionego lokalu nauczycieli akademickich i jerozolimskiej cyganerii, i tam ułożyliśmy plan badania intuicji statystycznych, które zamierzaliśmy przeprowadzić na próbie złożonej z doświadczonych badaczy. W trakcie dyskusji na seminarium doszliśmy do wniosku, że nasze własne intuicje są omylne. Choć przez długie lata wykładaliśmy statystykę i posługiwaliśmy się nią w pracy naukowej, nie wyrobiliśmy w sobie intuicyjnego wyczucia, które pozwalałoby dobrze przewidywać wyniki statystyczne otrzymywane w małych próbach. Nasze subiektywne osądy były skrzywione: byliśmy zbyt skłonni przyjmować wyniki badań niemających odpowiedniego oparcia w danych eksperymentalnych, a we własnych badaniach gromadziliśmy za mało obserwacji[1]. Badanie, które zaplanowaliśmy, miało sprawdzić, czy ten sam problem dotyka również innych badaczy.

Przygotowaliśmy kwestionariusz z realistycznymi scenariuszami, w których pojawiały się typowe problemy statystyczne spotykane w badaniach naukowych. Amos zgromadził odpowiedzi ekspertów należących do Towarzystwa Psychologii Matematycznej, w tym autorów dwóch podręczników statystyki. Okazało się, jak zresztą przypuszczaliśmy, że nasi doświadczeni koledzy tak samo jak my wyraźnie przeceniają prawdopodobieństwo udanego powtórzenia wyników badania przeprowadzanego na niewielkiej próbie. Wymyślonej na potrzeby badania doktorantce udzielali bardzo niedobrych rad na temat tego, ile obserwacji powinna zgromadzić do rozprawy doktorskiej. Jak się okazało, dobrej intuicji statystycznej nie mają nawet statystycy.

Pracując z Amosem nad artykułem, w którym opisaliśmy wyniki badania, odkryliśmy, że wspólna praca sprawia nam przyjemność. Amos był zawsze bardzo dowcipny, a w jego obecności i ja się rozkręciłem, więc przez długie godziny solidnej pracy nie opuszczał nas świetny nastrój. Dzięki temu, że wspólna praca była dla nas przyjemnością, nabraliśmy też wyjątkowej cierpliwości; o wiele łatwiej dążyć do perfekcji, kiedy ani przez moment nie doskwiera ci nuda. Co być może najważniejsze, przed spotkaniami zostawialiśmy w szatni broń, jaką jest krytykanctwo. Obydwaj mieliśmy krytyczne usposobienie i lubiliśmy się spierać – Amos nawet bardziej niż ja – jednak przez wszystkie lata współpracy nie zdarzyło się, żeby któryś z nas z miejsca odrzucił jakiś pomysł drugiego. Przeciwnie, jedną z najprzyjemniejszych rzeczy we współpracy było to, że Amos często dostrzegał sedno moich mglistych pomysłów o wiele wyraźniej ode mnie. Jego sposób myślenia był bardzo logiczny i silniej osadzony w teorii, nieomylnie wyczuwał też, jak rozwinie się dany pomysł. Ja miałem podejście o wiele bardziej intuicyjne, zakorzenione w psychologii percepcji, z której zapożyczyliśmy wiele pomysłów. Byliśmy na tyle podobni, żeby się w lot rozumieć, ale też na tyle różni, że potrafiliśmy się zaskakiwać. Dużą część dnia spędzaliśmy na wspólnej pracy, często połączonej z długimi spacerami. Przez kolejne czternaście lat współpraca naukowa stała się najważniejszym punktem naszego życia. Już nigdy potem praca nie szła nam tak dobrze.

Szybko wypracowaliśmy sobie metodę, której potem trzymaliśmy się przez wiele lat. Nasza praca badawcza była rozmową, w której wymyślaliśmy pytania i wspólnie przyglądaliśmy się swoim intuicyjnym odpowiedziom. Każde pytanie stawało się małym eksperymentem i codziennie przeprowadzaliśmy ich bardzo wiele. Zadając sobie nawzajem pytania statystyczne, nie próbowaliśmy dawać prawidłowych odpowiedzi. Naszym celem było znajdowanie i analizowanie odpowiedzi intuicyjnych – tych, które przyszły nam do głowy pierwsze i których mieliśmy ochotę udzielić nawet wtedy, kiedy mieliśmy świadomość, że są błędne. Byliśmy przekonani – jak się później okazało słusznie – że jeśli dana intuicja narzuca się nam obu, to będzie ją również podzielać wiele innych osób i że łatwo będzie wykazać eksperymentalnie, jakie następstwa ma ona dla naszych osądów.

Któregoś dnia z zachwytem odkryliśmy, że mamy identyczne wyobrażenia na temat przyszłych zawodów kilkorga małych dzieci, które znaliśmy obydwaj. Potrafiliśmy wskazać trzyletnią prawniczkę (zawsze mającą własne zdanie), małego intelektualistę-profesora, empatycznego i nieco wścibskiego psychoterapeutę. Nasze przewidywania były rzecz jasna absurdalne, ale i tak wydawały się nam przekonujące. Było też jasne, że dokonując intuicyjnej oceny, kierujemy się tym, do jakiego stopnia charakter dziecka pasuje do kulturowych stereotypów związanych z określonym zawodem. Dzięki temu przyjemnemu ćwiczeniu umysłowemu udało nam się rozwinąć wykluwającą się nam wtedy w głowach teorię dotyczącą roli, jaką podobieństwo odgrywa w stawianiu prognoz. Potem przetestowaliśmy i udoskonaliliśmy naszą teorię w dziesiątkach eksperymentów podobnych do zamieszczonego poniżej.

Zastanów się nad odpowiedzią na następujące pytanie, biorąc pod uwagę, że Steve został dobrany losowo spośród reprezentatywnej próby obywateli:

Pewna osoba została następująco opisana przez sąsiada: „Steve jest bardzo nieśmiały i wycofany. Zawsze jest chętny do pomocy, ale nie interesuje się zbytnio ludźmi ani rzeczywistością. Jest człowiekiem porządnym i potulnym, ma potrzebę porządku i jasno określonej struktury, jest bardzo dbały o szczegóły”.

Co jest bardziej prawdopodobne – czy to, że Steve jest bibliotekarzem, czy to, że jest rolnikiem?

Prawie każdemu rzuca się w oczy, że osobowość Steve’a pasuje do osobowości stereotypowego bibliotekarza. Jednak prawie zawsze ignorujemy przy tym równie ważne kwestie statystyczne. Na przykład, czy przyszło ci do głowy, że na każdego bibliotekarza w Stanach Zjednoczonych przypada ponad dwudziestu rolników? Biorąc pod uwagę tak ogromną przewagę liczebną rolników, jest niemal pewne, że więcej ludzi „porządnych i potulnych” znajdziemy za kierownicą traktora niż za bibliotecznym biurkiem. A mimo to okazało się, że uczestnicy naszych eksperymentów ignorowali stosowne fakty statystyczne, opierając się wyłącznie na zgodności charakteru ze stereotypem. Wysnuliśmy stąd wniosek, że przy podejmowaniu trudnych ocen ludzie używają podobieństwa (zgodności) jako upraszczającej heurystyki[2], czyli czegoś w rodzaju zasady „pi razy drzwi”. Używanie tej metody heurystycznej sprawia, że prognozy są obciążone dającym się przewidzieć skrzywieniem poznawczym (błędem systemowym).

Innym razem zastanawialiśmy się z Amosem nad odsetkiem rozwodów wśród profesorów naszej uczelni. Zauważyliśmy, że kiedy zadajemy sobie takie pytanie, w pamięci uruchamia nam się proces wyszukiwania rozwiedzionych profesorów, których znaliśmy osobiście albo ze słyszenia, a następnie oceniamy liczność kategorii na podstawie tego, jak łatwo było nam sobie przypomnieć odpowiednie przykłady. To poleganie na łatwości przywołania pamięciowego nazwaliśmy „heurystyką dostępności”. W jednym z badań poprosiliśmy uczestników o odpowiedź na proste pytanie dotyczące wyrazów[3] w typowym tekście angielskim:

Odpowiedz na następujące pytanie dotyczące litery K.

Co jest bardziej prawdopodobne: czy to, że litera K pojawi się jako pierwsza litera wyrazu, CZY że pojawi się jako trzecia?

Jak wiadomo każdemu, kto grał w scrabble, o wiele łatwiej wymyślić wyraz zaczynający się na daną literę niż taki, w którym ta sama litera pojawia się jako trzecia. Dzieje się tak niezależnie od litery, o którą chodzi. Dlatego spodziewaliśmy się, że respondenci przeszacują częstotliwość pojawiania się liter na początku wyrazu, nawet takich, które w języku angielskim częściej występują na trzeciej pozycji w wyrazie (np. K, L, N, R czy V). Poleganie na heurystyce dostępności w tym wypadku wprowadza przewidywalne skrzywienie ocen. Niedawno zacząłem np. powątpiewać, czy słusznie mi się od dawna wydaje, że politycy znacznie częściej dopuszczają się cudzołóstwa od lekarzy czy prawników. Zdążyłem sobie nawet wymyślić różne wyjaśnienia tego „faktu”, np. takie, że władza działa niczym afrodyzjak, a życie z dala od domu wiąże się z pokusami. W końcu uświadomiłem sobie jednak, że media częściej nagłaśniają występki polityków niż prawników czy lekarzy. Być może mój intuicyjny wniosek bierze się tylko z tego, jakie tematy wybierają dziennikarze, w połączeniu z oddziałującym na mnie efektem heurystyki dostępności.

Poświęciliśmy z Amosem kilka lat na badanie i dokumentowanie intuicyjnych błędów poznawczych dotyczących rozmaitych zadań – szacowania prawdopodobieństwa rozmaitych zdarzeń, prognozowania przyszłości, oceniania hipotez czy oceniania częstotliwości. W piątym roku współpracy przedstawiliśmy nasze główne ustalenia do publikacji w „Science”, tygodniku czytywanym przez naukowców z wielu różnych dyscyplin. Nasz artykuł (który zamieszczam w całości pod koniec książki) był zatytułowany Judgment Under Uncertainty: Heuristics and Biases [Podejmowanie decyzji w warunkach niepewności: heurystyki i błędy poznawcze]. Opisaliśmy w nim skróty i uproszczenia, którymi się posługujemy w myśleniu intuicyjnym, i wyjaśniliśmy naturę mniej więcej dwudziestu błędów poznawczych, wykazując, że są one przejawem omawianych heurystyk i ilustrują rolę, jaką heurystyki odgrywają w procesach decyzyjnych.

Historycy nauki często zwracali uwagę na fakt, że w dowolnym okresie historycznym uczeni zajmujący się określoną dyscypliną są zgodni co do pewnych podstawowych założeń dotyczących ich dziedziny. Socjolodzy nie są wyjątkiem; oni także opierają się w pracy na określonej wizji natury ludzkiej, która rzadko jest podawana w wątpliwość, a sama staje się z kolei podstawą większości badań konkretnych zachowań. W latach siedemdziesiątych XX wieku socjolodzy przyjęli dwie ogólne idee dotyczące ludzkiej natury. Pierwsza dotyczyła tego, że ludzie na ogół działają racjonalnie, a ich myślenie jest zazwyczaj prawidłowe. Druga mówiła, że za odchylenia od racjonalności w większości przypadków odpowiadają takie emocje jak strach, sympatia czy nienawiść. Nasz artykuł pośrednio podważył obydwa założenia. Udokumentowaliśmy systemowe błędy w myśleniu normalnych ludzi i wykazaliśmy, że ich przyczyny nie wynikają z zaburzenia myślenia przez emocje, lecz są wpisane w samą konstrukcję mechanizmów poznawczych.

 

Zainteresowanie artykułem przeszło nasze oczekiwania – do dzisiaj jest on jedną z najczęściej cytowanych prac socjologicznych (w 2010 roku powołano się na niego w ponad trzystu artykułach naukowych). Idea okazała się przydatna także w innych dyscyplinach: pojęcia „heurystyk” i „błędów poznawczych” znalazły zastosowanie m.in. w takich dziedzinach, jak diagnostyka medyczna, oceny prawne, analiza danych wywiadowczych, filozofia, statystyka oraz strategia wojskowa.

Na przykład badacze polityki społecznej zauważyli, że heurystyka dostępności pomaga wyjaśnić, dlaczego jedne zagadnienia społeczne są przez opinię publiczną odbierane jako niezwykle znaczące, a inne są lekceważone. Ludzie najczęściej oceniają ważność kwestii społecznych na podstawie tego, jak łatwo jest im przywołać z pamięci jakieś przykłady – to zaś w dużej mierze zależy od tego, ile uwagi danej kwestii poświęcają media. Często poruszane tematy tkwią w naszym umyśle, inne zaś usuwają się ze świadomości. Z kolei dobór tematów medialnych zależy od tego, co zdaniem mediów interesuje w danej chwili opinię publiczną. Nieprzypadkowo reżimy autorytarne wywierają silną presję na niezależne media. Ponieważ zainteresowanie opinii publicznej najłatwiej wzbudzają dramatyczne wydarzenia oraz celebryci, wokół chodliwych tematów często rozpętuje się medialny cyrk. Na przykład przez kilka tygodni po śmierci Michaela Jacksona praktycznie nie dało się znaleźć kanału telewizyjnego, na którym mówiłoby się o czymkolwiek innym. Za to niewiele wspomina się w mediach o kwestiach istotnych, ale mniej dramatycznych, takich jak spadająca jakość edukacji czy fakt, że największe kwoty w służbie zdrowia przeznacza się na leczenie pacjentów w ostatnim roku ich życia (nawiasem mówiąc, nawet pisząc te słowa, uświadamiam sobie, że mój dobór „przemilczanych” tematów również opiera się na umysłowej dostępności – o wspomnianych przeze mnie kwestiach mówi się często; inne kwestie, równie ważne, ale rzadziej poruszane, nawet nie przyszły mi do głowy).

Choć wtedy nie uświadamialiśmy sobie tego do końca, najważniejszą przyczyną, dla której pojęcia heurystyk i błędów poznawczych odbiły się tak szerokim echem poza psychologią, była zupełnie przypadkowa cecha naszych publikacji: otóż prawie zawsze zamieszczaliśmy pełny tekst pytań, które stawialiśmy sobie i naszym respondentom. Pytania miały pokazywać czytelnikom, jak wielką przeszkodę w myśleniu stanowią błędy poznawcze. Mam nadzieję, że sam się o tym przekonałeś, czytając pytanie na temat bibliotekarza Steve’a, które miało demonstrować, jak silnie umysłowa dostępność wpływa na szacowanie prawdopodobieństwa, a także pokazać, jak łatwo ignorujemy ważne fakty statystyczne. Dzięki temu, że używaliśmy takich właśnie demonstracji, uczeni z różnych dziedzin – zwłaszcza filozofowie i ekonomiści – mieli niecodzienną okazję zaobserwować usterki we własnym rozumowaniu. Widząc, jak często sami popełniają błędy, byli bardziej skłonni zakwestionować obowiązujący wtedy dogmat, jakoby ludzki umysł był racjonalny i logiczny. Nasz wybór metody okazał się zasadniczy: gdybyśmy zgodnie z naukową konwencją ogłosili wyłącznie wyniki eksperymentów, artykuł nie zapadałby w pamięć i nie zwróciłby na siebie większej uwagi. Co więcej, sceptyczni czytelnicy zdystansowaliby się od naszych wyników, uznając, że przyczyną błędnych osądów wśród badanych była powszechnie znana gapiowatość studentów, bo właśnie studenci biorą zwykle udział w podobnych badaniach. Oczywiście nie dlatego postanowiliśmy zamieszczać pytania badawcze w publikacji, żebyśmy pragnęli dotrzeć z wynikami do filozofów czy ekonomistów. Wybraliśmy taką formułę demonstracji dlatego, że tak było fajniej – jak to często bywa, nasz wybór metodologii był kwestią szczęśliwego trafu. W tej książce często będzie pojawiać się myśl, że w historii każdego sukcesu dużą rolę odgrywa szczęście; prawie zawsze w takiej historii łatwo wskazać drobną zmianę, która zamieniłaby osiągnięcie nadzwyczajne w po prostu mierne. Nasza historia nie jest żadnym wyjątkiem.

Nie wszyscy zareagowali na nasze publikacje pozytywnie. Zwłaszcza krytykowano nas za to, że skupiliśmy się na błędach poznawczych, co mogłoby sugerować, że mamy zbyt negatywne wyobrażenie o ludzkim umyśle[4]. Jak to bywa w nauce, niektórzy badacze udoskonalili nasze idee, inni przedstawili wiarygodne alternatywy[5], jednak ogólna idea – że umysł ludzki jest podatny na systemowe błędy – jest obecnie przyjmowana powszechnie. Nasze badania nad osądami wpłynęły na świat nauki w znacznie większym stopniu, niż mogliśmy sobie wyobrazić.

Po wykazaniu, jak przebiega proces formowania osądów, natychmiast skupiliśmy uwagę na decyzjach podejmowanych w warunkach niepewności. Naszym celem było opracowanie psychologicznej teorii opisującej, w jaki sposób podejmujemy decyzje, kiedy podejmujemy proste zakłady hazardowe. Na przykład: czy przyjąłbyś zakład o rzut monetą, jeśli orzeł oznaczałby dla ciebie wygraną 130 dolarów, a reszka stratę 100 dolarów? Takich elementarnych wyborów używano w badaniach już dużo wcześniej; badano w ten sposób ogólne kwestie związane z podejmowaniem decyzji, na przykład jakie relatywne wagi przypisujemy rezultatom pewnym, a jakie niepewnym. Nasza metoda była taka sama: najpierw wiele dni zajmowało nam wymyślenie odpowiednio trudnych wyborów, a następnie badaliśmy, czy odpowiedź zgodna z intuicją będzie zgodna również z logiką. Nie inaczej niż w przypadku osądów, tu także zaobserwowaliśmy, że w naszych decyzjach pojawiają się systemowe błędy poznawcze, czyli że odpowiedzi intuicyjne regularnie łamią reguły racjonalnego wyboru. Pięć lat po opublikowaniu artykułu w „Science” wydaliśmy Prospect Theory: An Analysis of Decision Under Risk [Teoria perspektywy: analiza decyzji podejmowanych w warunkach ryzyka], gdzie sformułowaliśmy teorię wyborów, która pod pewnymi względami okazała się bardziej wpływowa niż nasze prace nad osądami i stała się jedną z podstaw ekonomii behawioralnej.

Dopóki odległość między naszymi miejscami zamieszkania nie uniemożliwiła dalszej współpracy, cieszyliśmy się z Amosem nadzwyczajnym uśmiechem fortuny – wspólną pracą umysłową, która przynosiła lepsze wyniki niż praca każdego z osobna, a także przyjaźnią, dzięki której wspólna praca była nie tylko produktywna, ale i przyjemna. Dzięki współpracy nad procesami oceny i podejmowania decyzji zdobyłem w 2002 roku Nagrodę Nobla[6], którą otrzymałby także Amos, gdyby nie to, że w 1996 roku zmarł w wieku 59 lat.

Gdzie jesteśmy teraz

W tej książce nie próbuję prezentować wczesnych badań, które przeprowadziliśmy z Amosem – tego zadania z powodzeniem podjęli się w ostatnich latach inni. Za cel stawiam sobie głównie przedstawienie pewnej wizji funkcjonowania umysłu, która czerpie z najnowszych osiągnięć psychologii społecznej i poznawczej. Jednym z ważniejszych dokonań w tej dziedzinie jest to, że udało nam się zrozumieć niezwykłe możliwości i wady myślenia intuicyjnego. Z Amosem nie zajmowaliśmy się domysłami (intuicjami) trafnymi – stwierdziliśmy tylko ogólnie, że heurystyki osądów są „dość przydatne, choć czasem prowadzą do poważnych i systemowych błędów”. Woleliśmy się skupić na błędach poznawczych z dwóch powodów: po pierwsze uznaliśmy, że takie błędy są ciekawe same w sobie, a po drugie dostarczały nam danych na temat heurystyk osądów. Nie zadawaliśmy sobie pytania, czy każdy osąd intuicyjny podejmowany w warunkach niepewności będzie wytworem heurystyk, które badaliśmy; dzisiaj już wiadomo, że tak nie jest. Zwłaszcza trafne oceny intuicyjne ekspertów można lepiej wyjaśnić skutkami długoletniej praktyki[7] niż działaniem heurystyk. Obecnie umiemy już nakreślić obraz bardziej szczegółowy i wyważony, w którym fachowe umiejętności oraz heurystyki stanowią alternatywne źródła wyborów i osądów intuicyjnych.

Psycholog Gary Klein przytacza historię załogi strażackiej interweniującej w domu, w którym płonęła kuchnia[8]. Strażacy zaczęli pompować do kuchni wodę, jednak po chwili dowódca, sam nie wiedząc dlaczego, wrzasnął: „Uciekamy!”. Dosłownie chwilę po tym, jak ostatni strażak opuścił budynek, zarwała się podłoga. Dopiero po fakcie dowódca uświadomił sobie, że w czasie interwencji w uszy biło mu nietypowe gorąco, a pożar był zaskakująco cichy. Te dwa wrażenia obudziły w nim coś, co nazwał „szóstym zmysłem niebezpieczeństwa”. Wiedział, że coś jest nie tak, choć nie miał pojęcia co. Jak się później okazało, ognisko pożaru znajdowało się nie w kuchni, ale w piwnicy, poniżej miejsca, w którym stali strażacy.

Wszyscy słyszeliśmy podobne opowieści na temat eksperckiej intuicji: o arcymistrzu szachowym przechodzącym obok ludzi rozgrywających partię szachów w parku, jak mimochodem rzuca: „Białe mają mata w trzech ruchach”, albo o lekarzu, który na pierwszy rzut oka postawił skomplikowaną diagnozę. Ekspercka intuicja robi wrażenie czegoś magicznego, ale nie ma nic wspólnego z magią. Przeciwnie: codziennie każdy z nas dokonuje wielu podobnych wyczynów intuicyjnej fachowości. Większość z nas ma słuch absolutny, który pozwala nam wykryć od pierwszego słowa gniew w głosie dzwoniącej do nas osoby; większość z nas, wchodząc do pokoju, potrafi się domyślić, że przed chwilą o nas rozmawiano; większość z nas szybko reaguje na subtelne oznaki sugerujące, że kierowca jadący sąsiednim pasem może stanowić zagrożenie. Takie powszednie intuicyjne zdolności są równie zdumiewające jak nagłe olśnienia doświadczonego lekarza czy strażaka – tyle tylko, że zdarzają się częściej.

Psychologia trafnych intuicji to żadne czary. Bodaj najlepiej ujął to wielki Herbert Simon, który przyglądając się mistrzom szachowym[9], udowodnił, że po tysiącach godzin ćwiczeń zaczynają inaczej postrzegać figury na szachownicy. W słowach Simona wyraźnie pobrzmiewa zniecierpliwienie z powodu mitologizowania intuicji ekspertów: „Sytuacja dostarcza wskazówki; wskazówka daje ekspertowi dostęp do przechowywanych w pamięci informacji; informacje dostarczają odpowiedzi. Intuicja to ni mniej, ni więcej tylko akt rozpoznania”[10].

Nie dziwi nas, że dwuletnie dziecko patrzy na psa i mówi „piesio”, bo opatrzył nam się cud dziecięcego procesu rozpoznawania i nazywania przedmiotów. Herbert Simon stwierdza, że cuda eksperckiej intuicji są tego samego rodzaju. Trafny domysł pojawia się wówczas, kiedy ekspert opanuje sztukę rozpoznawania znajomych elementów w nowej sytuacji i reaguje odpowiednim działaniem. Trafne osądy intuicyjne narzucają się umysłowi eksperta w tak samo oczywisty sposób, jak dziecku słowo „piesio”.

Niestety, w środowisku biznesu i wolnych zawodów osądy intuicyjne nie zawsze biorą się z autentycznej fachowości. Wiele lat temu odwiedziłem dyrektora inwestycyjnego w dużej instytucji finansowej, który powiedział mi, że zainwestował dziesiątki milionów dolarów w akcje spółki Ford Motor Company. Kiedy zapytałem, w jaki sposób doszedł do takiej decyzji, odpowiedział, że był niedawno na targach samochodowych i firma zrobiła na nim kolosalne wrażenie. „Słowo daję – wyjaśnił – kto jak kto, ale ci ludzie znają się na robieniu samochodów!”. Nie mogło być cienia wątpliwości, że dyrektor ufa własnemu instynktowi i jest zadowolony z siebie i z podjętej decyzji. To, co mi się wydało nadzwyczajne, to fakt, że dyrektor wydawał się nie brać pod uwagę najważniejszej kwestii, na którą powinien zwrócić uwagę ekonomista: czy akcje Forda są niedocenione w stosunku do rzeczywistej wartości? Zamiast tego dyrektor posłuchał swojej intuicji: podobały mu się samochody, podobała mu się firma i spodobał mu się pomysł, żeby kupić jej akcje. Na podstawie tego, co wiemy na temat inwestowania w akcje, mamy prawo uznać, że ten człowiek autentycznie nie wiedział, co robi.