Między dobrobytem a szczęściemTekst

0
Recenzje
Oznacz jako przeczytane
Jak czytać książkę po zakupie
Czcionka:Mniejsze АаWiększe Aa

1.3. Dlaczego ekonomiści nie mogą przewidzieć kryzysów gospodarczych?

Czy rzeczywiście jest tak źle z tym przewidywaniem w ekonomii?

Ekonomia jest postrzegana jako nauka, która boryka się ze swoją słabością na polu przewidywania określonych zdarzeń gospodarczych. Obejmuje to zarówno kwestie wydawać by się mogło proste (Czy ceny cukru w najbliższym czasie wzrosną, czy spadną? Czy dane przedsiębiorstwo będzie rentowne, czy nie? Czy warto inwestować w polskie obligacje?), jak i te bardziej złożone (Jaki będzie na koniec roku 2020 kurs franka szwajcarskiego do euro? Ile wyniesie zmiana PKB Polski?). W każdym z tych przypadków, jeśli porównać prognozy do rzeczywistych, odnotowanych wartości, wychodzi na to, że ekonomiści, którzy trafili z prognozami, chyba po prostu mieli szczęście. Po co nam zatem nauka, której przewidywania mają wartość zakładu w ruletce, a nawet niższą (bo tam przynajmniej można precyzyjnie oszacować wyniki przy odpowiednio dużej liczbie zakładów, co z kolei pozwala kasynu zawsze wygrać)? Jeślibyśmy z równą dokładnością szacowali celność pocisków wystrzeliwanych z broni ręcznej, to trup słałby się gęsto.

Ten obiegowy i chyba nieco krzywdzący dla nauki ekonomii pogląd (co postaramy się niżej wykazać) ma swoje historyczne ugruntowanie. Ekonomiści klasyczni z XIX wieku poczuli się na jakimś etapie na tyle pewnie w analizach, że zdecydowali się na publikację swoich ponurych predykcji. Thomas Malthus (1766–1834) przedstawił scenariusz rozwoju sytuacji gospodarczej oparty na ograniczonych zasobach ziemi (w tamtych czasach dominującą formą gospodarki było rolnictwo) oraz na powiązaniu między wynagrodzeniami pracowników najemnych i ich wskaźnikiem dzietności. Czym wyższe wynagrodzenia, tym wyższy komfort życia i tym większy bodziec do zakładania rodziny oraz posiadania dzieci. Czym zaś więcej dzieci, tym w następnym pokoleniu więcej pracowników najemnych, większa podaż siły roboczej, co przy stałych zasobach ziemskich i stałym popycie na tę siłę prowadzi do redukcji wynagrodzeń i pauperyzacji robotników (Malthus, 2011)[7]. Powtarzający się cykl zmierza powoli w kierunku narastającego ubożenia pracowników najemnych. David Ricardo, wychodząc z podobnych założeń (ograniczony zasób ziem uprawnych), pociągnął rozumowanie Malthusa nieco dalej. Uznał, że rosnące zapotrzebowanie na żywność w pierwszym okresie doprowadzi do rosnących zysków właścicieli ziemskich, ale w dłuższym okresie przełoży się na rosnące ceny żywności, rosnące koszty pracy (muszą zarobić co najmniej na swoje wyżywienie), a tym samym spadające zyski przedsiębiorstw (Ricardo, 1957). Karol Marks z kolei nieco później uznał, że postępujące ubożenie klasy robotniczej oraz bogacenie się klasy posiadającej środki produkcji (czyli inaczej niż przewidywał Ricardo, jednak się bogacą) będzie musiało doprowadzić do nieuchronnego kryzysu nadprodukcji, którego jedynym rozwiązaniem może być rewolucja proletariatu i nacjonalizacja środków produkcji (Marks i Engels, 1848). Jak nietrudno zauważyć, żadne z tych przewidywań się nie ziściło. Rewolucja robotnicza wybuchła co prawda w jednym kraju na świecie, ale do dziś trwają dyskusje, dlaczego akurat tam i na ile było to związane z Marksowskimi teoriami. W tych krajach, w których powinno dojść do radykalnych przemian gospodarczych ze względu na ich zaawansowaną industrializację, nic takiego się nie wydarzyło. Nie doszło też do masowej pauperyzacji robotników, choć w istocie w drugiej połowie XIX wieku populacja w krajach Europy i Ameryki Północnej zaczęła wyraźnie rosnąć. Zamiast narastającej biedy przynosiło to jednak poprawiającą się jakość życia[8]. Nie nastąpił także zapowiadany przez Ricarda spadek rentowności przedsiębiorstw.

Wiele można by napisać o tym, dlaczego owe przewidywania się nie ziściły. Zważywszy na to, że każde z nich było nieco inne, a niektóre sprzeczne, wyjaśnienie ich porażki również będzie za każdym razem odmienne. Z punktu widzenia jednak przedmiotu niniejszego rozdziału nie ma to aż tak istotnego znaczenia. Znaczenie mają zaś różne reakcje na te porażki, a szczególnie takie, które zakończyły się innymi wyjaśnieniami i innymi przewidywaniami, finalnie trafniejszymi. Ku zaskoczeniu wielu tych drugich też nie brakuje. Z ekonomią (ale z innymi naukami społecznymi również) jest bowiem trochę odwrotnie niż z naukami ścisłymi (fizyką lub chemią). Dzięki odpowiednio dobranemu programowi szkolnemu nosimy w sobie przekonanie o samych sukcesach nauk ścisłych, począwszy od zasad dynamiki Newtona, poprzez teorię względności, układ Mendelejewa czy teorię wiązań chemicznych. Ewentualne porażki nauk ścisłych, błędne teorie i tym samym przewidywania mają na tyle niewielki wpływ na nasze codzienne życie, że rzadko przebijają się do naszej świadomości, choć ich nie brakuje (Youngson, 2005; Hossenfelder, 2019). W codziennym życiu natomiast nieustannie doświadczamy gospodarczych zaskoczeń, drastycznego wzrostu kursu franka, w którym zaciągnęliśmy nasz kredyt mieszkaniowy, spadku wartości funduszy inwestycyjnych w związku z epidemią COVID-19 czy też wzrostu cen zakupywanych przez nas produktów bądź usług (czyli inflacji) ponad wartość oprocentowania lokat bankowych. Ze szkoły nie wynieśliśmy podobnego przekonania o sukcesach nauk ekonomicznych, a ogólne bogacenie się świata, jak pisaliśmy w rozdziale pierwszym, trwa na tyle długo, że umyka naszej uwadze. Za to wydaje nam się, że specjaliści, czyli ekonomiści, winni nas uprzedzić co do tych negatywnych zdarzeń.

Czy zatem faktycznie nauka ta miała lub ma jakieś sukcesy na koncie? Spróbujemy przytoczyć kilka przykładów.

1. Brytyjski ekonomista Alfred Marshall w roku 1873 zredagował całkiem odmienne od Marksa przewidywania co do rozwoju klasy robotniczej (Marshall, 1925a). Był niewątpliwie mądrzejszy o wnioski płynące z raportów rządowych, z których wynikało, że na przestrzeni ostatnich kilku dekad sytuacja w Wielkiej Brytanii ulegała systematycznej poprawie. Obejmowało to zarówno wzrost wynagrodzeń robotników, poprawę ich warunków bytowych, jak i szerszą edukację oraz uczestnictwo w życiu społecznym. Marshall na podstawie swoich własnych obserwacji uznał, że jest to trwały trend. Wynagrodzenia robotników będą rosły odpowiednio do ich wzrastających kwalifikacji, które z kolei prowadzą do wzrostu ich produktywności i zwiększonego popytu na ich pracę. Elementem wzmacniającym ten trend jest ich rosnący standard życia, który sam w sobie wymusza podnoszenie kwalifikacji w celu zwiększenia dochodów, tak aby standard ów co najmniej utrzymać lub zwiększyć. Odmiennie też od Malthusa i Ricarda, Marshall przewidywał spadek dzietności w rodzinach robotniczych związany ze zwiększeniem nakładów na edukację (Opocher, 2010). Czytelnicy pierwszego rozdziału książki wiedzą już, jak trafne okazały się te predykcje. Zaś dla większości z nas przewidywania Marshalla wydają się oczywiste: czym lepsze są nasze kwalifikacje, tym większa szansa na dobrze płatną pracę. Ale nie były oczywiste w 1873 roku.

2. W 1919 roku 35-letni wówczas ojciec współczesnej makroekonomii John Maynard Keynes, sprzeciwiając się warunkom pokoju narzuconym przez aliantów Niemcom w traktacie wersalskim, napisał krótką rozprawę, która okazała się prorocza (Keynes, 2012). Zanegował przede wszystkim ogromne kontrybucje nałożone na Niemcy, gdyż jego zdaniem wycieńczona wojną gospodarka nie była w stanie ich udźwignąć, a jeśli je mimo wszystko spłaci pod groźbą interwencji militarnej, to doprowadzi to do gigantycznej inflacji, kryzysu gospodarczego i zubożenia znacznych grup ludności, w konsekwencji zaś do resentymentów i nastrojów rewanżystycznych, które zakończą się kolejnym, znacznie poważniejszym konfliktem zbrojnym. Na realizację tych mrocznych przepowiedni nie trzeba było długo czekać. Keynes postulował coś dokładnie przeciwnego, tj. pożyczki na odbudowę infrastruktury i gospodarki. Jego pomysły zostały wykorzystane dopiero po 1945 roku, a rozwinięte w postać ogólnej teorii, są dzisiaj podstawą polityki monetarnej większości banków centralnych (Keynes, 2009).

3. W roku 2000 rząd brytyjski przeprowadził przetarg na licencje operatorskie telefonii 3G. Szacowane wpływy z tej aukcji miały wynieść około 3–4 miliardów funtów. Ostatecznie uzyskano 22,5 miliarda, co uznane zostało za ogromny sukces między innymi ekonomistów, którzy opracowywali szczegóły tego przetargu (Backhouse, 2010, s. 27 i nast.). Jego organizacja oparta była na przygotowywanych od lat 80. XX wieku teoriach aukcji przez takich ekonomistów jak William Vickrey (1914–1996), John McMillan (1951–2007) czy Paul Milgrom. Celem tych teorii było takie zaprojektowanie przetargu, aby określone dobro trafiło do tych oferentów, dla których przedstawia ono najwyższą wartość i którzy potrafią je najefektywniej zagospodarować, a tym samym zaoferować najwyższą cenę dla sprzedającego, przy jednoczesnym zapewnieniu uczciwej konkurencji i szans na wygraną dla wszystkich zainteresowanych uczestników oraz zabezpieczenia przed ewentualnym przeszacowaniem wartości dobra. Teorie te stanowią do dziś podstawę organizacji wielu innych przetargów, które są dzięki nim z sukcesem prowadzone[9].

4. Każdy, kto kiedykolwiek miał do czynienia z inwestycjami, musiał spotkać się z modelem zdyskontowanych przepływów pieniężnych (DCF – discounted cash flow). Model ten, składający się z szeregu równań matematycznych, pozwala na odpowiedź na pytanie: jaką wartość przedstawia dzisiaj określony składnik majątku, mający zdolność do generowania przyszłych zysków? Na niewprawionych ów model robi wrażenie skomplikowanego. Pozwala bowiem na uwzględnianie indywidualnych preferencji, alternatywnych inwestycji, ryzyka wygenerowania określonych zysków w przyszłości itp. Na jego podstawie można określić zarówno wartość obligacji ze stałym oprocentowaniem, jak i wartość całego przedsiębiorstwa. Jego zastosowanie zmieniło niewątpliwie rynek inwestycyjny na wiele lat. Większość stosujących go nie wie, że podwaliny pod ów model położył amerykański ekonomista Irving Fisher w roku 1930 (Fisher, 1930).

 

O co chodzi w nauce ekonomii? Między realizmem a konstruktywizmem naukowym

Z powyższych, trochę subiektywnie wybranych przykładów wynika, że ekonomia jest nauką, która poza ewidentnymi porażkami ma też szereg sukcesów. Te ostatnie wpływają na nasze codzienne życie niejako w tle. Przyczyniają się do tego, że co do zasady jesteśmy lepiej wyedukowani od naszych dziadków i więcej zarabiamy, że żyjemy we względnie bezpieczniejszym i bogatszym świecie, że rządy efektywniej gospodarują posiadanymi zasobami, zwiększając redystrybucję do swoich obywateli, i że mamy względnie powszechny dostęp do kredytów bankowych, które – jakkolwiek by ich nie oceniać – zwiększają poziom codziennego zaspokajania naszych preferencji. Aby jednak należycie zważyć ów bilans między sukcesami i porażkami ekonomii oraz zbliżyć się do odpowiedzi na pytanie, dlaczego często się nie udaje i czy kiedyś się to zmieni, warto na wstępie zastanowić się, o co w ogóle chodzi w nauce, a w nauce ekonomii zwłaszcza. Najbardziej intuicyjna odpowiedź brzmi: o prawdę! Nauka powinna w jak najbardziej prawdziwy, trafny sposób opisywać otaczającą nas, badaną rzeczywistość. Taka odpowiedź jest wyrazem jednego ze stanowisk w filozofii nauki, które nazywamy realizmem naukowym. Zakłada on, że teorie naukowe w istocie opisują jakiś badany fragment rzeczywistości w jego istotnych aspektach. Określone byty postulowane przez te teorie oraz, co ważniejsze, wskazane tam relacje (generalizacje, które czasem nazwiemy prawami naukowymi) istnieją naprawdę. Takie stanowisko w filozofii ekonomii prezentuje między innymi fiński filozof Uskali Mäki, o którym będziemy jeszcze mówić w trzeciej części książki, w rozdziale poświęconym modelom ekonomicznym. Realizm naukowy nie rości sobie pretensji do dokładnego odzwierciedlania badanej rzeczywistości, twierdzi tylko, że teorie naukowe (lub modele) oddają trafnie tę rzeczywistość w jakichś wybranych, istotnych aspektach. Nawet jeśli na podstawie danego modelu nie możemy przewidzieć przebiegu zdarzeń gospodarczych, to zdaniem realisty nie deprecjonuje to samego modelu. Istnieje bowiem szereg okoliczności zakłócających „działanie” modelu, związanych ze złożoną naturą rzeczywistości gospodarczej. Podwaliny pod takie rozumienie ekonomii położył John Stuart Mill (1806–1873), który uważał, że można ją uprawiać jako naukę abstrakcyjną i teoretyczną na wzór geometrii (Mill, 2008). Ekonomia bowiem zajmuje się jednym, wybranym aspektem natury ludzkiej, jakim jest nasza skłonność do bogacenia się, traktuje ową skłonność jak aksjomaty w geometrii i wywodzi z niej dedukcyjnie dalsze twierdzenia. Są one prawdziwe, umożliwiają nam rozumienie zjawisk gospodarczych, ale nie zapewniają trafnego przewidywania ich konsekwencji. Dla realistów zatem gwarantem „prawdziwości” modelu jest „prawdziwość” aksjomatu i poprawność wnioskowań. Stąd we współczesnej ekonomii rozwinięty spór o tak zwaną realistyczność założeń modeli ekonomicznych. Czym bardziej owe założenia są realistyczne, tym bardziej „prawdziwy” miałby być model. Realiści jednak nie oczekują od ekonomicznych modeli w pierwszej kolejności trafnych predykcji, albo inaczej mówiąc: ich wystąpienie lub brak nie jest istotnym kryterium oceny modelu. Problem przewidywania kryzysów gospodarczych zostaje rozwiązany poprzez jego zanegowanie.

Przeciwwagą dla takiego rozumienia są naukowi konstruktywiści lub instrumentaliści. Ich wspólną cechą jest przekonanie, że nasze teorie naukowe niekoniecznie są obrazem jakiejś niezależnej od nas rzeczywistości, ale raczej są mentalnymi konstrukcjami naszego aparatu poznawczego i sposobem uporządkowania wielorakich doznań tego aparatu. Selekcja między lepszymi i gorszymi teoriami dokonuje się na podstawie innego kryterium niż ich domniemana prawdziwość, rozumiana jako zgodność z ową rzeczywistością. Nie mamy bowiem żadnych narzędzi, które tę zgodność pozwoliłyby nam ocenić. Możemy natomiast na podstawie naszego doświadczenia ocenić, czy dana teoria trafnie przewidziała określone zdarzenia gospodarcze, niezależnie od tego, na ile prawdziwe były jej założenia (Friedman, 2008) lub czy okazała się ona przydatna do rozwiązania określonego problemu (Reiss, 2012), bądź czy była ona na tyle retorycznie przekonująca dla określonej grupy odbiorców, że udało się ich namówić do wdrożenia danej polityki publicznej (McCloskey, 1998).

Wróćmy na chwilę do przykładów podanych powyżej. Pierwsze dwa odnoszą się wprost do określonych przewidywań dokonanych przez Marshalla lub Keynesa. Na ich podstawie jednak albo oni sami, albo ich następcy opracowali szereg rozwiązań społeczno-politycznych, które miały służyć zwiększaniu produktywności pracowników i polityce pełnego zatrudnienia lub stymulowaniu wzrostu gospodarczego poprzez odpowiednią politykę monetarną. Dwa kolejne przykłady to już instrumenty same w sobie, służące realizacji określonych celów (przeprowadzenia efektywnego przetargu lub dokonania rentownej inwestycji). Żadna z tych teorii nie odpowie na pytanie, jaka zostanie ustalona w przetargu ostateczna cena lub też jaka jest „prawdziwa” aktualna wartość danego instrumentu finansowego. To wskazuje raczej na ich instrumentalny, a nie realistyczny charakter. Czy przykłady te jednak, uznane za sukcesy ekonomii, zawsze zapewnią nam osiągnięcie założonych celów? Oczywiście nie. Popyt na podnoszenie kwalifikacji w USA doprowadził w okresie ostatnich kilku dekad do drastycznego wzrostu kosztów edukacji, do zadłużania się studentów, do ich nadpodaży na rynku pracy i spadku ich realnych wynagrodzeń. Historia gospodarcza, także ostatnich okresów, zna wiele przypadków, które ujawniały tak zwane niekeynesowskie efekty (Rzońca, 2007), co oznacza, że założenia Keynesa, które legły u podstaw krytyki traktatu wersalskiego, a potem stały się trzonem jego opus magnum (Keynes, 2009), nie zawsze działają tak, jak sam Keynes sobie to wyobrażał. Aukcja w Wielkiej Brytanii okazała się sukcesem dla organizatorów, ale niekoniecznie dla uczestników, którzy najwyraźniej przeinwestowali. Nie doceniono bowiem pozycjonującego efektu licencji, który sprawił, że żaden z liczących się operatorów nie mógł sobie wizerunkowo pozwolić na niewylicytowanie licencji, niezależnie od relacji wartości inwestycji do spodziewanej stopy zwrotu. W ten sposób powraca wskazany przez realistów problem złożoności w naukach społecznych.

Złożoność. Czy ekonomia to

społeczna meteorologia?

Auguste Comte (1798–1857) był jednym z pierwszych myślicieli, którzy zwrócili uwagę na złożoność nauk społecznych. Dokonał on klasyfikacji wszystkich wówczas znanych nauk według ich ogólności i złożoności. Nie było tam ekonomii, ale była socjologia (czy też fizyka społeczna, jak ją nazywał), która została wskazana jako najmniej ogólna i najbardziej złożona. Na drugim końcu znajdowały się astronomia i fizyka, jako najbardziej ogólne i najmniej złożone. Rozumowanie to jednak oparte było w znacznej mierze na intuicyjnym rozumieniu złożoności. Bardziej zmatematyzowane podejście zapoczątkował francuski matematyk Henri Poincaré (1854–1912), który zajmował się tak zwanym problemem ruchu trzech ciał. Klasyczna mechanika newtonowska dobrze radziła sobie z oddziaływaniami dwóch ciał. Ale wprowadzenie w układ trzeciego ciała sprawiało, że obliczenia robiły się niezwykle skomplikowane. Co więcej, niewielkie zmiany w początkowych wartościach układu prowadziły do diametralnie innych wyników. Taki układ był zatem niestabilny strukturalnie. Badania Poincarégo zapoczątkowały nowy kierunek (czy raczej nowe kierunki) w matematyce, który określa dziś mianem teorii złożoności lub – nieco kolokwialnie – teorii chaosu i którego literackim wyrazem jest ruch skrzydeł motyla na jednej półkuli, który na drugiej powoduje huragan. Meteorologia stała się emblematycznym przykładem złożoności. Nasza niezdolność do długoterminowego przewidywania pogody tłumaczona jest właśnie ową złożonością i strukturalną niestabilnością układu. Nie brakuje tych, którzy w ten sposób tłumaczą porażki ekonomii. Jeśli dysponując stosunkowo dobrze rozpoznanymi równaniami opisującymi dynamikę cząstek, nie jesteśmy ich w stanie zastosować do prognozowania pogody, to tym bardziej nie jesteśmy tego w stanie uczynić w przypadku nauk społecznych, gdzie na różnych poziomach (indywidualnych i grupowych) mamy do czynienia z niepoliczalnie większą liczbą współzależnych zmiennych (Mainzer, 2007). Takie podejście traktuje ekonomię jak fizykę, a uczestników rynku (czyli nas) jak atomy, do których mają zastosowanie określone prawa determinujące nasze zachowanie. Nawet jeśli tak jest, to trudno byłoby na dzień dzisiejszy powiedzieć, że podobnie jak w przypadku atomów mamy te prawa dobrze rozpoznane. Nie przeszkadza to ekonomistom poszukiwać różnego rodzaju regularności w działaniach rynku, z wykorzystaniem matematycznych koncepcji opisu złożoności, począwszy od zaawansowanych narzędzi statystycznych, poprzez analizy ilościowe, równania regresji, teorię gier, automaty komórkowe, a skończywszy na atraktorach i wzorach fraktalnych.

Po drugiej stronie tego fizykalnego podejścia do nauk społecznych plasują się ci myśliciele, którzy od samego początku wskazują na istotną, jakościową różnicę między światem fizykalnym a kreowanym przez człowieka światem społecznym czy gospodarczym. Ta różnica zasadza się właśnie na niemożliwości porównania zachowań ludzkich do zachowań cząsteczek. Cząsteczka nie dokonuje bowiem samodzielnego wyboru co do kierunku swojego przemieszczania się, a tym bardziej nie warunkuje tego kierunku zachowaniem innych cząsteczek. Ruch cząsteczek w atmosferze jest chaotyczny i przypadkowy. Zgodnie z fizyką gazów można do nich w pełni stosować zasady statystyki. Działania człowieka zaś wydają się zamierzone, nakierowane na realizację jakichś celów, innymi słowy – intencjonalne. Tak traktowały je kolejne pokolenia ekonomistów. U podstaw funkcjonowania rynków tkwi wszak ludzkie intencjonalne działanie (Knight, 2008; Hayek, 1945; Frydman i Goldberg, 2009). Działanie to jest jednak nie tylko intencjonalne, ale także refleksyjne. Kiedy bowiem analizujemy zachowania jednostek na rynku, to łatwo zauważymy, że nie tylko podporządkowują one swoje działania założonym celom, lecz również modyfikują te cele i działania odpowiednio do okoliczności zewnętrznych, a w szczególności odpowiednio do celów i działań innych jednostek. Tę cechę właśnie niektórzy nazwali refleksyjnością (Soros, 2013). Powoduje ona w skali makro dość osobliwy efekt. Załóżmy, że dysponuję doskonałą teorią ekonomiczną opisującą zachowanie się kursów akcji na giełdzie papierów wartościowych w Warszawie. Teoria ta jest doskonała, co oznacza, że pozwala mi przewidzieć, jaki będzie kurs akcji CD Projekt, wydawcy gry Wiedźmin, za miesiąc. Znając ten kurs i wiedząc, że wzrośnie on lub spadnie w tym okresie o dany procent, mam wyjątkową możliwość dokonania odpowiedniej inwestycji, która zapewni mi zysk (albo poprzez zakup akcji i ich późniejszą sprzedaż, albo poprzez zakup odpowiednich instrumentów finansowych pochodnych[10]). Jednak realizując taką okazję, jednocześnie zwiększam popyt na dany instrument finansowy i wpływam na przewidywany jego kurs. Moja teoria przestaje być doskonała, albo też nigdy taka nie była. Ale jeśli wiem, że inni inwestorzy posługują się tą samą teorią i w podobny sposób przewidzieli kurs akcji, odpowiednio dostosowując swój portfel inwestycyjny, mogę uwzględnić w swojej inwestycji to spodziewane ich zachowanie. Takie myślenie zapewniło ekonomicznego Nobla Robertowi Lucasowi, który w 1972 roku zwrócił uwagę na to, że ludzie dostosowują swoje zachowania nie do rzeczywistych zmian w polityce monetarnej, lecz do zmian antycypowanych. Obserwacja ta stała się podstawą teorii racjonalnych oczekiwań.

Czy istnieje jednak możliwość uwzględniania w teorii ekonomicznej antycypowanych oczekiwań uczestników rynku oraz oczekiwań co do oczekiwań i oczekiwań co do oczekiwanych oczekiwań itd.? Innymi słowy, czy pomimo refleksyjności nie da się stworzyć teorii doskonałej, uwzględniającej wpływ jej wyników na nią samą?

Abstrahując od widocznego tu regresu do nieskończoności, na niemożliwość skonstruowania takiej teorii zwracał uwagę austriacki filozof i ekonomista Friedrich August von Hayek. Jego argument jest jednak bardziej z obszaru psychologii poznawczej i matematycznej nierozstrzygalności obliczeniowej niż ekonomii. W dużym uproszczeniu możemy go przedstawić następująco:

1. Podstawą jakichkolwiek modeli ekonomicznych są indywidualne decyzje podejmowane na rynku przez jednostki. Zagregowane decyzje determinują to, w jaki sposób zachowywać się będzie cała gospodarka[11].

2. Każda jednostka podejmuje decyzje według określonego modelu rzeczywistości, który tworzy w swoim umyśle.

 

3. Model rzeczywistości tworzony jest poprzez selekcję bodźców odbieranych przez nasz aparat poznawczy. Aparat ten odpowiednio do ich atrybutów przyporządkowuje je do odpowiednich zbiorów. Tworzenie modelu rzeczywistości na poziomie jednostkowym polega zatem na klasyfikowaniu bodźców.

4. Taki mentalny model ma co najmniej dwa ograniczenia: tylko bodźce o określonym poziomie powtarzalności będą w nim uwzględnione (co wynika z charakterystyki funkcjonowania neuronów) i będzie w nim tyle zbiorów lub klas, na ile pozwala „neuronalny porządek obliczeniowy”.

5. Doskonała teoria wyjaśniająca funkcjonowanie rynku wymagałaby wpierw doskonałej teorii decyzji, a ta wymagałaby doskonałej teorii jednostkowego modelowania rzeczywistości (czyli klasyfikowania bodźców zmysłowych). Musielibyśmy więc skonstruować model modelowania aparatu poznawczego, co wymagałoby zdolności klasyfikacyjnych co najmniej o jeden poziom wyższych niż zdolności modelowanego umysłu. Takimi, rzecz jasna, nie dysponujemy i nie będziemy dysponować (Hayek, 1992).

Adaptacja i ewolucja

Do problemu nierozstrzygalności można też podejść z innej strony. Czy możemy opracować uniwersalną szczepionkę na wszystkie odmiany wirusów grypy? Niestety nie. Powód jest prozaiczny. Wirusy mutują w tempie, które sprawia, że co roku pojawiają się ich nowe odmiany i podawane szczepionki są, przynajmniej w odniesieniu do tych nowych odmian, nieskuteczne. Czy możemy przewidzieć mutacje? Jak na razie nie. Są one całkowicie przypadkowe. Trwa zatem nieustanny wyścig, w którym biolodzy i farmaceuci są zawsze jeden krok z tytułu. Ta biologiczna metafora ma swoje uzasadnienie. Już w XIX wieku obok ekonomistów klasycznych pojawili się tacy, którzy uważali, że nauki społeczne należy konstruować nie na wzór geometrii czy fizyki, ale raczej biologii, w szczególności z uwzględnieniem dopiero co ogłoszonej wówczas teorii ewolucji[12]. Do prekursorów takiego myślenia należał Thorstein Veblen (1857–1929), amerykański ekonomista norweskiego pochodzenia, którego biologiczne i ewolucyjne metafory oburzały ówczesnych czytelników. Zapoczątkował on w ekonomii nurt zwany instytucjonalizmem, który do dziś stanowi istotną część nauki ekonomii[13]. Współcześni instytucjonaliści są także często ewolucjonistami. Nie chodzi jednak o mutacje naszego kodu genetycznego i ewolucję biologiczną, lecz o nasze wzorce zachowań i ewolucję kulturową. Spróbujmy pokrótce przybliżyć ten sposób analizy w ekonomii.

Podstawą współczesnej psychologii ewolucyjnej jest założenie mówiące, że jeśli obserwujemy jakiś charakterystyczny, powtarzalny wzorzec zachowania, na przykład skłonność do opieki nad potomstwem lub heteroseksualne związki monogamiczne, to możemy podejrzewać, iż wzorzec ten jest lub na pewnym etapie rozwoju gatunku był ewolucyjnie adaptacyjny, czyli że sprzyjał ekspansji populacji, która go stosowała. Wzorce zachowań powstają podobnie jak mutacje genetyczne przypadkowo i chaotycznie. Te, które w danym momencie nie są adaptacyjne, zanikają. Mechanizm selekcji na poziomie indywidualnym działa tak, iż jednostka podejmuje różne decyzje metodą prób i błędów, ocenia ich rezultaty i odpowiednio modyfikuje swoje zachowanie na przyszłość. Należałoby się zatem spodziewać, że doprowadzi to w jakimś określonym horyzoncie czasowym do idealnie racjonalnych wzorców zachowań, nastawionych na jak największą indywidualną korzyść. Jak w takim kontekście jednak wytłumaczyć na przykład skłonność do nabywania produktów luksusowych za cenę wielokrotnie wyższą niż porównywalnej jakości produkty pozbawione stosownego emblematu?[14] W jaki sposób wyjaśnić akty heroicznego bohaterstwa i poświęcenia swojego życia dla ratowania życia innych ludzi? Oba te zachowania wydają się irracjonalne z punktu widzenia człowieka ekonomicznego. Tu z pomocą przychodzi nam koncepcja doboru grupowego lub też wielopoziomowego[15]. Jej istota polega na tym, że adaptacyjność danej cechy nie jest oceniana z perspektywy jednostki, lecz z perspektywy „samolubnego genu”[16]. Budowanie wysokiej pozycji społecznej poprzez nabywanie i eksponowanie drogich dóbr pozycjonujących zwiększa atrakcyjność ich posiadacza i tym samym jego szanse prokreacyjne z najbardziej atrakcyjnymi partnerkami. Ponieważ zaś nosicielem podobnych genów są członkowie rodziny, a nawet całe zbiorowości, wówczas poświęcenie czy też altruistyczne (nieegoistyczne) zachowania poszczególnych członków grupy będą adaptacyjne, o ile sprzyjają jej przetrwaniu i ekspansji. W ten sposób wzorce zachowań rozpowszechniają się nie tylko jako indywidualne strategie i decyzje, a nawet bardziej jako tak zwane zmienne kulturowe, kopiowane między członkami danej zbiorowości, które zapewniają jej przewagę nad innymi zbiorowościami. Spośród dwóch plemion przewagę zdobędzie to, które posługuje się w komunikacji językiem, a nie pohukiwaniami, a nad nimi dominować będzie to, które potrafi komunikować się i gromadzić swoje doświadczenia na piśmie. A począwszy od XVIII wieku, jak pisaliśmy w rozdziale Kupcy i filozofowie, zaczęły w świecie wieść prymat te społeczeństwa, których organizacja oparta była na liberalizmie politycznym i gospodarczym.

Podobne analizy prowadzone są też na dużo wyższym poziomie szczegółowości. Amerykański ekonomista Andrew W. Lo przedstawił między innymi behawioralno-ewolucyjne wyjaśnienie ostatniego kryzysu finansowego. Jest ono oparte na ewolucyjnym rozprzestrzenianiu się wzorców, jakimi są strategie inwestycyjne opracowywane metodą prób i błędów przez fundusze hedgingowe. Strategie te, gdy tylko okazują się skuteczne (gdzie miarą skuteczności jest stopa zwrotu z zainwestowanego kapitału), kopiowane są przez inne fundusze. Na pewnym etapie wszyscy zaczynają inwestować tak samo i w to samo, co prowadzi do bańki spekulacyjnej i ewentualnego kolapsu (Lo, 2017).

Ekonomiści i antropolodzy kulturowi, którzy przeprowadzają takie analizy, często posługują się komputerowymi modelami symulacyjnymi (modelami agentowymi). Stanowią one zwykle bardzo uproszczone modele rozwoju populacji z określonymi atrybutami w zadanym środowisku. Pozwalają prześledzić, jaki wpływ mają zdefiniowane atrybuty (np. strategie inwestycyjne lub określone artefakty kulturowe) na rozwój bądź degradację danej populacji. Droga przez modele symulacyjne jest nieunikniona, bo choć istnieją pewne równania ewolucji, to ich zastosowanie wprost nie prowadzi do skrócenia drogi od założeń do spodziewanego stanu końcowego. Metoda ta ujawnia jednak dwie charakterystyczne słabości. Jedną znamy już z meteorologii. Modele ewolucyjne są jeszcze bardziej złożone i niestabilne strukturalnie niż modele pogodowe. Bardzo nieznaczne zmiany w wartościach początkowych atrybutów prowadzą do całkowicie innego obrazu populacji końcowej. Druga wchodzi na obszar informatyki. Zwiększanie liczby atrybutów, czyli mówiąc kolokwialnie: urealnianie modelu, prowadzi do matematycznej nieobliczalności, albo do obliczalności, w której symulacja trwa równie długo jak rzeczywisty rozwój populacji i tym samym jest bezużyteczna z punktu widzenia antycypowania przyszłych wyników.

Ponura nauka

Tytułowe określenie (dismal science) przylgnęło do ekonomii wpierw ze względu na jej ponure predykcje co do rozwoju sytuacji gospodarczej (malejące zyski przedsiębiorstw, ubożenie klasy robotniczej itp.), a następnie z uwagi na jej niezdolność do trafnego opisu rynku i przewidywania zdarzeń gospodarczych, w konsekwencji zaś przeciwskuteczne recepty przedstawiane przez ekonomistów na rzekomą poprawę sytuacji[17]. Pomimo kilku optymistycznych przykładów z początku rozdziału zaprezentowana powyżej argumentacja brzmi w istocie ponuro. Mamy co najmniej trzy fundamentalne powody, dla których skazani jesteśmy na wieczną niezdolność do tworzenia sprawnych modeli trafnie przewidujących zdarzenia gospodarcze.