21 lekcji na XXI wiek

Tekst
Oznacz jako przeczytane
Jak czytać książkę po zakupie
Nie masz czasu na czytanie?
Posłuchaj fragmentu
21 lekcji na XXI wiek
21 lekcji na XXI wiek
− 20%
Otrzymaj 20% rabat na e-booki i audiobooki
Kup zestaw za 74,80  59,84 
21 lekcji na XXI wiek
Audio
21 lekcji na XXI wiek
Audiobook
Czyta Roch Siemianowski
34,90  25,48 
Szczegóły
Czcionka:Mniejsze АаWiększe Aa

3
WOLNOŚĆ

Big data patrzą

Opowieść liberalna czci ludzką wolność jako najwyższą wartość. Przekonuje, że wszelka władza ostatecznie wywodzi się z wolnej woli poszczególnych ludzi i znajduje swój wyraz w ich odczuciach, pragnieniach oraz wyborach. W sferze polityki liberalizm zakłada, że wyborca wie najlepiej. Dlatego stoi na straży demokratycznych wyborów. W sferze gospodarki utrzymuje, że klient ma zawsze rację. Dlatego jest orędownikiem zasad wolnego rynku. W kwestiach osobistych zachęca ludzi, by słuchali samych siebie, byli wierni sobie i szli za głosem serca – jeśli tylko nie naruszają wolności innych. Te wolności obywatelskie są zapisane w prawach człowieka.

Słowa „liberalny” używa się czasami w znacznie węższym, tendencyjnym znaczeniu, jako przeciwieństwo słowa „konserwatywny”. Jednak wielu tak zwanych konserwatystów również wyznaje liberalizm. Proponuję przeprowadzić prosty test na samym sobie. Czy sądzisz, że ludzie powinni sami wybierać sobie rządzących, a nie okazywać ślepe posłuszeństwo królowi? Czy sądzisz, że ludzie powinni móc wybierać własny zawód, a nie żyć w ograniczeniach narzuconych przez kastę, w której się urodzili? Czy sądzisz, że ludzie powinni sami wybierać sobie żonę lub męża, a nie musieć wiązać się z tym, kogo wybrali dla nich rodzice? Jeśli odpowiedziałeś „tak” na wszystkie trzy pytania, w takim razie gratuluję: jesteś liberałem.

Szczególnie warto pamiętać o tym, że tacy konserwatywni bohaterowie, jak Ronald Reagan i Margaret Thatcher byli wielkimi orędownikami nie tylko wolności gospodarczej, lecz również wolności osobistych. W słynnym wywiadzie udzielonym w 1987 roku brytyjska premier powiedziała: „Nie ma czegoś takiego jak społeczeństwo. Jest żywa różnorodność mężczyzn i kobiet, i piękno powstałego w ten sposób splotu oraz jakość naszego życia zależeć będą od tego, jak każdy z nas przygotowany jest do odpowiedzialności za siebie”44.

Spadkobiercy pani Thatcher w Partii Konserwatywnej w pełni zgadzają się z Partią Pracy co do tego, że władza polityczna pochodzi z odczuć, wyborów i wolnej woli poszczególnych wyborców. Dlatego gdy Wielka Brytania musiała zdecydować, czy ma opuścić Unię Europejską, premier David Cameron o rozstrzygnięcie tej kwestii nie prosił królowej Elżbiety II, arcybiskupa Canterbury ani profesorów z Oksfordu i Cambridge. Nie pytał nawet o zdanie deputowanych. Zamiast tego przeprowadził referendum, w którym każdego bez wyjątku Brytyjczyka zapytano: „Jakie są twoje o d c z u c i a na ten temat?”.

Ktoś może zaprotestować, mówiąc, że w referendum pytano: „Co o tym sądzisz?”, a nie „Jakie są twoje odczucia?” – jest to jednak powszechne błędne wyobrażenie. W referendach i wyborach zawsze chodzi o ludzkie o d c z u c i a, a nie o racjonalność. Gdyby demokracja była kwestią racjonalnego podejmowania decyzji, nie byłoby najmniejszego powodu, by wszystkim dawać równe prawa wyborcze – a być może nawet, by wszystkim dawać w ogóle jakiekolwiek prawa wyborcze. Mamy aż nazbyt wiele dowodów, że niektórzy ludzie są znacznie mądrzejsi i bardziej racjonalni od innych – z pewnością w zakresie konkretnych kwestii ekonomicznych i politycznych45. Po głosowaniu w sprawie brexitu wybitny biolog Richard Dawkins przekonywał, że ogromnej większości brytyjskiego społeczeństwa – w tym także jego samego – nie powinno się było prosić o głosowanie w tym referendum, ponieważ brakuje jej koniecznego wykształcenia z dziedziny ekonomii i nauk politycznych. „Równie dobrze można by ogłosić ogólnokrajowy plebiscyt, by rozstrzygnąć kwestię, czy Einstein ułożył swoje równania poprawnie z punktu widzenia algebry, albo pozwolić pasażerom głosować, na którym pasie powinien lądować pilot”46 – argumentował.

Czy to dobrze, czy źle, wybory i referenda bynajmniej nie dotyczą tego, co na jakiś temat sądzimy. Dotyczą tego, co czujemy. A gdy rzecz dotyczy uczuć, Einstein i Dawkins wcale nie są lepsi od innych. Demokracja zakłada, że ludzkie odczucia stanowią odbicie jakiejś tajemniczej i głębokiej „wolnej woli”, że ta „wolna wola” jest ostatecznym źródłem władzy oraz że wprawdzie niektórzy ludzie są bardziej inteligentni od innych, jednak wszyscy są w równym stopniu wolni. Niepiśmienna służąca także ma wolną wolę, tak samo jak Einstein i Dawkins, a zatem w dniu wyborów jej odczucia – pod postacią oddanego przez nią głosu – liczą się dokładnie tak samo, jak odczucia każdego innego człowieka.

Odczuciami kierują się nie tylko wyborcy, lecz również przywódcy. Podczas referendum w sprawie brexitu w 2016 roku kampanii na rzecz opuszczenia UE przewodzili wspólnie Boris Johnson i Michael Gove. Po ustąpieniu Davida Camerona Gove początkowo popierał kandydaturę Johnsona na urząd premiera, jednak w ostatniej chwili oświadczył, że Johnson nie nadaje się na to stanowisko, i ogłosił, że sam ma zamiar się o nie ubiegać. Działanie Gove’a, które zaprzepaściło szanse Johnsona, opisywano jako makiaweliczny zamach polityczny47. Gove jednak bronił swego zachowania, odwołując się do własnych odczuć, i wyjaśniał: „Na każdym kroku swego życia w polityce zadawałem sobie to jedno pytanie: «Co należy robić? Co dyktuje ci serce?»”48. To dlatego, twierdzi Gove, tak zażarcie walczył o brexit, to dlatego poczuł się w obowiązku wbić swemu niegdysiejszemu sojusznikowi Borisowi Johnsonowi nóż w plecy i samemu stanąć do walki o pozycję samca alfa – ponieważ tak dyktowało mu serce.

Poleganie na odczuciach może się okazać piętą achillesową liberalnej demokracji. Z chwilą bowiem gdy ktoś (obojętne, czy w Pekinie, czy w San Francisco) zyska techniczną możliwość hakowania ludzkich serc i oddziaływania na nie, polityka demokratyczna przeobrazi się w emocjonalne przedstawienie lalkowe.

Słuchaj algorytmu

Liberalna wiara w uczucia i wolne wybory jednostek nie jest ani naturalna, ani pradawna. Przez całe tysiąclecia ludzie wierzyli, że władza pochodzi z boskiego nadania, a nie z ludzkiego serca i że z tego powodu powinniśmy przypisywać świętość raczej słowu Boga niż ludzkiej wolności. Dopiero w ostatnich kilku stuleciach źródło władzy przesunęło się z niebiańskich bóstw na ludzi z krwi i kości.

 

Wkrótce władza może przesunąć się ponownie – tym razem przejdzie z ludzi na algorytmy. Potwierdzeniem boskiej władzy były religijne mitologie, z kolei uzasadnieniem ludzkiej – opowieść liberalna. Podobnie nadchodząca rewolucja techniczna mogłaby ustanowić władzę algorytmów opartych na big data, podkopując jednocześnie samą ideę wolności jednostki.

Jak wspomnieliśmy w poprzednim rozdziale, naukowe poznanie sposobu, w jaki funkcjonują nasze mózgi i ciała, wskazuje, że nasze uczucia nie stanowią odzwierciedlenia „wolnej woli”. Są raczej biochemicznymi mechanizmami, których używają wszystkie ssaki i ptaki, aby szybko obliczać prawdopodobieństwo przetrwania i reprodukcji. Uczucia nie opierają się na intuicji, natchnieniu ani wolności – opierają się na kalkulacji.

Gdy małpa, mysz albo człowiek widzi węża, odczuwa strach, ponieważ miliony neuronów w mózgu prędko przeliczają istotne dane i dochodzą do wniosku, że prawdopodobieństwo śmierci jest wysokie. Odczucie pociągu seksualnego powstaje wówczas, gdy inne biochemiczne algorytmy obliczają, że ze znajdującym się w pobliżu osobnikiem wiąże się wysokie prawdopodobieństwo udanego spółkowania, stworzenia więzi społecznej lub osiągnięcia jakiegoś innego upragnionego celu. Uczucia o charakterze moralnym, takie jak oburzenie, poczucie winy albo przebaczenie, wywodzą się z mechanizmów układu nerwowego, które rozwinęły się w celu umożliwienia współpracy w grupie. Wszystkie te biochemiczne algorytmy doskonaliły się w ciągu milionów lat ewolucji. Jeśli uczucia jakiegoś pradawnego przodka były błędne, kształtujące je geny nie przechodziły na kolejne pokolenie. Uczucia zatem nie są przeciwieństwem racjonalności – są odbiciem racjonalności ewolucji.

Zazwyczaj nie zdajemy sobie sprawy, że uczucia to tak naprawdę obliczenia, ponieważ szybki proces kalkulacji przebiega znacznie poniżej progu naszej świadomości. Nie czujemy milionów neuronów w mózgu, które przeliczają prawdopodobieństwo przetrwania i rozmnażania się, dlatego mylnie sądzimy, że strach przed wężami, wybór partnerów seksualnych i opinie w kwestii Unii Europejskiej są wynikiem jakiejś tajemniczej „wolnej woli”.

Mimo że liberalizm myli się, uznając nasze uczucia za odbicie wolnej woli, to jednak opieranie się na nich wciąż sprawdza się w praktyce. Choć w naszych uczuciach nie ma nic „magicznego” ani „wolnego”, to jednak są one najlepszą istniejącą we wszechświecie metodą podejmowania decyzji typu: co studiować, z kim wziąć ślub i na którą partię głosować. Nie powstał do tej pory żaden zewnętrzny system, który mógłby choćby mieć nadzieję, że będzie lepiej ode mnie rozumiał moje uczucia. Nawet jeśli hiszpańska inkwizycja albo sowieckie KGB obserwowały mnie bez przerwy dzień po dniu, brakowało im wiedzy na temat biologii oraz nie miały mocy obliczeniowej koniecznej do zhakowania biochemicznych procesów kształtujących moje pragnienia i wybory. Ze względów praktycznych rozsądnie było zatem przyjmować, że mam wolną wolę, ponieważ moją wolę kształtowała głównie wzajemna zależność wewnętrznych sił, których nikt z zewnątrz nie widział. Mogłem się cieszyć złudzeniem, że mam kontrolę nad swoimi decyzjami, podczas gdy osoby z zewnątrz nigdy tak naprawdę nie były w stanie zrozumieć, co dzieje się w moim wnętrzu ani w jaki sposób podejmuję te decyzje.

A zatem liberalizm słusznie zalecał ludziom, by szli za głosem serca, a nie za nakazami jakiegoś księdza czy aparatczyka. Jednak wkrótce komputerowe algorytmy będą mogły udzielać nam lepszych rad niż ludzkie uczucia. Gdy zamiast hiszpańskiej inkwizycji i KGB będziemy mieli Google’a i Baidu, „wolna wola” zostanie prawdopodobnie zdemaskowana jako mit, a liberalizm może stracić swoje praktyczne atuty.

Znajdujemy się obecnie – jak już wspominałem – w punkcie styku dwóch ogromnych rewolucji. Z jednej strony biologowie rozszyfrowują tajemnice ciała człowieka, a w szczególności mózgu i ludzkich uczuć. Z drugiej – informatycy dają nam niespotykaną moc przetwarzania danych. Gdy rewolucja biotechnologiczna połączy się z rewolucją technologiczno-informacyjną, wówczas stworzy algorytmy oparte na big data, które będą mogły obserwować i rozumieć moje uczucia dużo lepiej niż ja sam, a wtedy władza prawdopodobnie przejdzie z ludzi na komputery. Moje złudzenie wolnej woli przypuszczalnie się rozpadnie, ponieważ codziennie będę się stykał z instytucjami, korporacjami i agencjami rządowymi, które będą rozumiały to, co dotychczas stanowiło moją niedostępną dla innych, wewnętrzną sferę – i będą na nią oddziaływały.

Coś takiego dzieje się już w dziedzinie medycyny. Najważniejsze medyczne decyzje w naszym życiu opierają się nie na naszych odczuciach co do tego, czy jesteśmy chorzy, czy zdrowi, ani nawet nie na przewidywaniach dobrze znającego nas lekarza – lecz na obliczeniach komputerów, które rozumieją nasze ciała znacznie lepiej niż my sami. W ciągu paru dziesięcioleci algorytmy oparte na big data, bazujące na stałym napływie danych biometrycznych, będą mogły monitorować nasze zdrowie dwadzieścia cztery godziny na dobę, siedem dni w tygodniu. Będą mogły wykryć już sam początek grypy, raka albo choroby Alzheimera, na długo przed tym, nim sami poczujemy, że coś jest z nami nie tak, a następnie zalecić nam odpowiednie leczenie, dietę i codzienny plan terapii – wszystko zaprojektowane specjalnie dla nas, z uwzględnieniem wyjątkowej budowy naszego ciała, naszego DNA i naszej osobowości.

Ludzie będą korzystać z najlepszej opieki medycznej w dziejach, jednak właśnie z tego powodu prawdopodobnie przez cały czas coś im będzie dolegać. Zawsze znajdzie się jakiś element organizmu, który działa wadliwie. Zawsze jest coś, co można poprawić. W przeszłości człowiek czuł się całkiem zdrowy, o ile nie doskwierał mu ból albo nie cierpiał z powodu jakiegoś wyraźnego upośledzenia, na przykład gdy był kulawy. W 2050 roku jednak – dzięki czujnikom biometrycznym i algorytmom opartym na big data – choroby będzie można diagnozować i leczyć na długo przed tym, nim doprowadzą do bólu lub kalectwa. W efekcie zawsze będziemy cierpieć z powodu jakiegoś „schorzenia” i ciągle stosować się do tych albo innych algorytmicznych zaleceń. Jeśli ktoś chciałby się od nich wykręcić, może to spowodować nieważność jego ubezpieczenia albo utratę pracy – dlaczego ktoś inny miałby płacić za czyjś upór?

Osoba uzależniona od nikotyny może się nie przejmować ogólnymi statystykami wiążącymi palenie z rakiem płuc i po prostu palić dalej. Sytuacja będzie jednak wyglądała zupełnie inaczej, gdy ktoś nie rzuci palenia mimo skierowanego do niego precyzyjnego ostrzeżenia wysłanego przez biometryczny sensor, który wykryje siedemnaście komórek rakowych w górnym płacie jego lewego płuca. Co się stanie, jeśli taki palacz spróbuje zignorować dane płynące z czujnika, ale ten czujnik prześle ostrzeżenie dalej, do jego ubezpieczyciela, szefa, matki?

Komu starczy czasu i energii, by zajmować się tymi wszystkimi chorobami? Najprawdopodobniej będziemy po prostu mogli polecić swojemu algorytmowi zdrowotnemu, by sam rozwiązał większość z tych problemów od razu w chwili ich wykrycia. Pewnie będzie wysyłał nam co jakiś czas do smartfona aktualizacje dotyczące naszych danych, z których dowiemy się, że „wykryto i zniszczono siedemnaście komórek rakowych”. Być może te powiadomienia będą sumiennie czytać hipochondrycy, większość z nas jednak nawet nie rzuci na nie okiem, tak jak nie poświęcamy uwagi choćby denerwującym komunikatom programów antywirusowych w komputerach.

Dramat podejmowania decyzji

To, co zostało już zapoczątkowane w medycynie, przypuszczalnie będzie się również dokonywało w coraz większej liczbie innych dziedzin. Kluczowym w tym względzie wynalazkiem jest sensor biometryczny – czujnik, który człowiek może nosić na ciele lub mieć go wszczepionego gdzieś wewnątrz organizmu. Jego zadaniem jest przekształcanie procesów biologicznych w informacje w postaci elektronicznej, które mogą być magazynowane i analizowane przez komputery. Dysponując wystarczającą ilością danych biometrycznych oraz dostateczną mocą obliczeniową, zewnętrzne systemy przetwarzania danych mogą zhakować wszystkie twoje pragnienia, decyzje i opinie. Mogą cię poznać na wylot.

Większość ludzi nie zna siebie zbyt dobrze. Ja na przykład zdałem sobie sprawę, że jestem gejem, dopiero gdy miałem dwadzieścia jeden lat, po kilku latach wypierania się tego. I nie jest to nic wyjątkowego. Większość gejów przez cały okres nastoletni nie jest pewna własnej seksualności. Wyobraźmy sobie teraz sytuację w 2050 roku, kiedy będzie istniał algorytm, dzięki któremu każdy nastolatek dowie się dokładnie, w jakim miejscu spektrum homo/hetero się znajduje (a nawet na ile jego miejsce na tej skali jest elastyczne). Być może działanie takiego algorytmu będzie polegało na tym, że podczas oglądania zdjęć albo filmów z atrakcyjnymi mężczyznami i kobietami czujniki będą śledzić ruchy gałek ocznych, ciśnienie krwi i aktywność mózgu badanego – i po pięciu minutach pojawi się wynik w skali Kinseya49. Coś takiego mogło mi oszczędzić wielu lat frustracji. Być może nigdy nie przyszłoby ci do głowy, by zrobić sobie taki test, ale mogłoby się zdarzyć i tak, że na przykład nudzilibyście się z grupą przyjaciół na urodzinach koleżanki i ktoś zaproponowałby, aby wszyscy po kolei sprawdzili na sobie ten świetny nowy algorytm, oczywiście podglądając swoje wyniki i je komentując. Jak byś zareagował?

Nawet gdybyś po prostu wyszedł i schował się przed samym sobą oraz przed kolegami z klasy, i tak nie byłbyś w stanie ukryć się przed Amazonem, Alibabą ani tajną policją. W trakcie surfowania po sieci, oglądania YouTube’a albo aktywności w mediach społecznościowych algorytmy przez cały czas będą cię dyskretnie monitorowały, analizowały i mówiły Coca-Coli, że jeśli chce sprzedać ci jakiś napój gazowany, to powinna wykorzystać do tego raczej reklamę z chłopakiem bez koszulki niż z dziewczyną bez koszulki. Nawet ty sam nie będziesz o tym wiedział. Ale oni – owszem, a takie informacje będą warte miliardy.

No ale przecież może to wszystko będzie całkiem jawne, a ludzie chętnie będą się dzielili informacjami, aby dostawać lepsze rekomendacje – a ostatecznie aby otrzymać algorytm, który podejmie za nich różne decyzje. Zaczyna się od prostych spraw, takich jak wybór filmu. Gdy w gronie przyjaciół siadacie przed telewizorem, by spędzić miły wieczór przed ekranem, najpierw musicie zdecydować, co będziecie oglądać. Pięćdziesiąt lat temu nie było wyboru, ale dzisiaj – wraz z pojawieniem się serwisów oferujących oglądanie na życzenie – mamy dostęp do tysięcy tytułów. Dojście do porozumienia w tych okolicznościach może być dość trudne, o ile bowiem ty lubisz thrillery science fiction, o tyle twój kumpel woli komedie romantyczne, a twoja przyjaciółka głosuje za wyrafinowanymi filmami francuskimi. Może się skończyć na tym, że za kompromis uznacie jakiś film klasy B, który dla wszystkich okaże się rozczarowaniem.

W takiej sytuacji mógłby pomóc algorytm. Każde z was podałoby tytuły obejrzanych wcześniej filmów, które naprawdę się wam podobały, a algorytm – na podstawie swej potężnej bazy danych statystycznych – będzie mógł wyszukać idealny film dopasowany do waszej grupy. Niestety, taki prymitywny algorytm może podać błędne wyniki, zwłaszcza że jak dobrze wiemy, własna ocena nie jest wiarygodną miarą prawdziwych ludzkich upodobań. Często bywa tak, że ponieważ mnóstwo ludzi chwali jakiś film i uważa go za arcydzieło, czujemy się w obowiązku go obejrzeć. I choć w połowie seansu zasypiamy, później opowiadamy wszystkim dokoła, jakie to było niewiarygodne doświadczenie, byle tylko nikt nie pomyślał, że brak nam kulturalnego wyrobienia50.

 

Tego typu problemy można jednak rozwiązać: wystarczy po prostu pozwolić algorytmowi zbierać na bieżąco dane na nasz temat. Będą one generowane podczas faktycznego oglądania filmów – nie trzeba już będzie polegać na naszych własnych samoocenach, których wiarygodność jest wątpliwa. Na początek algorytm może sprawdzić, jakie filmy obejrzeliśmy do końca, a które wyłączyliśmy w połowie. Nawet jeśli będziemy opowiadali wszem wobec i każdemu z osobna, że Przeminęło z wiatrem to najlepszy film, jaki kiedykolwiek nakręcono, to algorytm będzie wiedział, że nigdy nie obejrzeliśmy więcej niż pierwsze pół godziny i nigdy tak naprawdę nie widzieliśmy, jak płonie Atlanta.

Algorytm jednak może zajrzeć znacznie głębiej. Obecnie tworzy się oprogramowanie zdolne wykrywać ludzkie emocje na podstawie ruchu gałek ocznych i mięśni twarzy51. Wystarczy podpiąć do telewizora dobrą kamerę, a taki software będzie już wiedział, podczas których scen się śmialiśmy, które wywoływały w nas smutek, a które nas nudziły. Następnie podłączymy algorytm do czujników biometrycznych, dzięki czemu będzie wiedział, w jaki sposób poszczególne klatki filmu wpływają na nasze tętno, ciśnienie i aktywność mózgu. Na przykład gdy będziemy oglądać Pulp Fiction, algorytm może zauważyć, że scena gwałtu wywołuje w nas lekkie, niemal niedostrzegalne podniecenie seksualne, a gdy Vincent przypadkowo strzela Marvinowi w twarz, rozśmiesza nas to (choć jednocześnie czujemy się tym zawstydzeni), nie łapiemy z kolei tego żartu na temat Big Kahuna Burger – ale i tak się śmiejemy, żeby nie wyjść na głupków. Gdy człowiek śmieje się w sposób wymuszony, korzysta z innych obwodów mózgowych i innych mięśni niż wówczas, gdy śmieje się dlatego, że coś go naprawdę bawi. Ludzie zazwyczaj nie potrafią dostrzec tej różnicy. Ale czujnik biometryczny byłby tu bezbłędny52.

Słowo „telewizja” pochodzi od greckiego tele, oznaczającego ‘daleko’, oraz łacińskiego visio – ‘widzenie’. Pierwotnie miało to być urządzenie pozwalające nam widzieć z daleka. Niedługo jednak może ono sprawić, że to my b ę d z i e m y  w i d z i a n i z daleka. Jak przewidywał George Orwell w swej książce Rok 1984: gdy my będziemy oglądali telewizję, ona będzie oglądała nas. Gdy już zapoznamy się z całą filmografią Tarantina, być może z czasem zapomnimy większość jego filmów. Ale Netflix albo Amazon, albo ktokolwiek inny, kto będzie właścicielem telewizyjnego algorytmu, będzie znał nasz typ osobowości i będzie umiał w odpowiedni sposób naciskać klawisze naszych emocji. Tego rodzaju dane pozwolą Netflixowi i Amazonowi niesamowicie precyzyjnie dobierać dla nas filmy, ale też umożliwią im podejmowanie za nas najważniejszych decyzji w życiu – na przykład jakie studia wybrać, gdzie pracować albo z kim wziąć ślub.

Oczywiście Amazon nie będzie cały czas bezbłędny. To niemożliwe. Algorytmy będą się ciągle myliły z powodu niewystarczających danych, wadliwego oprogramowania, mało precyzyjnego zdefiniowania celów i ogólnie z racji chaotycznej natury rzeczywistości53. Amazon jednak nie musi być doskonały. Wystarczy, że będzie po prostu lepszy statystycznie niż my, ludzie. A to nie jest takie trudne, ponieważ większość ludzi nie zna samych siebie zbyt dobrze i często popełnia straszliwe błędy, podejmując najważniejsze życiowe decyzje. Ludzie w większym nawet stopniu niż algorytmy boleśnie doświadczają skutków wynikających z posiadania niewystarczających danych, z błędów w oprogramowaniu (genetycznym i kulturowym), niejasnych definicji i chaosu życia.

Problemów, z którymi borykają się algorytmy, jest bardzo wiele, można by więc dojść do wniosku, że ludzie nigdy im nie zaufają. Długa lista tych kłopotów przypomina jednak trochę katalog wszystkich możliwych wad demokracji: również w tym wypadku chciałoby się powiedzieć, że nikt przy zdrowych zmysłach nie wybrałby takiego systemu. Wszystkim znane są słowa Winstona Churchilla, że demokracja jest najgorszym systemem politycznym na świecie, jeśli nie liczyć wszystkich innych. Słusznie czy nie, ludzie mogą dojść do tych samych wniosków na temat algorytmów opartych na big data: wiąże się z nimi cała masa problemów, ale nie mamy lepszego rozwiązania.

W miarę jak naukowcy będą pogłębiali swoją wiedzę na temat sposobu dokonywania wyborów przez ludzi, pokusa zdania się na algorytmy będzie przypuszczalnie coraz silniejsza. Zhakowanie ludzkiego procesu podejmowania decyzji nie tylko zwiększy niezawodność opartych na big data algorytmów, lecz zarazem doprowadzi do tego, że m n i e j niezawodne staną się ludzkie uczucia. Gdy rządom i korporacjom uda się zhakować ludzki system operacyjny, zostaniemy wystawieni na potok precyzyjnie kierowanej manipulacji, reklamy i propagandy. Wpływanie na nasze opinie i emocje może stać się tak proste, że będziemy zmuszeni zdać się na algorytmy – tak samo jak pilot, który podczas lotu dostał akurat zawrotów głowy, musi więc zignorować to, co mówią mu własne zmysły, i zaufać całkowicie aparaturze.

W niektórych krajach i niektórych kwestiach ludzie mogą nie mieć w ogóle wyboru i zostaną zmuszeni do podporządkowania się decyzjom algorytmów opartych na big data. Nawet jednak w społeczeństwach uchodzących za wolne algorytmy mogą zdobyć władzę, ponieważ doświadczenie nauczy nas ufać im w coraz większej liczbie sytuacji i stopniowo stracimy zdolność samodzielnego podejmowania decyzji. Wystarczy przypomnieć, jak w ciągu zaledwie dwóch dziesięcioleci miliardy ludzi nauczyły się powierzać algorytmowi wyszukiwania Google’a jedno z najważniejszych zadań: znajdowanie użytecznych i wiarygodnych informacji. Właściwie już nie szukamy informacji. Zamiast tego googlujemy. A w miarę jak coraz bardziej opieramy się na Google’u, poszukując odpowiedzi, zmniejsza się nasza zdolność samodzielnego pozyskiwania informacji. Już dzisiaj „prawdę” definiują najwyżej się plasujące wyniki wyszukiwania Google’a54.

To samo dzieje się z umiejętnościami fizycznymi, na przykład z orientacją w przestrzeni. O poprowadzenie do celu ludzie proszą Google’a. Gdy dojeżdżają do jakiegoś skrzyżowania, intuicja może im podpowiadać: „skręć w lewo”, ale Mapy Google mówią: „skręć w prawo”. Za pierwszym razem słuchają intuicji, skręcają w lewo, trafiają na korek i spóźniają się na ważne spotkanie. Następnym razem słuchają Google’a, skręcają w prawo i udaje im się zdążyć na czas. Uczą się ufać Google’owi na podstawie doświadczenia. Po roku lub dwóch ślepo polegają na tym, co mówią Mapy Google, a kiedy padnie im smartfon, są jak dzieci we mgle.

W marcu 2012 roku w Australii troje japońskich turystów postanowiło wybrać się na całodzienną wycieczkę na jakąś wysepkę i wjechało samochodem prosto do Oceanu Spokojnego. Kierująca nim dwudziestojednoletnia Yuzu Noda oznajmiła później, że po prostu wykonywała polecenia GPS-u: „on powiedział, że możemy tamtędy przejechać. Cały czas mówił, że poprowadzi nas do drogi. Ugrzęźliśmy”55. W kilku podobnych sytuacjach, najwyraźniej wykonując polecenia GPS-u, ludzie wjeżdżali do jeziora albo spadali z krawędzi rozebranego mostu56. Zdolność odnajdywania drogi jest jak mięśnie – nieużywana zanika57. To samo dotyczy umiejętności wybierania sobie małżonka albo profesji.

Co roku miliony młodych ludzi muszą decydować, gdzie iść na studia. To bardzo ważna i niezwykle trudna decyzja. Młody człowiek znajduje się pod silną presją ze strony rodziców, przyjaciół i nauczycieli, którzy mają różne interesy i różne zdania. Ma też własne marzenia i obawy, z którymi musi sobie radzić. Jego ocenę sytuacji mącą hollywoodzkie filmy, szmirowate powieści oraz wyrafinowane kampanie reklamowe. Trudno jest mu podjąć mądrą decyzję przede wszystkim dlatego, że tak naprawdę nie wie, co jest potrzebne do odniesienia sukcesu w różnych zawodach, poza tym niekoniecznie ma realistyczne wyobrażenie na temat własnych mocnych i słabych stron. Czego potrzeba, by być dobrym prawnikiem? Jak sobie radzę pod presją? Czy dobrze pracuję w zespole?

Może się zdarzyć, że jakaś dziewczyna wybierze studia prawnicze, ponieważ ma niewłaściwe wyobrażenie na temat własnych umiejętności i jeszcze bardziej zniekształconą wizję tego, z czym w rzeczywistości wiąże się bycie prawnikiem (wcale nie trzeba przez cały dzień wygłaszać patetycznych przemówień ani krzyczeć: „Sprzeciw, Wysoki Sądzie!”). Tymczasem jej przyjaciółka postanawia spełnić swoje marzenie z dzieciństwa i pójść na studia artystyczne, na których chce się uczyć zawodowo tańca baletowego, mimo że nie ma odpowiedniej do tego budowy kości, brakuje jej też koniecznej dyscypliny. Po latach obie kobiety bardzo żałują swych decyzji. W przyszłości będziemy mogli oprzeć się na Google’u, który będzie podejmował takie decyzje za nas. Google będzie mógł mi powiedzieć, że studia na wydziale prawa lub w szkole baletowej będą dla mnie stratą czasu – a jednocześnie, że mógłbym zostać znakomitym (i bardzo szczęśliwym) psychologiem albo hydraulikiem58.

Z chwilą gdy sztuczna inteligencja stanie się lepsza od nas w podejmowaniu decyzji w sprawie naszej kariery, a może nawet naszych związków, będzie się musiało zmienić nasze pojęcie ludzkości i życia. Przywykliśmy myśleć o życiu jako o dramacie podejmowania decyzji. Demokracja liberalna i kapitalizm wolnorynkowy traktują jednostkę jako niezależny podmiot, który nieustannie dokonuje wyborów dotyczących świata. Wszelkie utwory narracyjne – czy będą to sztuki Szekspira, powieści Jane Austen czy tandetne hollywoodzkie komedie – zazwyczaj obracają się wokół bohatera, który musi podjąć jakąś wyjątkowo ważną decyzję. Być albo nie być? Posłuchać żony i zabić Dunkana czy posłuchać głosu sumienia i oszczędzić starego króla? Wyjść za pana Collinsa czy za pana Darcy’ego? Na dramacie, jakim jest podejmowanie decyzji, skupiona jest również chrześcijańska i muzułmańska teologia, które twierdzą, że wieczne zbawienie lub potępienie zależy od dokonania właściwego wyboru.

Co stanie się z tą wizją życia, gdy coraz bardziej będziemy się zdawać na podpowiedzi sztucznej inteligencji? Obecnie Netflixowi powierzamy rekomendowanie nam filmów, a Mapom Google decydowanie, w którą stronę skręcić na skrzyżowaniu. Z chwilą jednak gdy zaczniemy polegać na SI w zakresie wyboru studiów, pracy, żony czy męża, ludzkie życie przestanie być dramatem podejmowania decyzji. Demokratyczne wybory i wolny rynek nie będą miały wielkiego sensu. Podobnie jak większość religii i dzieł literackich. Wyobraźmy sobie Annę Kareninę, która bierze do ręki smartfona i pyta facebookowy algorytm, czy powinna nadal być żoną Karenina, czy uciec z dziarskim hrabią Wrońskim. Albo pomyślmy o swojej ulubionej sztuce Szekspira, w której wszystkie najważniejsze decyzje podejmuje algorytm Google’a. Życie Hamleta i Makbeta będzie znacznie szczęśliwsze, ale jakiego właściwie rodzaju to będzie życie? Czy mamy modele pozwalające je rozumieć?

Gdy władza przejdzie z ludzi na algorytmy, możemy przestać rozumieć świat jako przestrzeń, w której niezależne jednostki starają się podejmować właściwe wybory. Zamiast tego możemy zacząć postrzegać cały wszechświat jako przepływ danych, uważając, że organizmy to nic więcej niż biochemiczne algorytmy, i wierząc, że powołaniem ludzkości w kosmosie jest stworzenie wszechogarniającego systemu przetwarzania danych – a następnie włączenie się weń. Już dzisiaj stajemy się maleńkimi chipami wewnątrz gigantycznego systemu przetwarzania danych, którego nikt tak do końca nie rozumie. Codziennie za pośrednictwem e-maili, tweetów i artykułów przyswajam niezliczone bity danych, przetwarzam te dane i przekazuję z powrotem nowe bity za pośrednictwem kolejnych e-maili, tweetów i artykułów. Tak naprawdę nie wiem, gdzie jest moje miejsce w ogólnym planie ani w jaki sposób moje bity danych łączą się z bitami wytwarzanymi przez miliardy innych ludzi i komputerów. Nie mam czasu się tego dowiadywać, ponieważ jestem za bardzo zajęty odpowiadaniem na te wszystkie e-maile.

Filozoficzny samochód

Ktoś mógłby zaprotestować, mówiąc, że algorytmy nigdy nie będą w stanie podejmować za nas ważnych decyzji, ponieważ takie decyzje zazwyczaj dotyczą wymiaru etycznego, a algorytmy nie rozumieją etyki. Nie ma jednak powodu, by zakładać, że algorytmy nie okażą się lepsze od przeciętnego człowieka nawet w etyce. Już dzisiaj, gdy smartfony i pojazdy autonomiczne podejmują decyzje, które niegdyś uchodziły za zarezerwowane dla ludzi, urządzenia te zaczynają borykać się z tymi samymi problemami etycznymi, którymi przez całe tysiąclecia zadręczali się ludzie.

  M. Thatcher, Interview for Woman’s Own („no such thing as society”), Margaret Thatcher Foundation, 23 września 1987, https://www.margaretthatcher.org/document/106689 (dostęp: 7 stycznia 2018). Polski przekład za: M. Sztuka, Anachronizm i aktualność. Idea resocjalizacji w sporze o nowoczesność, Kraków 2013, s. 141, przypis 34, https://books.google.pl/books?id=3oXOCgAAQBAJ (dostęp: 27 marca 2018) (dopisek tłum.).
45K. Stanovich, Who Is Rational? Studies of Individual Differences in Reasoning, New York 1999.
  R. Dawkins, Richard Dawkins: We Need a New Party – the European Party, „New Statesman”, 29 marca 2017, https://www.newstatesman.com/politics/uk/2017/03/richard-dawkins-we-need-new-party-european-party (dostęp: 1 marca 2018).   S. Swinford, Boris Johnson’s allies accuse Michael Gove of „systematic and calculated plot” to destroy his leadership hopes, „Telegraph”, 30 czerwca 2016, http://www.telegraph.co.uk/news/2016/06/30/boris-johnsons-allies-accuse-michael-gove-of-systematic-and-calc/ (dostęp: 3 września 2017); R. Mason, H. Stewart, Gove’s thunderbolt and Boris’s breaking point. A shocking Tory morning, „Guardian”, 30 czerwca 2016, https://www.theguardian.com/politics/2016/jun/30/goves-thunderbolt-boris-johnson-tory-morning (dostęp: 3 września 2017).   J. Tapsfield, Gove presents himself as the integrity candidate for Downing Street job but sticks the knife into Boris AGAIN, „Daily Mail”, 1 lipca 2016, http://www.dailymail.co.uk/news/article-3669702/I-m-not-great-heart-s-right-place-Gove-makes-bizarre-pitch-Downing-Street-admitting-no-charisma-doesn-t-really-want-job.html (dostęp: 3 września 2017).   W 2017 roku zespół ze Stanfordu opracował algorytm, który podobno potrafi ustalić preferencję seksualną mężczyzny z trafnością do 91 procent, opierając się wyłącznie na analizie kilku zdjęć twarzy (https://osf.io/zn79k/). Ponieważ jednak opracowano go na bazie zdjęć, które ludzie sami wybierali i przesyłali na strony randkowe, w rzeczywistości może być tak, że algorytm rozpoznaje różnice w zakresie ideałów kulturowych. Rzecz nie musi polegać na tym, że rysy twarzy homoseksualistów różnią się od rysów heteroseksualistów. Chodzi raczej o to, że geje wrzucający swoje zdjęcia na gejowską stronę randkową próbują się dopasować do innych ideałów kulturowych niż heteroseksualni mężczyźni wysyłający swe zdjęcia na portale randkowe dla osób heteroseksualnych.
50D. Chan, So Why Ask Me? Are Self-Report Data Really That Bad?, [w:] Statistical and Methodological Myths and Urban Legends, red. Ch.E. Lance, R.J. Vandenberg, New York – London 2009, s. 309–336; D.L. Paulhus, S. Vazire, The Self-Report Method, [w:] Handbook of Research Methods in Personality Psychology, red. R.W. Robins, R.Ch. Farley, R.F. Krueger, London – New York 2007, s. 228–233.
  E. Dwoskin, E.M. Rusli, The Technology that Unmasks Your Hidden Emotions, „Wall Street Journal”, 28 stycznia 2015, https://www.wsj.com/articles/startups-see-your-face-unmask-your-emotions-1422472398 (dostęp: 6 września 2017).   N. Andrade, Computers Are Getting Better Than Humans at Facial Recognition, „Atlantic”, 9 czerwca 2014, https://www.theatlantic.com/technology/archive/2014/06/bad-news-computers-are-getting-better-than-we-are-at-facial-recognition/372377/ (dostęp: 10 grudnia 2017); E. Dwoskin, E.M. Rusli, The Technology That Unmasks Your Hidden Emotions, „Wall Street Journal”, 28 czerwca 2015, https://www.wsj.com/articles/startups-see-your-face-unmask-your-emotions-1422472398 (dostęp: 10 grudnia 2017); S.K. Scott, N. Lavan, S. Chen, C. McGettigan, The Social Life of Laughter, „Trends in Cognitive Sciences” 2014, nr 18(12), s. 618–620.
53D. First, Will big data algorithms dismantle the foundations of liberalism?, „AI & Soc”, doi: 10.1007/s00146-017-0733-4.
  C. Cadwalladr, Google, Democracy and the Truth about Internet Search, „Guardian”, 4 grudnia 2016, https://www.theguardian.com/technology/2016/dec/04/google-democracy-truth-internet-search-facebook (dostęp: 6 września 2017).   J. Freak, Sh. Holloway, How Not to Get to Straddie, „Red Land City Bulletin”, 15 marca 2012, http://www.redlandcitybulletin.com.au/story/104929/how-not-to-get-to-straddie/ (dostęp: 1 marca 2018).   M. McQuigge, Woman Follows GPS; Ends Up in Ontario Lake, „Toronto Sun”, 13 maja 2016, http://torontosun.com/2016/05/13/woman-follows-gps-ends-up-in-ontario-lake/wcm/fddda6d6-6b6e-41c7-88e8-aecc501faaa5 (dostęp: 1 marca 2018); Woman Follows GPS into Lake, news.com.au, 16 maja 2016, http://www.news.com.au/technology/gadgets/woman-follows-gps-into-lake/news-story/a7d362dfc4634fd094651afc63f853a1 (dostęp: 1 marca 2018).   H. Grabar, Navigation Apps Are Killing Our Sense of Direction. What if They Could Help Us Remember Places Instead?, „Slate”, http://www.slate.com/blogs/moneybox/2017/07/10/google_and_waze_are_killing_out_sense_of_direction_what_if_they_could_help.html (dostęp: 6 września 2017).   J. Delman, Are Amazon, Netflix, Google Making Too Many Decisions For Us?, „Forbes”, 24 listopada 2010, https://www.forbes.com/2010/11/24/amazon-netflix-google-technology-cio-network-decisions.html (dostęp: 6 września 2017); C. Mazanec, Will Algorithms Erode Our Decision-Making Skills?, „NPR”, 8 lutego 2017, http://www.npr.org/sections/alltechconsidered/2017/02/08/514120713/will-algorithms-erode-our-decision-making-skills (dostęp: 6 września 2017).