Hello worldTekst

Przeczytaj fragment
Oznacz jako przeczytane
Jak czytać książkę po zakupie
Nie masz czasu na czytanie?
Posłuchaj fragmentu
Hello world
Hello world
− 20%
Otrzymaj 20% rabat na e-booki i audiobooki
Kup zestaw za 64,80  51,84 
Hello World
Audio
Hello world
Audiobook
Czyta Marta Król
34,90 
Szczegóły
Hello World
Audiobook
Czyta Hannah Fry
Szczegóły
Czcionka:Mniejsze АаWiększe Aa


Spis treści

Karta redakcyjna

Dedykacja

Parę słów o tytule

Wstęp

Władza

Dane

Wymiar sprawiedliwości

Medycyna

Samochody

Przestępczość

Sztuka

Zakończenie

Podziękowania

Podziękowania za udostępnienie zdjęć

Przypisy

Tytuł oryginału: HELLO WORLD. HOW TO BE HUMAN IN THE AGE OF THE MACHINE

Opieka redakcyjna: MACIEJ ZARYCH

Konsultacja: dr RAFAŁ MICHALCZAK

Redakcja: PAWEŁ CIEMNIEWSKI

Korekta: Pracownia 12A, HENRYKA SALAWA

Projekt okładki: GEOFFREY DAHL

Adaptacja okładki na podstawie oryginału: MAREK PAWŁOWSKI

Redakcja techniczna: ROBERT GĘBUŚ

Skład i łamanie: Infomarket

Copyright © 2018 by Hannah Fry

All rights reserved including the rights of reproduction in whole or in part in any form

© Copyright for the Polish translation by Sebastian Musielak

© Copyright for this edition by Wydawnictwo Literackie, 2019

Wydanie pierwsze

ISBN 978-83-08-06733-8

Wydawnictwo Literackie Sp. z o.o.

ul. Długa 1, 31-147 Kraków

tel. (+48 12) 619 27 70

fax. (+48 12) 430 00 96

bezpłatna linia telefoniczna: 800 42 10 40

e-mail: ksiegarnia@wydawnictwoliterackie.pl Księgarnia internetowa: www.wydawnictwoliterackie.pl

Konwersja: eLitera s.c.

Dla Marie Fry

Dziękuję, że nie chciałaś słuchać moich wymówek.

Dokument chroniony elektronicznym znakiem wodnym

This ebook was bought on LitRes

Parę słów o tytule

Kiedy miałam siedem lat, tata przyniósł do domu ZX Spectrum, mały, ośmiobitowy komputer. Ani ja, ani moje siostry nie miałyśmy wcześniej komputera. Mimo że był używany i pewnie już od dobrych pięciu lat uważano go za staroć, ja i tak byłam przekonana, że ta skrzynka skrywa w sobie coś wyjątkowego. Nasza czarna bestia była z grubsza zbliżona parametrami do Commodore’a 64 (komputera, który w latach dziewięćdziesiątych miały tylko naprawdę bogate dzieciaki), ale w moim odczuciu prezentowała się znacznie atrakcyjniej. Lśniąca obudowa z tworzywa sama pchała się do rąk, a szare gumowe klawisze i ukośny tęczowy pasek z prawej strony budziły natychmiastową sympatię.

Pojawienie się w naszym domu ZX Spectrum było początkiem niezapomnianych chwil: razem ze starszą siostrą spędziłam wtedy całe lato na strychu, pisząc programiki do gry w szubienicę czy rysowania prostych figur. Na bardziej zaawansowane zabawy trzeba było trochę poczekać. Najpierw musiałyśmy opanować podstawy.

Nie pamiętam dokładnie, kiedy napisałam swój pierwszy w życiu program komputerowy, ale chyba wiem, co to było: ten sam prosty program, którego później uczyłam wszystkich swoich studentów na University College of London; ten sam, który można znaleźć na pierwszej stronie niemal każdego podręcznika podstaw informatyki. Jestem tego pewna, bo w gronie osób, które kiedykolwiek uczyły się programować, istnieje pewna tradycja, swoisty rytuał przejścia: pierwszym zadaniem adepta informatyki jest zaprogramowanie komputera tak, żeby wyświetlił na monitorze słynne już dzisiaj słowa:

HELLO WORLD.

Tradycja ta sięga lat siedemdziesiątych ubiegłego wieku, bo to wtedy właśnie Brian Kernighan zawarł ten programik w swoim niezwykle popularnym podręczniku programowania[1][1*]. Książka ta, a wraz z nią to słynne wyrażenie stały się kamieniami milowymi historii komputerów – na arenie dziejów pojawił się właśnie mikroprocesor, obwieszczając koniec epoki komputerów przeszłości – gigantycznych machin dla wybranych, karmionych przez specjalistów kartami i taśmami perforowanymi – i początek nowej ery, w której w domach zaczęły pojawiać się zbliżone do znanych nam dzisiaj komputery osobiste z monitorem, klawiaturą i migającym kursorem. Program „Hello world” powstał na progu czasów, kiedy pogawędka z własnym komputerem dopiero zaczynała być możliwa.

Wiele lat później Brian Kernighan zdradził dziennikarzowi „Forbesa”, skąd wziął inspirację do swojego słynnego programu: otóż zobaczył w jakiejś kreskówce pisklę, które tuż po wykluciu się z jaja zapiszczało radośnie: „Hello world!”.

Nie do końca wiadomo, kogo to pisklę miałoby odgrywać w naszym scenariuszu: czy nieustraszonego amatora, który triumfalnie obwieszcza swoje przybycie do świata programistów, czy może sam komputer, budzący się z nudnego snu wypełnionego arkuszami kalkulacyjnymi i edytorami tekstów i odkrywający prawdziwy świat, gdzie przyjdzie mu wykonywać polecenia nowych panów? Być może jedno i drugie. W każdym razie „Hello world” jednoczy wszystkich programistów świata, łącząc ich zarazem z każdą maszyną, jaką zaprogramował człowiek.

Lubię to wyrażenie z jeszcze innego powodu: chyba nigdy nie było bardziej aktualne i ważniejsze niż teraz. W czasach, kiedy algorytmy komputerowe coraz bardziej kontrolują i określają naszą przyszłość, „Hello world” stanowi przypomnienie o możliwości dialogu człowieka z maszyną. O chwili, w której naprawdę nie sposób już ustalić, kto wydaje polecenia, a kto je wykonuje. To początek partnerstwa – wspólnej podróży, której nie zdołamy odbyć w pojedynkę.

W epoce maszyn warto o tym pamiętać.

Wstęp

Każdy, kto kiedykolwiek odwiedził park w Jones Beach na wyspie Long Island w Nowym Jorku, na pewno zauważył wiadukty w drodze nad ocean. Konstrukcje te, zaprojektowane głównie z myślą o kierowaniu pojazdów z autostrady i na autostradę, mają pewną niezwykłą cechę: otóż ich łagodne łuki zawieszone są wyjątkowo nisko nad asfaltową jezdnią – bywa, że zaledwie około 2,8 metra.

To nie przypadek. Cofnijmy się do lat dwudziestych XX wieku. Robert Moses, wpływowy nowojorski urbanista, bardzo chciał przekształcić swój nowy park w Jones Beach w oazę spokoju dla białych i zamożnych Amerykanów. Wiedząc, że preferowana przez niego klientela będzie dojeżdżać na plażę prywatnymi autami, a czarnoskóra biedota publicznym transportem, próbował ograniczyć dostęp tej drugiej do parku, przerzucając setki wiaduktów bardzo nisko nad autostradą. Tak nisko, by wyższe o niespełna metr autobusy nie mogły pod nimi przejechać[1].

Rasistowskie wiadukty to nie jedyne przykłady materii nieożywionej, która bez szumu i rozgłosu sprawuje kontrolę nad ludźmi. Historia zna niezliczone przypadki przedmiotów i wynalazków o możliwościach kontroli znacznie wykraczających poza zakres ich rzekomych zastosowań[2]. Niekiedy możliwości te są z makiaweliczną przebiegłością zaplanowane od samego początku, a czasem znów objawiają się jako wynik bezmyślności projektanta: wystarczy wspomnieć o miejskich torach przeszkód dla wózków inwalidzkich. Czasem znów bywają niezamierzonym skutkiem, jak zmechanizowane warsztaty tkackie z XIX wieku, które miały jedynie ułatwić produkcję tkanin o skomplikowanym splocie, stało się jednak inaczej: całkiem możliwe, że przez to, jak wpłynęły na zarobki, bezrobocie i warunki pracy, pomogły ustanowić tyranię gorszą od kapitalizmu epoki wiktoriańskiej.

Współczesne wynalazki nie stanowią wyjątków. Spytajcie choćby mieszkańców Scunthorpe w północnej Anglii, pozbawionych możliwości założenia konta na portalu AOL, odkąd ten internetowy gigant uruchomił nowy filtr rodzinny, który miał zastrzeżenia do nazwy ich miasta[3][2*]. Albo Nigeryjczyka Chukwuemekę Afigbo, odkrywcę dozownika mydła do rąk, który działał doskonale za każdym razem, kiedy jego biały kolega umieszczał swoją dłoń pod czujnikiem, nie potrafił już jednak rozpoznać ciemniejszego odcienia skóry[4]. Albo Marka Zuckerberga, który pisząc w 2004 roku kod Facebooka w swoim pokoju w harvardzkim akademiku, nie potrafiłby sobie nawet wyobrazić, że jego dzieło zostanie kiedyś oskarżone o współudział w manipulacjach wyborczych na całym świecie[5].

Za każdym z tych wynalazków stoi algorytm. Algorytmy, niewidzialne fragmenty kodu tworzące konstrukcję i mechanikę współczesnej ery maszyn, dały światu wszystko – od subskrypcji kanałów informacyjnych w mediach społecznościowych, przez wyszukiwarki i nawigację satelitarną, aż po systemy rekomendacji utworów muzycznych – i stanowią część naszej nowoczesnej infrastruktury na równi z mostami, budynkami i fabrykami. Zainstalowaliśmy je w szpitalach, salach sądowych i samochodach. Używane są przez policję, supermarkety i studia filmowe. Poznały nasze upodobania i antypatie; mówią nam, co obejrzeć, co przeczytać i z kim się umówić na randkę. Mają przy tym ukryte możliwości, dzięki czemu powoli i subtelnie zmieniają kryteria człowieczeństwa.

 

W tej książce poznamy rozmaite algorytmy, którym coraz bardziej – choć zapewne nieświadomie – zawierzamy w życiu. Przyjrzymy się dokładnie temu, co nam obiecują, zrewidujemy ich ukryte możliwości i zmierzymy się z pytaniami, z którymi nas konfrontują. Poznamy algorytmy używane przez policję w celu ustalenia potencjalnych podejrzanych, które każą nam wybierać: czy chronić ofiary przestępstw, czy uniwersalne prawo do domniemywania niewinności. Poznamy algorytmy używane przez sędziów do formułowania orzeczeń, które zmuszają do zastanowienia się nad tym, jak ma wyglądać nasz wymiar sprawiedliwości. Znajdziemy tu algorytmy używane przez lekarzy do podważania własnych diagnoz; algorytmy stosowane w samochodach autonomicznych, które żądają od nas, abyśmy uściślili nasze zasady moralne; algorytmy, które wpływają na to, jak wyrażamy emocje; algorytmy, które mogą podkopywać nasze demokracje.

Nie twierdzę, że algorytmy są z natury złe. Jak się przekonasz, czytając tę książkę, mamy wiele powodów, by na naszą przyszłość patrzeć z optymizmem. Żaden przedmiot ani żaden algorytm nie może być zły czy dobry sam w sobie – o tym decyduje sposób jego wykorzystania. System GPS wymyślono dla systemów nuklearnych, a dziś pomaga nam realizować zamówienia na pizzę. Zapętlona muzyka pop była wykorzystywana w charakterze tortury, a bez względu na to, jak piękny może być wieniec z kwiatów, teoretycznie mogłabym cię nim udusić. Chcąc wyrobić sobie zdanie o algorytmie, musimy najpierw zrozumieć relację człowieka i maszyny. Każdy algorytm wiąże się z ludźmi, którzy go opracowali i potem wdrożyli.

Tak naprawdę zatem jest to książka o ludziach. O tym, kim jesteśmy, dokąd zmierzamy, co jest dla nas ważne – i jak to się zmienia dzięki nowoczesnej technice. To książka o naszej relacji z algorytmami, które już istnieją, które pracują z nami ramię w ramię, zwiększając nasze możliwości, poprawiając nasze błędy, rozwiązując nasze problemy – i przysparzając nam nowych.

Stawiajmy sobie pytanie, czy bilans zysków i strat dla danego algorytmu będzie dla nas korzystny; pytajmy o to, w którym momencie powinniśmy bardziej zaufać maszynie niż własnemu osądowi, a kiedy należałoby oprzeć się pokusie i nie cedować władzy na maszynę. Rozkładajmy algorytmy na czynniki pierwsze i rozpoznawajmy ich ograniczenia; zaglądajmy głęboko w siebie i rozpoznawajmy własne ułomności. Ustalajmy, co nam szkodzi, a co nam pomaga, i decydujmy, w jakim świecie chcielibyśmy żyć.

Przyszłość nie zdarza się po prostu. My ją tworzymy.

Władza

Garry Kasparow doskonale wiedział, jak zastraszać rywali. W wieku trzydziestu czterech lat był największym szachistą, jakiego widział świat – tak porażająca renoma musiała działać na każdego. Na domiar złego stosował jeszcze jeden paskudny trik, który zupełnie odbierał przeciwnikowi chęć do walki: kiedy ten łamał sobie głowę nad zapewne najtrudniejszą partią w całym swoim życiu, Rosjanin niedbałym ruchem sięgał po zegarek, który do tej pory leżał obok szachownicy, i zakładał go z powrotem na przegub lewej ręki. Gest mówił sam za siebie – Garry’emu znudziła się już zabawa w kotka i myszkę. Sztuczka z zegarkiem była jasnym sygnałem dla rywala, że czas złożyć broń. Nie każdy chciał się podporządkować, ale wiadomo było, że partia jest już i tak przegrana[1].

Kiedy jednak w maju 1997 roku doszło do słynnego meczu Kasparowa z zaprojektowanym przez firmę IBM komputerem szachowym Deep Blue, przeciwnik Rosjanina był odporny na podobne zagrywki. Wynik tego pojedynku jest dobrze wszystkim znany, znacznie mniej za to wiadomo, w jaki sposób Deep Blue zdołał go sobie zapewnić. Podstawą tego symbolicznego zwycięstwa maszyny nad człowiekiem, które z wielu względów można uważać za początek epoki algorytmów, było coś więcej niż tylko czysta, surowa moc obliczeniowa. Żeby pokonać Kasparowa, Deep Blue musiał zobaczyć w nim nie tylko nadzwyczaj sprawny procesor szachowy mogący wyliczać rewelacyjne posunięcia, lecz także – człowieka.

Inżynierowie IBM-u błysnęli geniuszem i tak zaprojektowali swój Deep Blue, żeby maszyna sprawiała wrażenie znacznie mniej pewnej swoich obliczeń, niż była w rzeczywistości. Podczas słynnego sześciopartiowego meczu z maja 1997 roku komputer po zakończeniu obliczeń wstrzymywał się co pewien czas z oznajmieniem ruchu, niekiedy nawet na kilka długich minut. Z drugiej strony szachownicy opóźnienia te mogły być odbierane jak wewnętrzne zmagania maszyny, która usiłuje ciągle przeliczać nowe warianty. To z kolei zdawało się potwierdzać przypuszczenia Kasparowa: że zdołał doprowadzić do sytuacji, w której liczba możliwych wariantów stawała się tak oszałamiająca, iż Deep Blue nie był już w stanie się zdecydować na żaden sensowny ruch[2]. W rzeczywistości Deep Blue doskonale wiedział, jaki ruch wykona; po prostu włączał bieg jałowy i czekał, nie przejmując się upływem czasu. Sztuczka była wredna, ale bardzo skuteczna. Już w pierwszej partii meczu Kasparow zaczął mieć problemy z koncentracją, snując domysły o możliwościach swojego przeciwnika[3].

Ostatecznie pierwszą partię wygrał Kasparow, lecz już w drugiej Deep Blue na dobre zaczął czytać mu w myślach. Rosjanin próbował zwabić komputer w pułapkę, podsuwając mu kilka figur w zamian za doskonałą pozycję – przyjęcie ofiary pozwoliłoby mu po kilku posunięciach włączyć do gry hetmana i rozpocząć atak[4]. Wszyscy obserwujący partię eksperci szachowi spodziewali się – podobnie jak sam Kasparow – że maszyna połknie haczyk. Deep Blue jednak zwęszył podstęp. Ku wielkiemu zaskoczeniu arcymistrza przewidział jego zamiary i zablokował mu hetmana, przekreślając jakiekolwiek szanse na zwycięstwo w tej partii człowieka z maszyną[5].

Kasparow był wyraźnie wstrząśnięty. Błąd w ocenie możliwości komputera zupełnie wytrącił go z równowagi. W wywiadzie udzielonym kilka dni po meczu powiedział, że Deep Blue „przez pewien czas grał, jakby był jakimś bogiem”[6]. Kiedy wiele lat później wrócił myślami do tamtej chwili, napisał tak: „Popełniłem błąd, bo założyłem, że ruchy komputera, które mogły wydawać się zaskakujące, były zarazem obiektywnie mocne”[7]. Tak czy owak, był to triumf geniuszu algorytmu. Deep Blue zrozumiał ludzki umysł – i zarazem ludzką omylność – po czym przypuścił szturm i zwyciężył.

Zdruzgotany Kasparow poddał drugą partię, rezygnując z walki o remis. Już nie odzyskał dawnej pewności siebie. Trzecia, czwarta i piąta partia zakończyły się remisem. Kiedy Kasparow siadał do szóstej partii, był załamany. Mecz zakończył się wynikiem: Deep Blue 3½ – Kasparow 2½.

Dziwna to była przegrana. Rosjanin miał wszelkie szanse, by wyjść obronną ręką z trudnych pozycji na szachownicy, najpierw jednak zbyt nisko oszacował możliwości algorytmu, a potem pozwolił mu się zastraszyć. „Byłem pod wielkim wrażeniem gry Deep Blue – napisał w 2017 roku. – Za bardzo zacząłem przejmować się tym, do czego jeszcze może być zdolny, i straciłem z oczu fakt, że mam problemy nie dlatego, że on gra tak dobrze, tylko dlatego, że ja gram tak źle”[8].

Jak jeszcze nieraz przekonamy się w tej książce, oczekiwania są ważne. Historia Deep Blue i wielkiego arcymistrza pokazuje, że potęga algorytmu nie jest prostą funkcją tego, co zostało zapisane w liniach jego kodu. Zrozumienie naszych ułomności i słabości oraz ograniczeń maszyny to klucz do utrzymania kontroli.

Jeżeli jednak nie potrafił tego pojąć człowiek pokroju Kasparowa, to jaką szansę mają zwykli zjadacze chleba? Na kolejnych stronach przekonamy się, że algorytmy zakradły się do niemal każdej sfery życia współczesnego człowieka: od służby zdrowia i organów ścigania po transport i politykę. Tymczasem my z jednej strony wypieramy ich istnienie, a z drugiej – żyjemy w bezustannym lęku przed ich nadludzkimi możliwościami. W ostatecznym rozrachunku sami za dobrze nie wiemy, jak wielką władzę oddajemy algorytmom – i czy aby sprawy nie zdążyły już zajść zdecydowanie za daleko.

Mała powtórka

Zanim porozmawiamy o tych problemach, warto może poświęcić chwilę słowu „algorytm” i zastanowić się nad tym, co rzeczywiście ono znaczy. To jedno z tych określeń, które mimo częstego używania niewiele nam mówi – bo i jest niejasne. Oficjalna definicja algorytmu brzmi następująco[9]:

algorytm (rzecz.): krokowa procedura rozwiązania problemu lub osiągnięcia określonego celu, szczególnie przez komputer.

I tyle. Algorytm to po prostu ciąg instrukcji logicznych, które mówią od początku do końca, jak wykonać określone zadanie. W tej obszernej definicji algorytmu zmieściłby się także przepis na placek. Albo wskazówki, jakich udzielisz zagubionemu turyście. Instrukcje z IKE-i, filmiki z YouTube’a pokazujące sposób rozwiązania jakiegoś problemu, a nawet poradniki – teoretycznie każdy samoistny zestaw instrukcji, jak osiągnąć ściśle określony cel, może być uznany za algorytm.

Tylko że słowa „algorytm” nie używa się w takim ogólnym znaczeniu. Zazwyczaj algorytmy określają coś bardziej konkretnego; owszem, rzecz ciągle sprowadza się do listy kolejno wykonywanych instrukcji, lecz algorytmy, o których będziemy mówić w tej książce, to niemal zawsze obiekty matematyczne. Korzystając z równań, arytmetyki, algebry, analizy, logiki i rachunku prawdopodobieństwa, przetwarzają ciąg operacji matematycznych na kod komputerowy. Karmimy je danymi ze świata rzeczywistego, określamy zadanie i każemy je wykonać. To właśnie algorytmy czynią z informatyki prawdziwą naukę i to one stoją za wieloma najbardziej spektakularnymi osiągnięciami nowoczesnych maszyn.

Liczba istniejących dziś algorytmów jest trudna do oszacowania. Każdy z nich ma własne cele, własne dziwactwa, mocne strony i słabe punkty – brak jest metody, która pozwoliłaby na ich jednoznaczne pogrupowanie. Może zatem warto pokusić się o uproszczenie i podzielić zadania wykonywane przez algorytmy w świecie rzeczywistym na cztery główne grupy[10]:

Priorytetyzacja: tworzenie uporządkowanej listy

Google Search przewiduje, którą stronę chcemy zobaczyć, i tworzy ranking wyświetleń. Netflix proponuje film, który mógłby cię zainteresować. Twój TomTom wybiera dla ciebie najszybszą trasę. Google, Netflix czy TomTom do uporządkowania ogromnej liczby możliwości wyboru wykorzystują matematykę. Również Deep Blue opierał się na algorytmie priorytetyzacji, analizując na każdym kroku wszystkie dopuszczalne ruchy na szachownicy i oceniając, który daje największą szansę na zwycięstwo.

Klasyfikacja: wybór kategorii

Nie miałam jeszcze trzydziestki, kiedy nagle zaczęłam być bombardowana na Facebooku reklamami pierścionków z diamentem. A kiedy w końcu wyszłam za mąż, łaziły za mną po całym internecie reklamy testów ciążowych. Za te drobne uciążliwości mogłam podziękować algorytmom klasyfikującym – ulubieńcom branży marketingowej, niestrudzonym, acz dyskretnym, które uznają cię za osobę zainteresowaną pierścionkami czy testami ciążowymi na podstawie twojej charakterystyki. (I mogą nawet mieć rację, lecz mimo wszystko jest to denerwujące, kiedy na zebraniu w pracy bez przerwy wyskakują ci na monitorze laptopa reklamy zestawów wspomagających płodność). Istnieją algorytmy, które potrafią automatycznie klasyfikować i usuwać niestosowne treści na YouTubie, algorytmy, które opiszą za ciebie zdjęcia z wakacji, oraz algorytmy, które zeskanują twój odręcznie napisany tekst i rozbiją go na pojedyncze litery alfabetu.

Asocjacja: wyszukiwanie linków

Asocjacja to odnajdywanie i oznaczanie relacji między przedmiotami. Sercem algorytmów dopasowania partnerów, takich jak OKCupid, jest właśnie asocjacja – algorytmy te szukają powiązań między profilami swoich członków i na podstawie wyników sugerują pary. Na podobnej zasadzie działa algorytm rekomendacji firmy Amazon, który kojarzy twoje zainteresowania z zainteresowaniami swoich dotychczasowych klientów. To właśnie on zaintrygował pewnego użytkownika serwisu Reddit, który wkrótce po zakupie na Amazonie kija do baseballa dostał tam osobliwą propozycję: „Może zainteresuje cię ta kominiarka?”[11].

 

Filtrowanie: wyróżnianie tego, co ważne

Algorytmy czasem muszą usunąć pewne informacje, aby skupić się na tym, co jest dla nich ważne – muszą wyodrębnić sygnał z szumu. Niekiedy robią to dosłownie: algorytmy rozpoznawania mowy, wykorzystywane w takich aplikacjach, jak Siri, Alexa i Cortana, najpierw muszą wyizolować twój głos z tła dźwiękowego, żeby móc potem odkodować, co mówisz. A czasem robią tak w przenośni: Facebook i Twitter filtrują treści, które mają jakiś związek z twoimi zadeklarowanymi zainteresowaniami, żeby dostarczyć ci informacje w pakiecie skrojonym na twoją miarę.

Ogromna większość algorytmów jest budowana tak, by łączyć w sobie kilka wymienionych wyżej funkcji. Weźmy na przykład usługę UberPOOL, która dobiera potencjalnych współpasażerów spośród grupy osób udających się w tym samym kierunku. Znając twoją lokalizację i miejsce docelowe, algorytm musi przefiltrować możliwe trasy, wyszukać miejsca styczności z trasami innych użytkowników jadących w tę samą stronę, a w końcu stworzyć z nich grupę, która zostanie przypisana do ciebie – przydzielając zarazem najwyższy priorytet trasom z najmniejszą liczbą zakrętów, aby przejazd był możliwie najefektywniejszy[12].

Tyle zatem potrafią algorytmy. W jaki sposób udaje się im to wszystko zrobić? No cóż – choć możliwości są praktycznie nieograniczone, można je jakoś pogrupować. W zasadzie sposób podejścia algorytmów do treści podpada pod dwa kluczowe wzorce i z obydwoma będziemy spotykać się w tej książce.

Algorytmy regułowe

Algorytmy tego typu pracują na regułach. Ich instrukcje zostały napisane przez człowieka i dlatego są jasne i klarowne. Można powiedzieć, że algorytmy te stosują się do logiki przepisu na placek. Krok pierwszy: zrób to i to. Krok drugi: jeśli X, to Y. Nie oznacza to wcale, że algorytmy tego rodzaju są proste – wzorzec ten jest na tyle pojemny, że można na nim oprzeć potężne programy.

Algorytmy uczenia maszynowego

Inspiracją dla tej kategorii algorytmów jest sposób uczenia się istot żywych. Można sobie wyobrazić, że przebiega to analogicznie do procesu uczenia psa, żeby przybijał ci piątkę. Nie musisz tworzyć precyzyjnej listy poleceń i przekazywać ich swojej suczce. Wystarczy, że będziesz dokładnie wiedzieć, co chcesz osiągnąć, i wprowadzisz taki czy inny sposób nagradzania swojej ulubienicy za każdym razem, kiedy zrobi to, o co ją prosisz. Mamy tu zatem do czynienia z prostym mechanizmem wzmacniania właściwych zachowań i ignorowania niewłaściwych w połączeniu z zapewnieniem zwierzęciu czasu niezbędnego do samodzielnego wypracowania własnego trybu działania. Komputerowy ekwiwalent tego procesu nazywany jest a l g o r y t m e m u c z e n i a m a s z y n o w e g o, który zawiera się w szerszym pojęciu s z t u c z n e j i n t e l i g e n c j i (SI). Podajesz maszynie dane, cel oraz informacje zwrotne, kiedy idzie właściwym tropem – i trochę czasu na samodzielne wypracowanie najlepszej metody osiągnięcia wyznaczonego celu.

Oba typy mają swoje plusy i minusy. Algorytmy regułowe wyposażone są w instrukcje napisane przez człowieka i łatwo je zrozumieć. Teoretycznie każdy mógłby zajrzeć do ich kodów i rozgryźć logikę, którą się kierują[13]. Ale ta mocna strona owych algorytmów jest zarazem ich piętą achillesową: algorytmy regułowe będą rozwiązywać jedynie te problemy, dla których człowiek potrafi napisać szczegółową instrukcję.

Algorytmy uczenia maszynowego natomiast udowodniły ostatnio swoje wybitne możliwości rozwiązywania zadań, przy których nie sprawdzają się napisane przez człowieka listy instrukcji. Algorytmy takie umieją rozpoznawać przedmioty na zdjęciach, rozumieją wymawiane przez nas słowa i tłumaczą je z jednego języka na inny – robią to wszystko, z czym algorytmy regułowe zawsze miały kłopoty. Sęk w tym, że kiedy pozwolisz maszynie samodzielnie poszukać rozwiązania, może się zdarzyć, że ścieżka do niego prowadząca nie będzie miała dla nikogo żadnego sensu. To, co dzieje się wewnątrz takiego algorytmu, stanowi zagadkę nawet dla najbardziej inteligentnego z żyjących programistów.

Weźmy na przykład zadanie polegające na rozpoznawaniu przedmiotów. Znasz pewnie to złudzenie optyczne, kiedy nie potrafisz orzec, czy patrzysz na obraz przedstawiający kielich, czy może dwie twarze (jeśli nie, obrazek znajdziesz w przypisach na końcu książki)[14]. Zespół japońskich badaczy zademonstrował niedawno, jak odmienny od naszego może być algorytmiczny sposób patrzenia na świat. Okazało się, że wystarczyło zmienić tylko jeden piksel na przednim kole samochodu na poniższym zdjęciu, żeby algorytm uczenia maszynowego zmienił zdanie i uznał, iż zdjęcie nie przedstawia samochodu, jak sądził pierwotnie, lecz pokazuje psa[15].

Są tacy, co uważają, że algorytm pracujący bez precyzyjnych instrukcji to przepis na katastrofę. Jak możemy kontrolować coś, czego nie rozumiemy? A jeśli możliwości rozumnych, superinteligentnych maszyn przekroczą możliwości ich twórców? Skąd możemy mieć pewność, że SI, której nie rozumiemy i nie potrafimy kontrolować, już przeciw nam nie spiskuje?

To bardzo interesujące hipotetyczne pytania i bynajmniej nie brakuje literatury poświęconej apokalipsie, jaką nam zgotuje sztuczna inteligencja. Jeżeli właśnie na to po cichu liczysz, to muszę cię rozczarować – ta książka nie będzie o tym. I choć ostatnio SI rozwija się w ekspresowym tempie, nadal jednak jest zaledwie „inteligentna” w najwęższym znaczeniu tego słowa. Obecnie przeżywamy rewolucję bardziej w dziedzinie statystyki obliczeniowej niż inteligencji. Wiem, że to już nie brzmi tak podniecająco (no, chyba że n a p r a w d ę kochasz statystykę), jest to jednak znacznie trafniejszy opis dzisiejszego stanu rzeczy.

Tymczasem więc strach przed złą SI przypomina trochę strach przed przeludnieniem na Marsie[3*]. Być może dożyjemy dnia, w którym inteligencja komputerowa przewyższy inteligencję człowieka, na razie jednak mamy pewność, że nie nastąpi to w najbliższej przyszłości. Szczerze mówiąc, nadal jesteśmy bardzo daleko od stworzenia czegokolwiek o inteligencji jeża. Jak dotąd nikt nie wyszedł poza poziom inteligencji nicienia[4*].

Poza tym zamieszanie wokół sztucznej inteligencji odciąga tylko naszą uwagę od bardziej palących problemów i – przynajmniej dla mnie – znacznie bardziej interesujących historii. Zapomnijmy więc na chwilę o wszechmocnych, inteligentnych komputerach i wróćmy myślami z bardzo odległej przyszłości do naszego tu i teraz, ponieważ już istnieją algorytmy, którym dano prawo podejmowania autonomicznych decyzji – w kwestii długości kary pozbawienia wolności, leczenia pacjentów chorych na raka czy działań, które należy podjąć w chwili zderzenia samochodów. Algorytmy te już dziś, na każdym kroku, decydują za nas o naszym życiu.

Dajemy im szerokie prerogatywy, ale trzeba sobie zadać pytanie: czy algorytmy zasługują na nasze zaufanie?

Ślepa wiara

Niedziela 22 marca 2009 roku nie była najlepszym dniem w życiu Roberta Jonesa. Wracał właśnie od przyjaciół przez piękne miasteczko Todmorden w West Yorkshire, kiedy na desce rozdzielczej jego bmw zapaliła się kontrolka rezerwy. W baku zostało mu paliwa na dziesięć kilometrów z kawałkiem, co nie dawało zbyt dużego pola manewru. Na szczęście jego GPS znalazł dobry skrót – wąską, krętą drogę w górę zbocza doliny.

Robert jechał zgodnie ze wskazówkami urządzenia, droga jednak stawała się coraz węższa i bardziej nachylona. Po paru kilometrach była już zaledwie polną dróżką, na której z trudem wyminęłyby się dwa konie, o samochodach nawet nie wspominając. Ale Robert nie tracił rezonu. Był zawodowym kierowcą, robił osiem tysięcy kilometrów w tygodniu, wiedział więc co nieco o jeździe samochodem. Jak powiedział później: „Nie miałem żadnych podstaw, żeby nie wierzyć wskazaniom mojego TomToma”[16].

Jeśli chwilę potem ktoś w dolinie przypadkiem spojrzałby w górę, zobaczyłby przednie koła samochodu Roberta wystające znad trzydziestometrowego klifu; od upadku w przepaść uchronił go stojący na skraju urwiska rachityczny drewniany płotek, na którym się zatrzymał.

Potrzeba było traktora i trzech quadów, żeby wyciągnąć zawieszony nad przepaścią samochód. Pod koniec tego samego roku, kiedy Robert stanął przed sądem oskarżony o spowodowanie znacznego zagrożenia w ruchu, przyznał, że nawet nie pomyślał o tym, żeby zignorować wskazania urządzenia. „W nawigacji to była ciągle droga, a nie ścieżka – powiedział w wywiadzie dla prasy. – No więc jechałem według wskazówek. Człowiek się nie spodziewa, że zostanie nagle wyprowadzony na krawędź klifu”[17].

Nie, Robercie. Człowiek się tego nie spodziewa.

Można by rzec, iż to historia z morałem. Mimo że było mu pewnie trochę głupio, że uparcie ignorował to, co widział na własne oczy (zbliżające się urwisko), i zdecydowanie na wyrost przypisywał algorytmowi pewną inteligencję, Robert Jones znalazł się w doborowym towarzystwie. Ostatecznie dwanaście lat wcześniej sam Garry Kasparow dał się nabrać na podobną sztuczkę. W znacznie mniej spektakularnych okolicznościach, choć z równie dramatycznymi konsekwencjami, błąd ten popełnia niemal każdy z nas, zapewne zupełnie nieświadomie.

W roku 2015 naukowcy postanowili ustalić, jak bardzo wyszukiwarki internetowe takie jak Google potrafią zmienić nasz sposób postrzegania świata[18]. Chcieli sprawdzić, czy mamy jakieś zdrowe granice zaufania do wyników wyszukiwań, czy też beztrosko podążamy za nimi aż na krawędź metaforycznego urwiska.