Algorytmiczny lider

Tekst
Przeczytaj fragment
Oznacz jako przeczytane
Jak czytać książkę po zakupie
Czcionka:Mniejsze АаWiększe Aa

Kiedy decydujesz się słuchać muzyki dzięki aplikacji Spotify, jesteś powiązany z tą platformą nie tylko przez swój sprzęt. Poza własnym smartfonem możesz słuchać swoich list odtwarzania w samochodzie, na domowym sprzęcie stereo, na laptopie, a nawet na telefonie kogoś innego. To samo dotyczy prawie wszystkich twoich algorytmicznych doświadczeń, niezależnie od tego, czy oglądasz programy telewizyjne, dzielisz się zdjęciami, rozmawiasz z przyjaciółmi czy zamawiasz środek transportu. Twoje doświadczenia algorytmiczne wykraczają poza twoje urządzenia.

Właśnie wkraczamy w nową erę algorytmicznych doświadczeń, których motorem będą gwałtowne postępy w dziedzinie inteligencji maszyn. Sztuczna inteligencja ma potencjał, aby zmienić sposób, w jaki dokonują się nasze interakcje ze światem, ale twoim zadaniem jako algorytmicznego lidera będzie wyobrażenie sobie, jak ta przyszłość może wyglądać, i wymyślenie, jaką drogą będziemy do niej dochodzić.

Przed rozpoczęciem projektowania algorytmicznych doświadczeń warto pomyśleć o relacjach między intencjami, interakcjami i identyfikacją.


Koło algorytmicznego doświadczenia

Intencje to często niewyartykułowane potrzeby lub pragnienia użytkownika lub klienta, które można ustalić na podstawie jego zachowania. Interakcje to metoda lub sposób korzystania z platformy, produktu lub usługi. Identyfikacja to poznawczy lub emocjonalny wpływ doświadczenia i stopień, w jakim zostało ono zintegrowane przez uczestnika z jego poczuciem samego siebie.

Wszystkie trzy elementy są ze sobą połączone i się wzmacniają – działają niczym koło zamachowe: przewidywanie intencji użytkownika pozwala na tworzenie bardziej naturalnych interakcji, dzięki czemu sam system staje się przedłużeniem jego poczucia identyfikacji. A im bardziej algorytm wpływa na czyjeś zachowanie, tym lepiej może przewidzieć przyszłe intencje tej osoby, powodując, że interakcje przychodzą z coraz większą łatwością – i tak dalej.

Prawdziwą miarą sukcesu algorytmicznego doświadczenia jest to, że zupełnie przestajemy zauważać algorytm. Innymi słowy, można uznać, że algorytm odniósł sukces, gdy zniknie. Kiedy to się dzieje, wyszukiwanie w Google’u staje się twoim systemem pamięci transakcyjnej, twoje konto na Instagramie staje się zbiorową narracją twojego kręgu społecznego, a polecane przez Spotify piosenki stają się twoim gustem muzycznym.

Tkwi w tym pewne niebezpieczeństwo. Podobnie jak gry wideo czy automaty do gier, doświadczenia algorytmiczne można projektować po to, by manipulować ludzkim zachowaniem poprzez nasilenie działania pętli nagrody w naszym mózgu, które prowadzi do uzależnienia. Nie oznacza to, że wszystkie algorytmiczne doświadczenia są złe; po prostu za każdym razem, gdy masz do czynienia z systemami, które uczą się stopniowo coraz lepiej wpływać na twoje zachowanie, ryzyko nadużycia jest wysokie. Etyczne aspekty tych zagadnień zbadamy w dalszej części tej książki, ale na razie skupmy się na maszynerii, dzięki której działają algorytmiczne doświadczenia.

INTENCJE

Na pytanie, dlaczego codziennie nosi zawsze takie same szare T-shirty, Mark Zuckerberg odpowiedział, że chce uprościć sobie życie, aby móc podejmować jak najmniej decyzji. Steve Jobs nosił codziennie czarny golf, a Barack Obama takie same szare lub niebieskie garnitury. Wszyscy ci przywódcy wybrali tę samą metodę, aby ograniczyć zmęczenie poznawcze związane z koniecznością podejmowania zbyt wielu decyzji.

Jako ludzie musimy nieustannie podejmować decyzje. Decydujemy nie tylko o tym, co nosimy, ale także co kupujemy, czym się żywimy, dokąd chodzimy, z kim rozmawiamy i na co powinniśmy zwracać uwagę. Szacuje się, że dorosły człowiek może podejmować codziennie około 35 000 decyzji. Naukowcy z Cornell University ustalili, że codziennie podejmujemy średnio 226,7 tych dotyczących samego tylko jedzenia. Ciągła konieczność dokonywania wyborów powoduje stres. Psycholog Barry Schwartz, autor książki Paradoks wyboru, mówił o tym, że zbyt duży wybór może wywoływać poczucie paraliżu i niezadowolenia.

Twoje dzieci prawdopodobnie nie znajdą się w tej sytuacji – coraz większa liczba wyborów się dla nich automatyzuje. Kiedy zaczęło się doświadczać świata, w którym decyzje podaje nam inteligentny algorytm, nie ma już odwrotu. Algorytmy i dane umożliwiają „projektowanie antycypacyjne”. Projektowanie antycypacyjne w interfejsach i aplikacjach opiera się na założeniu, że jeśli można wiarygodnie przewidzieć, czego chce użytkownik, to lepiej ograniczyć liczbę oferowanych mu wyborów.

Weźmy przykładowo aplikację Google Now, która stara się odpowiedzieć na twoje pytania i rozwiązać problemy, zanim jeszcze będziesz musiał o nich pomyśleć: jeśli w twoim kalendarzu zbliża się jakieś spotkanie lub rezerwacja w restauracji, Google Now podpowie ci, jaki będzie czas podróży, biorąc pod uwagę twoją aktualną lokalizację i natężenie ruchu. Albo pomyśl o termostacie Nest, regulującym ciepło w pomieszczeniu, w którym się znajdujesz, na podstawie twoich wcześniejszych zachowań i decyzji dotyczących temperatury. Na podobnej zasadzie Netflix nie pokazuje ci wszystkich filmów w swoim katalogu, lecz tylko te, które jego zdaniem możesz chcieć obejrzeć. A jeśli jego podpowiedzi ci się nie spodobają, przy następnej wizycie zaoferuje ci do wyboru inne.

Kiedy w 2014 roku Amazon uzyskał patent na „wysyłkę antycypacyjną”, ludzie zaczęli sobie wyobrażać niestworzone rzeczy. Czy bazując na tym, co Amazon wie o naszym zachowaniu i zamiarach, miałby zacząć wysyłać nam paczki, zanim jeszcze my złożymy zamówienie? Niezupełnie. Przedmiotem patentu była metoda polegająca na prewencyjnym pakowaniu i odpowiednim rozsyłaniu rzeczy do klientów Amazona po przewidzeniu przez algorytm, że klienci na określonym terenie będą ich wkrótce potrzebowali. Te przedmioty miały wówczas czekać w małych, strategicznie rozmieszczonych magazynach – lub nawet w ciężarówkach – aż do chwili, gdy klient rzeczywiście złoży przewidywane zamówienie. Dzięki temu Amazon mógłby wysłać nam np. wkład uzupełniający z płynem do mycia naczyń albo paczkę ręczników papierowych praktycznie chwilę po tym, jak powiemy asystentowi głosowemu, czyli Alexie, że nam ich brakuje. To, że w Amazonie pomyślano o takim rozwiązaniu już w 2014 roku, pokazuje, jak poważnie traktuje się tam pomysł algorytmicznego przewidywania intencji konsumenta. Dzisiaj zwykłe realizowanie zamówień w miarę ich spływania od klientów już nie wystarcza. W dobie algorytmicznego doświadczenia nową normą będzie przewidywanie tego, czego ktoś może potrzebować, bez konieczności otrzymania faktycznych zamówień.

INTERAKCJE

Nasze dzieci dorastają w otoczeniu pełnym smartfonów – tak, ale to wcale nie znaczy, że w przyszłości powinny oczekiwać, iż wszystko będzie działać na małych ekranach. Przypuszczam, że podobnie jak ja, wielu moich czytelników rozpoczynało swoje cyfrowe doświadczenia w systemie DOS, sterując komputerem z poziomu wiersza poleceń, które trzeba było żmudnie wpisywać z klawiatury. Wątpię, żeby ktokolwiek był zachwycony, gdyby musiał dziś używać takiego interfejsu.

Kolejną dużą zmianą w projekcie interfejsu jest przejście do bardziej naturalnych interakcji. Interfejsami stają się nasze ciała. Niezależnie od tego, czy dokonuje się to za pośrednictwem inteligentnych głośników czy czujników, inteligentnych tatuaży czy okularów rzeczywistości rozszerzonej, uczymy się wyczuwać i reagować na dane w bardziej intuicyjny sposób. Im bardziej naturalny interfejs, tym bardziej prawdopodobne jest, że zaczniemy zapominać o algorytmicznej maszynerii ciężko pracującej w tle.

Na przykład rozpoznawanie twarzy szybko przyjęło się jako domyślny sposób uwierzytelniania na platformach cyfrowych w Chinach. Jeśli wiosną 2018 roku ktoś brał udział w międzynarodowym półmaratonie w Szanghaju, mógł potem przesłać selfie na oficjalne konto PaoBu WeiShengSu w aplikacji WeChat (znanej również jako Weixin) i w ciągu kilku chwil system filtrujący z algorytmem rozpoznawania twarzy był w stanie dostarczyć mu mnóstwo automatycznie analizowanych zdjęć zrobionych przez tysiące niezależnych fotografów, którzy relacjonowali ten bieg. Fotografie ze znakiem wodnym można było dostać za darmo, a czyste ujęcia kupić.

Didi Chuxing, czyli chiński Uber, używa technologii rozpoznawania twarzy do sprawdzania tożsamości kierowców przed rozpoczęciem jazdy. China Construction Bank pozwala klientom płacić przy użyciu twarzy w niektórych automatach. Coraz więcej policjantów jest wyposażonych w okulary z rozszerzoną rzeczywistością, które pozwalają na skanowanie tłumów i poszukiwanie podejrzanych. Nawet w Świątyni Nieba w Pekinie zaczęto używać technologii rozpoznawania twarzy, aby rozwiązać problem regularnej kradzieży papieru toaletowego. Dozownik obsługujący rolkę rozpoznaje twarze i w wypadku zbyt częstych, powtarzających się wizyt w toalecie przestaje podawać papier (nietrudno sobie wyobrazić, jak katastrofalne skutki może to spowodować).

Już sama wielkość cyfrowego świata w Chinach – ilość danych, które mogą gromadzić tamtejsze platformy, oraz możliwość wykorzystania tych danych do szkolenia coraz doskonalszych algorytmów – sprawia, że to, co dzieje się w Państwie Środka, zadecyduje o losach systemów algorytmicznych na całym świecie. Setki milionów ludzi korzysta z WeChat – platformy, która zaczęła funkcjonować jako usługa czatu i stała się swego rodzaju powszednim systemem operacyjnym. WeChat ułatwia zakup wszystkiego, od żywności i odzieży po ubezpieczenia i produkty finansowe. Podobnie Didi Chuxing, platforma transportowa, jest ogromna – i szybko się rozwija. Ma 450 milionów zarejestrowanych użytkowników i 21 milionów kierowców, a codziennie zapewnia ponad 25 milionów przejazdów. Dla porównania: w 2017 roku Uber na całym świecie realizował dziennie mniej niż połowę tej liczby zleceń.

 

Prawdopodobnie wszystkie te dane zostaną przez tamtejsze władze scalone z chińskim systemem zaufania społecznego – ogólnokrajowym systemem reputacji, który ma na celu określenie „wiarygodności” 1,4 miliarda obywateli tego kraju. W tym nowym prototypie algorytmicznego społeczeństwa możliwość zakupu biletu na pociąg, uczęszczania do dobrej szkoły, dostępu do usług zdrowotnych, a nawet znalezienia odpowiedniej osoby w aplikacji randkowej będzie zależeć od dobrego zachowania danego człowieka, od jego poglądów oraz od tego, czy przestrzega określonych zasad.

W miarę jak platformy cyfrowe przyszłości będą gromadzić coraz więcej danych pochodzących z naszych interakcji, zaczną one coraz lepiej rozumieć nasze intencje i coraz szybciej reagować na nasze niewyrażone pragnienia. Będziemy do nich mówić zamiast pisać, a zamiast stukać palcem po ekranie – komunikować się z nimi dzięki własnej mimice. W przyszłości nie czeka nas wcale automatyzacja procesu tworzenia coraz bardziej ustandaryzowanych doświadczeń: twoi przyszli klienci będą raczej oczekiwali, że wykorzystasz uczenie maszynowe do tworzenia bardziej naturalnych, spersonalizowanych interakcji na poziomie ludzkim.

Jednakże jedynie cienka linia dzieli to, co użyteczne, od tego, co może niepokoić. Na przykład Google Duplex to nowa usługa AI, która wykonuje zadania w rodzaju planowania spotkań, prowadząc rozmowę przez telefon – naturalnym, ludzkim głosem. Osoby, do których dzwoni, mogą mówić normalnie, tak jak rozmawiają z innymi ludźmi, bez konieczności dostosowywania wymowy, aby była rozpoznawalna dla maszyny. Właściwie nie jest nawet dla nich oczywiste, że rozmawia z nimi maszyna. I to właśnie był dla wielu osób najbardziej niepokojący aspekt podczas prezentacji tego produktu.

Uruchamiając go w ramach specjalnego pokazu, dyrektor działu badań nad rzeczywistością rozszerzoną w firmie Google, Greg Corrado, wyjaśnił, że w ciągu następnej dekady spodziewa się rozwoju sztucznej inteligencji emocjonalnej, która pozwoli na powstanie produktów rzeczywiście cechujących się znacznie bardziej naturalnymi i płynnymi interakcjami z ludźmi. Najbardziej szokujący moment nastąpił, gdy w odpowiedzi na pytanie od człowieka na drugim końcu telefonu algorytmiczny głos zrobił krótką przerwę i powiedział „hmm”, po czym wrócił do rozmowy. Według posta zamieszczonego na blogu Google’a algorytm został tak zaprojektowany celowo: dzięki wplataniu typowych zakłóceń mowy i przerywników (np. „hmm” albo „yyy”) głos miał brzmieć bardziej naturalnie – naśladował to, co robią często ludzie, gdy się nad czymś zastanawiają. Ale czy to dobry pomysł?

Czym innym jest tworzenie naturalnych interfejsów o cechach człowieka, tak by korzystanie z nich nie wymagało od nas modyfikacji naszych zachowań, a czym innym oszukiwanie nas, że mamy do czynienia z człowiekiem. „O cechach człowieka” brzmi zresztą podobnie do „oszukać człowieka”. Interfejsy, które udając człowieka, mają oszukać człowieka, często ryzykują, że nie przejdą testu zwanego doliną niesamowitości, który w 1970 roku opracował japoński profesor robotyki Masahiro Mori.

Mori twierdził, że w miarę jak robot staje się coraz bardziej podobny z wyglądu do człowieka, nasza reakcja emocjonalna na niego staje się coraz bardziej pozytywna i empatyczna, ale w pewnym momencie szybko zmienia się w silną odrazę. Kiedy jednak po przejściu tego punktu robota znowu coraz trudniej jest odróżnić od prawdziwego człowieka, nasza reakcja emocjonalna zaczyna stawać się ponownie pozytywna, a nasz poziom empatii zbliża się do tego, jaki wykazywalibyśmy wobec innego człowieka.

Wprawdzie firma Google może z powodzeniem stworzyć interfejs nieodróżnialny od człowieka, ale tak naprawdę należy zapytać: czy powinna? W przyszłości może się okazać, że będziemy wymagać od systemów AI identyfikowania się wobec użytkownika, tak by wiedział, że to maszyny, a nie ludzie. Interfejsy mające oszukać człowieka (takie, które próbują naśladować człowieka, udawać go – a ostatecznie zwodzić nas, byśmy myśleli, że są ludźmi) mogą wzbudzać nieufność, podejrzenia, a nawet strach.

Przydatne będą interfejsy o cechach człowieka, które rozumieją naszą naturalną mowę, rozpoznają nasze twarze, reagują na stany emocjonalne, a nawet śledzą gesty. Pozwolą nam one bez wysiłku komunikować nasze intencje i osiągać cele bez konieczności używania interfejsów w rodzaju wiersza poleceń i skomplikowanych przepływów informacji. A dzięki temu zaczniemy postrzegać algorytm jako rozszerzenie nas samych.

IDENTYFIKACJA

Kiedy algorytmy głęboko zakorzenią się w naszym codziennym życiu, będą mogły mieć duży wpływ na nasze zachowanie. Jeśli dojdziemy do tego punktu, nie będzie nam już tak łatwo rozpoznać, jaka część naszej pamięci, doświadczeń, gustów, a nawet tego, z czym się najgłębiej identyfikujemy, jest nasza własna, a jaka stanowi jedynie bazujące na wynalazkach technicznych rozszerzenie nas samych.

Aby pojąć, dlaczego algorytmy mogą odegrać tak dużą rolę w kształtowaniu naszych zachowań, trzeba zrozumieć, jak szybko rozwija się Internet rzeczy (Internet of Things – IoT) – ogromna, wzajemnie powiązana sieć urządzeń, pojazdów, sprzętów, czujników i materiałów eksploatacyjnych, która do 2020 roku ma liczyć łącznie 30 miliardów przedmiotów.

Niektóre z urządzeń IoT mają charakter przemysłowy: zapewniają połączenie różnych czujników w zakładach produkcyjnych lub łączność silników samochodowych z załogami wyścigowymi. Zdecydowana większość z nich to jednak urządzenia przeznaczone dla konsumentów. Są to przedmioty, które nosimy na nadgarstku, wieszamy sobie na szyi, przypinamy do odzieży, a wkrótce będziemy je umieszczać także na skórze i wewnątrz ciała. Urządzenia te dadzą firmom i markom możliwość bezpośredniego wpływania na to, jak myślimy, co czujemy i jak postępujemy.

Jeśli chcesz, aby ludzie zachowywali się w określony sposób, to nie wystarczy ci sama wiedza o tym, na co trzeba zwrócić ich uwagę. Większość marketingowców koncentruje się na nadzorowaniu, czy informacja o ich marce dociera do docelowych odbiorców. Koncentrują się na kliknięciach, interakcjach i zapamiętywaniu marki. Jeśli jednak wszystko, co wiemy o tym, jak – i dlaczego w taki sposób – ludzie się zachowują, mógłbyś włączyć do projektowania i wdrażania inteligentnych urządzeń, to wówczas twój dział marketingu musiałby przesunąć punkt ciężkości na inną kwestię: co chcemy, aby nasz klient zrobił w następnej kolejności?

To, jak i dlaczego ludzie podejmują decyzje, zwłaszcza w odniesieniu do pieniędzy i inwestycji, stało się obszarem pogłębionych studiów zarówno dla ekonomistów, jak i kognitywistów. W 2017 roku ekonomista Richard Thaler zdobył Nagrodę Nobla w dziedzinie nauk ekonomicznych za wkład w ekonomię behawioralną i badania prowadzące do ustalenia, że ludzie są przewidywalnie irracjonalni w sposób, który jest sprzeczny z teorią ekonomii. Tego rodzaju intuicje już wcześniej stosowały władze państwowe i wiele firm, chcąc zmienić ludzkie zachowanie lub je „poszturchnąć”.

„Szturchnięcie” to strategia przyjmowana w celu zmiany czyjegoś zachowania, czasami określanej jako „niewymuszona uległość”. W swojej książce z 2008 roku, Impuls. Jak podejmować właściwe decyzje dotyczące zdrowia, dobrobytu i szczęścia, Thaler i Cass Sunstein pokazali, że projektując architekturę wyboru (sposób przedstawiania opcji) w inny sposób, można wpływać na ludzi w zakresie dokonywania konkretnych wyborów bez ograniczeń, zakazów czy zmian kosztów.

Firmy technologiczne od dawna eksperymentują z architekturą wyboru nie tylko na swoich użytkownikach, ale także na własnych pracownikach. Na przykład Google, znany z tego, że oferuje szeroki wachlarz udogodnień dla osób zatrudnionych w jego biurach, zaczął się martwić, że jego pracownicy jedzą zbyt dużo niezdrowej żywności i piją wysokokaloryczne napoje gazowane. Zamiast ograniczać ilość cukierków i coli, firma zdecydowała się na wystawienie zdrowych przekąsek w przezroczystych słoikach, do których łatwo było sięgnąć, i umieszczenie wody na poziomie oczu w lodówkach. W ciągu pierwszych siedmiu tygodni wypróbowywania tego podejścia sam spadek spożycia M&M’sów wśród pracowników w nowojorskim biurze Google’a przełożył się na przyswojenie przez nich o 3,1 miliona kalorii mniej.

Szturchać mogą nas też nasze urządzenia, nakłaniając do tego, żebyśmy zrobili to czy owo. Wielu z nas nosi smartwatche – te gadżety potrafią nam przypomnieć, kiedy warto napić się wody, poćwiczyć oddychanie, rozprostować kości albo trochę się poruszać. Wkrótce lodówka będzie kontrolować na bieżąco to, co jemy, toaleta poinformuje nas, czy jesteśmy zdrowi, a buty zaczną wibrować, żeby zwrócić naszą uwagę i pokierować nas w stronę czegoś, co może być dla nas interesujące.

Można na to patrzeć tak, że wzrastająca zależność od algorytmów w zakresie podejmowania decyzji wiąże się z niebezpieczeństwem utraty osobistej autonomii. Alternatywny pogląd jest taki, że jesteśmy świadkami pojawienia się nowych, symbiotycznych związków z techniką, które pozwalają nam wzmocnić i rozszerzyć nasze pięć zmysłów. Podobnie jak gęsi potrafią wyczuwać ziemskie pole geomagnetyczne i używać go do nawigacji, tak następne pokolenie ludzi może zacząć rozwijać swego rodzaju „zmysł danych”, który na wiele sposobów będzie wpływać na ich zachowanie i je kształtować.

Nawet jeśli pewne platformy nie mają specjalnych urządzeń do poszturchiwania użytkowników, ich twórcy będą musieli również myśleć strategicznie o takich zachowaniach, które optymalizują ogólną wartość ich sieci. Ciekawym przykładem jest tu aplikacja randkowa Tinder. W szachach zawodowych istnieje pewne pojęcie, znane jako ranking elo, którego używa się do oceny i klasyfikacji umiejętności każdego gracza. Tinder ma swój własny ranking elo, którego używa do oceny twojej atrakcyjności.

Jeśli w świecie szachów gracz mający niską pozycję w rankingu pokona gracza o wysokiej pozycji, ten z niską pozycją otrzymuje lepszą punktację w rankingu elo – i tak dalej. Podobnie, jeśli gracz z wysokim wynikiem rankingu elo na Tinderze przesunie palcem w prawo i polubi kogoś z niższym wynikiem, to ranking tego o niższej pozycji się poprawia. Jednak algorytm tej aplikacji jest skomplikowany i uwzględnia również inne wskaźniki behawioralne, na przykład to, jak szybko ludzie reagują na komunikaty, czy są wybiórczy w odniesieniu do tego, kto im się podoba, oraz inne działania, które uznano za zgodne z optymalnym modelem użytkowania Tindera.

Ciekawostką tych systemów algorytmicznych jest to, że ich działanie nie zawsze jest całkowicie przejrzyste, co powoduje, że powstają całe internetowe społeczności zajmujące się spekulacjami i wymianą informacji na temat tego, jak ograć czy zhakować system. Podobnie jak dzieci Alexandry Samuel, my również możemy ulec pokusie i próbować wpisywać na ekranie słowa „magiczna różdżka” lub „zabawkowy robot”, jeśli uznamy, że dzięki temu te rzeczy się pojawią.

Gdy projektuje się platformy przyszłości, nie wystarczy tylko wiedzieć, jak chcemy wpływać na ludzkie zachowania. Dodatkowym wyzwaniem jest też konieczność ciągłego dostosowywania się do zbiorowej wiedzy użytkowników, którzy próbują manipulować naszym algorytmem i ograć system.

Chociaż w znacznej części tego rozdziału skupiliśmy się na wyjaśnianiu, czym są algorytmy, to jednak najistotniejszą kwestią, którą warto zapamiętać, jest nastawienie na to, co będzie ważne w przyszłości. Kiedy zaczynasz tworzyć sobie pewną wizję tego, dokąd może zmierzać świat, pamiętaj, aby skupiać się na zachowaniu swojego przyszłego klienta. W dłuższej perspektywie prawdziwym motorem wartości biznesowej będzie to, w jaki sposób algorytmy i AI mogą tworzyć atrakcyjne doświadczenia klientów.

PODSUMOWANIE

1. Dzięki rozumieniu algorytmów oraz tego, w jaki sposób kształtują one nasze interakcje i doświadczenia jako ludzi, możesz wyrobić sobie lepsze pojęcie na temat tego, jakie platformy i produkty oparte na danych mają szansę odnieść sukces w przyszłości.

2. W odróżnieniu od platform poprzedniej rewolucji cyfrowej dzisiejsze maszyny zaczynają uczyć się same, w określonych dziedzinach lub działaniach osiągając biegłość na poziomie dorównującym możliwościom człowieka, a nawet je przewyższającym. Jednak to ludzie wciąż dzierżą stery, jeśli chodzi o wymyślanie, w jaki sposób wykorzystywać inteligencję maszyn do generowania doświadczeń, przekształcania organizacji i tworzenia świata na nowo.

3. Algorytmiczni przywódcy mogą przygotować się na przyszłość dzięki rozumieniu, kim będą ich przyszli klienci i czego mogą potrzebować. Przykładem algorytmicznego przywódcy, który zaczyna od silnej wizji przyszłości i pracuje od końca, z tej właśnie perspektywy, jest Masayoshi Son, dyrektor generalny SoftBanku.

 

4. Twoje dzieci to pokolenie prekursorów epoki algorytmów. Dorastają otoczone sztuczną inteligencją wbudowaną we wszystkie produkty i aplikacje, dlatego będą miały diametralnie inny zestaw oczekiwań i poglądów na to, jak ten świat powinien funkcjonować. Ucz się od nich.

5. Największym motorem wartości biznesowej w przyszłości nie będą te algorytmy, których używasz do optymalizacji funkcjonowania i infrastruktury swojej firmy, ale te, które tworzą atrakcyjne doświadczenia dla twoich odbiorców i klientów. Używaj koła algorytmicznego doświadczenia – intencji, interakcji i identyfikacji – aby wyobrazić sobie, jak algorytm może reagować na to, czego chcą twoi klienci, a także jak się zachowują i jak postrzegają sami siebie.

PYTANIE

Co jest cenniejsze: wiedza o tym, kim są twoi najlepsi klienci, czy określenie idealnych zachowań, które maksymalizują wartość twojej platformy lub usługi?

To koniec darmowego fragmentu. Czy chcesz czytać dalej?