Rynek i ratuszTekst

Oznacz jako przeczytane
Jak czytać książkę po zakupie
Czcionka:Mniejsze АаWiększe Aa

5

Od siedmiu mostów do sześciu stopni

Początków formalnych badań nad sieciami można się doszukać w połowie XVIII wieku, u szczytu świetności miasta Königsberg (Królewiec) w ówczesnych Prusach Wschodnich, w domu niemieckiego filozofa Immanuela Kanta. Pośród wielu godnych uwagi budowli w tym mieście było też siedem mostów przecinających rzekę Pregołę i łączących zarówno jej oba nabrzeża z dwiema wyspami usytuowanymi na środku rzeki, jak i wyspy między sobą (zob. ilustracja 4). Mieszkańcy doskonale wiedzieli, że nie da się odbyć spaceru po wszystkich siedmiu mostach tak, by każdy przekroczyć tylko raz, bez wchodzenia ponownie na którykolwiek z nich[11*]. Problemem tym zainteresował się nawet wielki matematyk, pochodzący ze Szwajcarii Leonhard Euler, który w 1735 roku opracował teorię sieciową mającą formalnie wykazać, dlaczego tego rodzaju spacer był niewykonalny. Jak widzimy (zob. ilustracja 5), na tym uproszczonym schemacie (grafie) istnieją cztery „węzły” symbolizujące dwa brzegi rzeki oraz obie wyspy, mniejszą i większą, a ponadto siedem „krawędzi” symbolizujących mosty, którymi są one połączone. Euler wykazał, że z formalnego punktu widzenia możliwość wyznaczenia takiego przebiegu trasy, który z każdą z krawędzi pokrywa się tylko raz, zależy wprost od stopnia węzłów (to jest od liczby krawędzi dochodzących do i wychodzących z każdego z węzłów). Aby to się udało, na schemacie muszą widnieć albo dwa węzły z nieparzystą liczbą krawędzi, albo same tylko węzły z liczbą parzystą. A ponieważ na schemacie mostów w Königsbergu figurują cztery węzły z liczbą nieparzystą (jeden z pięcioma krawędziami, a pozostałe z trzema), nie da się na nim wytyczyć trasy poszukiwanej przez Eulera. Spacer, który wiódłby każdym z mostów tylko raz, byłby możliwy jedynie wówczas, gdyby usunięto jedną z krawędzi. A dokładniej – most łączący obie wyspy. W takim układzie pozostałyby dokładnie dwa węzły z nieparzystą liczbą krawędzi. Od czasów Eulera podstawy teorii grafów – którą on sam określał mianem „geometrii pozycyjnej” – niewiele się zmieniły: wciąż głównymi pojęciami są w niej węzły (albo wierzchołki) i krawędzie (albo połączenia).

4. Wykres 1 Eulera z jego Solutio problematis ad geometriam situs pertinentis (1741). Ci, którzy chcieliby sprawdzić teorię Eulera w praktyce, niestety nie mogą już tego dokonać „na gruncie”, jako że dwa z siedmiu mostów królewieckich nie przetrwały bombardowań miasta w czasie II wojny światowej, a dwa kolejne zburzono po tym, jak miasto dostało się pod kontrolę Sowietów i zostało przemianowane na Kaliningrad.

Dziewiętnastowieczni uczeni stosowali tego rodzaju rozumowanie do wielu różnych schematów, począwszy od kartografii przez obwody elektryczne aż po izomery komponentów organicznych[1]. Koncepcja, że mogą istnieć także sieci s p o ł e c z n e, zaświtała niewątpliwie przynajmniej kilku z ówczesnych wielkich myślicieli politycznych, w tym zwłaszcza Johnowi Stuartowi Millowi, Auguste’owi Comte’owi i Alexisowi de Tocqueville – zwłaszcza ten ostatni dostrzegał jasno, że żywa tendencja do stowarzyszania się, obserwowana na wczesnym etapie rozwoju Stanów Zjednoczonych, była kluczowym składnikiem amerykańskiej demokracji. Żaden z nich nigdy jednak nie podjął próby sformalizowania tego rodzaju przemyśleń. Oficjalny początek badań nad sieciami społecznymi można zatem umiejscowić w 1900 roku, kiedy to pewien nauczyciel i miłośnik studiów społecznych nazwiskiem Johannes Delitsch opublikował schemat obrazujący przyjaźnie pomiędzy pięćdziesięcioma trzema chłopcami z klasy, którzy byli jego uczniami w latach 1880–1881[2]. Delitsch dostrzegł korelację między powiązaniami społecznymi poszczególnych chłopców a ich wynikami w nauce – co w ówczesnym świecie bezpośrednio przekładało się na sposób usadzenia uczniów w klasie. Trzy dekady później praca o podobnym charakterze powstała też w Nowym Jorku, gdzie pewien wywodzący się z Austrii, ale zdecydowanie antyfreudowski ekscentryczny psychiatra Jacob Moreno zastosował „socjogramy” (wykresy społeczne) do przestudiowania relacji w grupie dziewcząt, które weszły w konflikt z prawem, wskutek czego skierowano je wszystkie do szkoły poprawczej w Hudson, w stanie Nowy Jork. Jego studium – opublikowane w 1933 roku pod tytułem Who Shall Survive? (Komu dane będzie przetrwać?) – wykazało, że nagły wzrost liczby dziewcząt, które zbuntowały się i uciekły w 1932 roku, można było wyjaśnić, odwołując się do miejsca zajmowanego przez te dziewczęta w szkolnej sieci społecznej obrazującej ich „cechy atrakcyjne i odpychające”, zarówno pod względem rasowym, jak i seksualnym (zob. wklejka, il. 2). Jak stwierdził sam Moreno, właśnie tutaj należało szukać „sił społecznych, które dominują nad ludzkością”. Swoją książkę zaś uznał za „nową biblię, biblię zachowania społecznego, biblię społeczności ludzkich”[3].

5. Uproszczony graf obrazujący problem mostów królewieckich według Eulera. Problem ten można rozwiązać, jedynie usuwając krawędź środkową (most łączący dwie wyspy na ilustracji 4).

Trzydzieści lat później pewien lingwista i bibliograf nazwiskiem Eugene Garfield opracował podobną technikę graficzną służącą wizualizacji dziejów rozmaitych dyscyplin naukowych przez stworzenie swoistego „historiografu” cytatów. Dziś indeksy cytowań i wszelkie mierniki oddziaływania czyichś słów (impact factors) są niemal standardowymi narzędziami służącymi do zobrazowania skali osiągnięć jednostki w danej dziedzinie nauki. Są one także sposobem śledzenia procesu innowacji w świecie naukowym, umożliwiając choćby wykazanie istnienia „niewidzialnych uczelni”, to jest sieci wzajemnych cytowań, bardzo różnych od rzeczywistych uczelni zatrudniających większość ludzi nauki[4]. Ale też niewykluczone, że tego rodzaju wskaźniki pokazują co najwyżej, że naukowcy mają po prostu tendencję do cytowania prac tych naukowców, z którymi im po drodze. W końcu, jak głosi dobrze znane powiedzenie, ciągnie swój do swego. Tyle że prawidłowość odnosząca się do cytowań wydaje się prawdziwa również w znacznie bardziej ogólnym sensie. Jeśli dwa niepowiązane ze sobą węzły połączyć z jakimś trzecim, wówczas one same prędzej czy później również staną się powiązane, ponieważ (jak to ujął ekonomista James E. Rauch) „dwoje ludzi, którzy mnie znają, z większym prawdopodobieństwem pozna się też ze sobą niż dwoje ludzi wybranych zupełnie przypadkowo”[5]. Taką triadę, w której wszyscy trzej członkowie złączeni są pozytywnymi uczuciami, określa się zazwyczaj mianem „zbalansowanej”, co obrazuje prawidłowość „przyjaciel mojego przyjaciela jest moim przyjacielem”. Istnieją też inne rodzaje triad, w których dwóch członków nie zna się nawzajem, choć obaj znają trzeciego; nazywa się je czasem „triadami zakazanymi”. (Jednym z ich wariantów jest ten, w którym dwóch członków się przyjaźni, ale trzeci jest wobec nich wrogi, co można zilustrować stwierdzeniem: „wróg mojego przyjaciela jest również moim przyjacielem”)[6].

Wynika z tego, że pierwszym i najważniejszym prawem sieci społecznych jest „homofilia”, rozumiana jako tendencja do przestawania z ludźmi podobnymi do nas (reguła ta znana jest również jako selektywność, assortativity). Everett Rogers i Dilip Bhowmik jako pierwsi socjologowie zasugerowali, że homofilia może być zjawiskiem niekorzystnym, jako że prowadzi do zawężania środowisk, w których obraca się dana jednostka, w przeciwieństwie do – jak to określili – „optymalnej heterofilii”. Czy zatem homofilię można by określić mianem dobrowolnej segregacji?

W latach siedemdziesiątych XX stulecia Wayne Zachary nakreślił sieć stosunków przyjacielskich pomiędzy członkami pewnego uniwersyteckiego klubu karate. Wynikało z niej, że w obrębie tego klubu istnieją dwie wyraźnie odrębne grupy. Homofilia może się opierać na współdzielonym statusie (czyli na wspólnych cechach wrodzonych, takich jak rasa, przynależność etniczna, płeć czy wiek, bądź nabytych, takich jak religia, edukacja, zawód czy wzory zachowań) albo na wspólnych wartościach, o ile tylko da się je odróżnić od cech nabytych[7]. Dobrą (i dość powszechną) ilustracją tej prawidłowości jest tendencja do dobrowolnej segregacji według rasy i przynależności etnicznej wśród amerykańskich uczniów (zob. wklejka, il. 3), choć niedawne badania wydają się sugerować, że ta tendencja podlega rozmaitym i dość znaczącym wariacjom w zależności od grup rasowych[8].

Czy jednak tego rodzaju grafy mogą nam pokazać, które jednostki są naprawdę ważne? Dopiero w XX wieku uczeni i matematycy w sposób formalny zdefiniowali wagę czynnika „centralności”. Trzy najistotniejsze mierniki ważności w formalnej analizie sieci to centralność stopnia (degree centrality), centralność pośrednictwa (betweenness centrality) i centralność bliskości (closeness centrality). Centralność stopnia – mierzona liczbą krawędzi odchodzących od danego węzła – przydaje się przy określaniu cechy, którą można by nazwać zdolnością do uspołecznienia, definiowaną przez liczbę relacji jednostki z innymi ludźmi. Centralność pośrednictwa, formalnie wyodrębniona przez socjologa Lintona Freemana pod koniec lat siedemdziesiątych XX wieku, bada intensywność, z jaką informacje przepływają przez dany węzeł. Podobnie jak ludzie dojeżdżający codziennie do pracy szukają możliwie najkrótszej drogi z domu do firmy, co skutkuje nasileniem ruchu w kilku węzłowych punktach komunikacyjnych, tak też i ludzie działający w sieci często polegają na kilku kluczowych jednostkach i za ich pośrednictwem usiłują dotrzeć do ludzi czy grup, z którymi na co dzień nie mają żadnej styczności.

 

Jednostki charakteryzujące się wysoką centralnością pośrednictwa to niekoniecznie osoby z największą liczbą relacji; są to za to ludzie dysponujący najważniejszymi połączeniami. (Innymi słowy, mniejsze znaczenie ma to, ilu ludzi znasz; tak naprawdę liczy się to, kogo znasz). Wreszcie centralność bliskości określa średnią liczbę „kroków”, które trzeba wykonać, by dostać się z jednego węzła do wszystkich pozostałych, wobec czego wskaźnik ten często wykorzystywany jest do definiowania, kto dysponuje najlepszym dostępem do informacji – przy założeniu, że jest ona szeroko rozpowszechniona[9]. Te jednostki, które funkcjonują w sieciach i charakteryzują się wysoką centralnością stopnia, pośrednictwa i bliskości, stanowią, każda w nieco inny sposób, swoiste „łączniki” albo „węzły przepływowe”.

Również mniej więcej w połowie XX wieku poczyniono znaczące postępy, jeśli chodzi o rozumienie i opisywanie ogólnych właściwości dowolnej sieci, których często nie sposób dostrzec z poziomu któregokolwiek z jej licznych węzłów. Pracujący na Massachusetts Institute of Technology (MIT) R. Duncan Luce oraz Albert Perry zaproponowali wówczas zastosowanie współczynników „usieciowienia”, mających zobrazować stopień i charakter połączeń między grupami węzłów, przy czym w przypadku ekstremalnym – takim jak klika – każdy z węzłów jest połączony ze wszystkimi innymi węzłami w danej sieci. (Ujmując rzecz od strony technicznej, współczynnik usieciowienia pokazuje nam odsetek triad społecznych dysponujących pełnym połączeniem, to jest takich, w których każdy z członków dowolnej triady jest połączony z pozostałymi dwoma członkami). Innym, podobnym miernikiem stopnia rozwoju wewnętrznych połączeń w obrębie sieci jest jej „gęstość”.

Waga tego rodzaju wskaźników objawiła się w pełni w 1967 roku, kiedy to psycholog społeczny Stanley Milgram przeprowadził jeden ze swoich słynnych eksperymentów. Otóż rozesłał on listy do przypadkowych mieszkańców miast Wichita (w stanie Kansas) i Omaha (w stanie Nebraska). Każdego z odbiorców tych listów prosił o przekazanie przesyłki bezpośrednio do rąk prawdziwego adresata. Byli to, odpowiednio, małżonka pewnego studenta teologii na Harvardzie oraz pewien bostoński makler – albo, w razie gdyby te osoby były im nieznane, o przekazanie listu komuś, kto ich zdaniem mógł znać osobiście tego ostatecznego adresata, pod warunkiem wszakże, że oni sami znali personalia takiego pośrednika. Ponadto Milgram poprosił też o odesłanie mu pocztówki zwrotnej potwierdzającej i opisującej wykonanie zadania. Podsumowując swój eksperyment, stwierdził, że spośród 160 listów rozesłanych łącznie w Nebrasce do końcowego adresata dotarły ostatecznie 44[10]. (Choć później przeprowadzone badanie wskazuje, że mogło ich być zaledwie 21)[11]. Śledząc przebieg tych zwieńczonych powodzeniem tras, Milgram był w stanie wyliczyć liczbę pośredników koniecznych do każdorazowego przekazania listu końcowemu odbiorcy: średnio było ich raptem pięciu[12]. Rezultat tego eksperymentu w jakimś stopniu przewidział węgierski pisarz Frigyes Karinthy, który w swoim opowiadaniu zatytułowanym Láncszemek (Ogniwa łańcucha), opublikowanym w 1929 roku, przywołał historię człowieka zakładającego się z przyjaciółmi o to, że jest w stanie nawiązać kontakt z dowolną wskazaną przez nich osobą na ziemi, posługując się nie więcej niż pięcioma pośrednikami i znając tylko jednego z nich osobiście. Wyniki te potwierdziły również późniejsze eksperymenty przeprowadzane niezależnie przez innych badaczy, w tym między innymi przez politologa Ithiela de Soli Poola oraz matematyka Manfreda Kochena.

Taka sieć, która łączy dowolne dwa węzły przy pomocy pięciu pośredników, to sieć o sześciu krawędziach. Sformułowanie „sześć stopni oddalenia” weszło do powszechnego użycia dopiero po 1990 roku, kiedy to John Guare opublikował sztukę o takim właśnie tytule, ale – jak widzimy – zasadę, na której się ono opiera, odkryto znacznie wcześniej. Podobnie jak koncepcja „małego świata” (upowszechniona w 1964 roku, po wprowadzeniu w parkach Disneyland przejażdżki rodzinnej o takiej właśnie nazwie) czy już nieco bardziej precyzyjna koncepcja bliskości stanowi ono doskonałe podsumowanie narastającej przez cały XX wiek świadomości, że jesteśmy ze sobą nawzajem w różnoraki sposób połączeni. Motyw ten pojawiał się odtąd w rozmaitych odsłonach i wariacjach: jako sześć stopni Marlona Brando, sześć stopni Moniki Lewinsky, sześć stopni Kevina Bacona (ta ostatnia koncepcja przybrała nawet postać gry planszowej), sześć stopni Lois Weisberg (matki jednego z przyjaciół autora, Malcolma Gladwella) czy też – by poszukać analogii w świecie akademickim – sześć stopni matematyka Paula Erdösa, który, jak już zdążyliśmy zauważyć, sam zresztą należy do pionierów teorii sieci[13]. Ostatnie badania sugerują też, że liczba ta sytuuje się obecnie bliżej pięciu niż sześciu, co mogłoby wskazywać, że zmiany technologiczne obserwowane od lat siedemdziesiątych XX wieku nie były może aż tak przełomowe, jak się to powszechnie zakłada[14]. Co ciekawe, w wypadku dyrektorów największych przedsiębiorstw z listy Fortune 1000 wskaźnik ten wyliczono na 4,6[15], podczas gdy w odniesieniu do użytkowników Facebooka wynosił on 3,74 w 2012 roku[16], a już tylko 3,57 w 2016[17].

6

Słabe więzi i wirale

Tego rodzaju odkrycia wydają się szczególnie intrygujące, ponieważ mamy tendencję do postrzegania sieci naszych przyjaciół jako stosunkowo niewielkich grupek czy zbiorowisk skupiających ludzi do siebie podobnych i jednakowo myślących, a zarazem odizolowanych od innych grup, których członkowie podzielają inne wartości i zainteresowania. A mimo to, jak się okazuje, zaledwie sześć stopni oddziela nas od, dajmy na to, Moniki Lewinsky. Fenomen ten usiłuje wyjaśnić pracujący na Uniwersytecie Stanforda socjolog Mark Granovetter, który proponuje na jego określenie paradoksalny termin „siła słabych więzi”[1]. Przekonuje on, że gdyby wszystkie więzi na świecie były tak silne jak te łączące nas z najbliższymi nam ludźmi, z którymi dzielimy zainteresowania i system wartości, wówczas świat musiałby ulec niechybnej defragmentacji. Tymczasem kluczowe znaczenie dla zjawiska „małego świata” mają inne, słabsze więzi, łączące nas ze znajomymi, od których znacząco się różnimy. Granovetter skupił się początkowo na znanej prawidłowości, że ludzie poszukujący pracy otrzymują w tym zakresie większą pomoc od dalszych znajomych aniżeli od bliskich przyjaciół. Z czasem doszedł do wniosku, że w społecznościach dysponujących stosunkowo nielicznymi słabymi więziami „nowe treści rozprzestrzeniają się powoli, poszukiwania naukowe natrafiają na wiele przeszkód, a podgrupy oddzielone od siebie według kryteriów rasowych, etnicznych, geograficznych czy jakichkolwiek innych będą miały trudności z osiągnięciem modus vivendi”[2]. Innymi słowy, to właśnie słabe więzi stanowią kluczowe mosty pomiędzy odrębnymi skupiskami w ramach danej sieci, które bez nich w ogóle nie byłyby ze sobą połączone[3].

Spostrzeżenia Granovettera miały charakter socjologiczny i opierały się na wywiadach oraz podobieństwie danych, co wymagało ich późniejszego uściślenia na podstawie badań w terenie. A kiedy je przeprowadzono, okazało się na przykład, że dla osób ubogich silne więzi mają większe znaczenie, co sugerowałoby, że ciasne, spajane dużą lojalnością sieci świata proletariackiego mogą się przyczyniać do utrwalania ubóstwa[4]. Ale dopiero w 1998 roku udało się wykazać, d l a c z e g o świat charakteryzujący się przede wszystkim istnieniem homofilnych grupek może być jednocześnie „małym światem”. Dokonało tego dwóch matematyków: Duncan Watts i Steven Strogatz. Pogrupowali oni sieci według dwóch stosunkowo niezależnych od siebie właściwości: przeciętnej centralności bliskości każdego z węzłów oraz współczynnika ogólnego usieciowienia całej struktury. Wychodząc od schematu okrężnego, w którym każdy węzeł połączony jest wyłącznie z dwoma innymi, sąsiadującymi z nim węzłami, badacze ci dowiedli, że przypadkowe dodanie zaledwie kilku kolejnych krawędzi wystarczy do tego, by radykalnie zwiększyć bliskość wszystkich węzłów, bez znaczącego powiększenia współczynnika ogólnego usieciowienia[5]. Watts rozpoczął wprawdzie swoje badania od studiowania zsynchronizowanych odgłosów wydawanych przez świerszcze, ale wnioski, do jakich doszedł wraz ze Strogatzem, wydają się w oczywisty sposób dotyczyć również populacji ludzkich. By zacytować samego Wattsa, „różnica między grafem obrazującym wielki i mały świat może się zasadzać na zaledwie kilku przypadkowo dodanych krawędziach – a jest to zmiana praktycznie niewykrywalna z poziomu poszczególnych wierzchołków (…). Ze względu na wysoko usieciowiony charakter grafów małego świata możemy często odnosić wrażenie, że na przykład jakaś choroba jest «daleko stąd», podczas gdy w rzeczywistości jest ona bardzo, bardzo blisko”[6].

Odkrycia poczynione w dziedzinie nauk o sieci miały też ważkie implikacje dla ekonomistów. Standardowa ekonomia posługiwała się modelem nieróżniących się specjalnie od siebie rynków zapełnionych przez czynniki dążące do maksymalizacji zasobów, dysponujące doskonałym dostępem do informacji. Cały problem – rozwiązany przez angielskiego ekonomistę Ronalda Coase’a, który wyjaśnił wagę kosztów transakcyjnych[12*] – polegał na tym, by zrozumieć, po co w ogóle istnieją firmy. (Powód, dla którego nie wszyscy jesteśmy dokerami zatrudnianymi każdego dnia od nowa i opłacanymi od dniówki – jak Marlon Brando w filmie Na nabrzeżach – jest taki, że zatrudnianie ludzi na dłuższy okres przez firmy pozwala obniżyć koszty pracy). Jeśli jednak przyjmiemy, że rynki są sieciami, a większość z nas zamieszkuje osobne węzły, ściślej bądź luźniej ze sobą powiązane, wówczas świat gospodarczy będzie wyglądał zdecydowanie inaczej. Choćby dlatego, że przepływy informacji staną się zależne od struktur sieciowych[7]. Wiele interakcji międzyludzkich nie ma charakteru jednorazowych transakcji, w których nadrzędną rolę odgrywa cena wynikająca z równoważenia się popytu i podaży. I tak kredyt zależy w dużej mierze od zaufania, które z kolei zależy od struktury społecznej (jest wyższe w skupisku podobnych sobie ludzi, na przykład w społeczności imigrantów).

To zaś ma dalekosiężne skutki nie tylko dla rynków zatrudnienia, a więc obszaru badań Granovettera[8]. Zamknięte sieci sprzedawców mogą prowadzić do korzystnej dla nich zmowy kosztem całej reszty, co z kolei tłumi innowacyjność. Bardziej otwarte sieci mogą natomiast promować innowacyjność, jako że nowe idee łatwiej przedostają się od skupiska do skupiska właśnie dzięki sile słabych więzi[9]. Tego rodzaju spostrzeżenia doprowadziły do poszukiwania odpowiedzi na pytanie, jak w ogóle dochodzi do powstawania sieci[10].

Z pozoru nie wydaje się to problem szczególnie skomplikowany. Począwszy od opisywanych przez Avnera Greifa jedenastowiecznych maghrebskich kupców operujących w basenie Morza Śródziemnego[11] aż po współczesnych nam przedsiębiorców i menedżerów, których działalności przygląda się uważnie Ronald Burt, dysponujemy naprawdę pokaźnym materiałem badawczym obrazującym rolę sieci biznesowych w generowaniu kapitału społecznego[12] i promowaniu – albo też tłumieniu – innowacyjności. Używając terminologii Burta, konkurencja między jednostkami i firmami uzależniona jest właśnie od sieci, których „strukturalne braki” – to jest luki pomiędzy poszczególnymi skupiskami, gdzie brakuje nawet słabych więzi – stanowią „okazję do wykazania przedsiębiorczości pod względem dostępu do informacji, wyczucia czasu i przejęcia kontroli”[13]. Pośrednicy – czyli ludzie zdolni do dostrzeżenia i „wykorzystania takich luk” – uzyskują (a raczej powinni uzyskiwać) „nagrodę za swoją pracę na rzecz integracji”, ponieważ zajmując taką właśnie pozycję, dają sobie szansę na dotarcie do kreatywnych pomysłów (a przynajmniej są mniej narażeni na konsekwencje myślenia w ramach jednej grupy, a więc sztampowego). W instytucjach innowacyjnych tego rodzaju pośrednicy są zawsze doceniani. Ale w sytuacji konfliktu między takim innowatorem-pośrednikiem a siecią skłonną do „zamykania się w sobie” (czyli do izolowania się i homogeniczności) górę bierze często ta ostatnia[14]. Prawidłowość ta odnosi się w równym stopniu do środowiska uniwersyteckich filozofów, co do pracowników dowolnej amerykańskiej firmy elektronicznej[15].

W dzisiejszych programach studiów magisterskich z zakresu zarządzania biznesowego coraz bardziej poczesne miejsce zajmuje odrębna już dziedzina tej nauki określana jako „zachowanie organizacyjne”. Całkiem niedawno poczyniono w ramach tej dyscypliny kilka nowych interesujących ustaleń. Otóż skłonności do zachowań sieciowych ponoć częściej przejawiają menedżerowie niż ludzie niezajmujący stanowisk kierowniczych[16], „mniej hierarchiczna sieć może mieć lepszy wpływ na wypracowanie solidarności i homogeniczności w kulturze organizacyjnej”[17], a pośrednicy odnoszą z reguły większy sukces w eksploatowaniu strukturalnych luk, jeśli „wpasują się w kulturę organizacyjną swojej grupy”, za to ci już „strukturalnie wpasowani” radzą sobie lepiej, kiedy wykazują się pewną „kulturową odrębnością”. Reasumując, „zasymilowani pośrednicy” i „zintegrowani nonkonformiści” osiągają zwykle lepsze wyniki od innych[18]. Również pod tym względem teoria sieci oferuje nam obserwacje, których użyteczność wykracza poza typową rzeczywistość korporacyjną wyszydzaną przez Ricky’ego Gervaisa w serialu Biuro. W końcu sieci biurowe tylko z rzadka są naprawdę duże i rozległe. A jednak rozmiar takiej sieci nie pozostaje bez znaczenia, co wyjaśnia prawo Metcalfe’a – od nazwiska twórcy Ethernetu, Roberta Metcalfe’a – wedle którego (w jego oryginalnym brzmieniu) użyteczność sieci telekomunikacyjnej lub innego systemu teleinformatycznego rośnie proporcjonalnie do kwadratu liczby podłączonych do niej urządzeń (użytkowników). Jest to zresztą cecha wszystkich sieci. Nieco upraszczając, możemy więc stwierdzić, że im większa liczba węzłów w danej sieci, tym bardziej użyteczna jest sama sieć dla wszystkich tych węzłów. Jak zobaczymy, oznacza to spektakularne wręcz korzyści dla wielkich i otwartych na wszystkich sieci i – konsekwentnie – o wiele bardziej ograniczone korzyści dla sieci operujących potajemnie i/albo w warunkach ekskluzywności. Nawet jednak w największych sieciach zawsze będą takie węzły, które spełniają funkcje pośredniczące i przepływowe.

 

Sformułowanie „stać się wiralem” (to go viral) odbierane jest już dziś jako męczący banał, tak bardzo nadużywają go rozmaitej maści specjaliści od reklamy i marketingu[19]. Tak czy inaczej, to właśnie nauka o sieciach pozwala nam najlepiej zrozumieć, dlaczego niektóre idee potrafią rozprzestrzeniać się bardzo szybko i efektywnie, zupełnie jak wirusy. Idee takie – zresztą nie tylko idee, bo również stany emocjonalne, a nawet choroby, takie jak otyłość – mogą być przekazywane za pośrednictwem sieci społecznych, analogicznie do przemieszczania się wirusów. Jednakże idee (czy też „memy”, by użyć neologizmu z języka ewolucjonistów) są z reguły mniej zaraźliwe od wirusów. Te bowiem – niezależnie od tego, czy chodzi o wirusy występujące w naturze, czy o wirusy komputerowe – zazwyczaj przeprowadzają „nalot dywanowy” na całą sieć, jako że ich celem jest jak najszersze rozprzestrzenienie się, wobec czego atakują każdy węzeł sąsiadujący z już zarażonym. W przeciwieństwie do nich my akurat instynktownie dokonujemy wyboru tych członków naszej sieci, którym chcemy zakomunikować jakąś ideę albo od których możemy którąś z nich przyjąć i uznać ją za wiarygodną[20]. Jedną z pierwszych teorii usiłujących wyjaśnić to zjawisko był tak zwany model dwuetapowego przepływu komunikacji, kojarzony z socjologami Paulem Lazarsfeldem i Elihu Katzem, którzy już w latach pięćdziesiątych XX wieku argumentowali, że idee przepływają z mediów do szerszej populacji poprzez „liderów” opinii[21]. Inni dwudziestowieczni badacze starali się zmierzyć szybkość, z jaką rozprzestrzeniają się wiadomości, pogłoski czy innowacje. Całkiem niedawne badania pokazały, że poprzez sieci da się przenosić nawet stany emocjonalne[22]. I choć odróżnianie endogennych i egzogennych efektów sieciowych nie jest bynajmniej łatwe[23], dowodów na tego rodzaju zaraźliwość absolutnie nie brakuje: „Studenci, którzy mieszkają z pilnymi współlokatorami, sami stają się pilniejsi. A gdy w stołówce usiądziemy obok kogoś, kto dużo je, sami też zjemy więcej”[24]. Jeśli jednak wierzyć Christakisowi i Fowlerowi, nie potrafimy przekazywać idei i zachowań poza krąg przyjaciół przyjaciół naszych przyjaciół (innymi słowy, granicą są tu trzy stopnie oddalenia). Dzieje się tak dlatego, że przekazywanie i przyjmowanie dowolnej idei czy zachowania wymaga silniejszej więzi niż w wypadku przekazywania listu do wskazanego adresata (na czym zasadzał się eksperyment Milgrama) albo zakomunikowania o szansie znalezienia zatrudnienia. Sama znajomość z danymi ludźmi nie jest jednoznaczna z możliwością wywierania na nich wpływu, czy to pod względem pilniejszego przykładania się do nauki, czy przejadania się. Naśladownictwo jest wszak największą formą pochlebstwa, nawet wówczas, gdy jest nieświadome.

6. Podstawowe założenia teorii sieci. Każdy punkt na grafie oznacza węzeł, a każda linia to krawędź. Punkt podpisany jako „łącznik” to węzeł charakteryzujący się najwyższym natężeniem centralności stopnia i centralności pośrednictwa. Węzły podpisane jako „skupiska” mają wyższy współczynnik gęstości czy też lokalnego usieciowienia od innych części grafu.

Podobnie jak przy epidemii chorób zakaźnych, tak i tutaj kluczowa obserwacja sprowadza się do tego, że struktura sieci może być równie istotna dla prędkości i zasięgu rozprzestrzeniania się danej idei, jak sama idea[25]. W procesie „stawania się wiralem” najważniejszą rolę odgrywają węzły, które są nie tylko łącznikami czy pośrednikami, ale również swego rodzaju „portierami” – mowa tu o ludziach podejmujących decyzje, czy warto przekazać dalej otrzymane informacje, tak by rozprzestrzeniły się one po „ich” sektorze sieci[26]. Owe decyzje zapadają częściowo w zależności od tego, jak dana osoba zapatruje się na konsekwencje, jakie rozpropagowane informacje będą miały dla niej samej. Z kolei do zasymilowania jakiejś idei może być konieczne jej otrzymanie z więcej niż jednego czy dwóch źródeł. Aby doszło do kompleksowego „zakażenia kulturowego”, musi najpierw – inaczej niż w wypadku prostej epidemii choroby zakaźnej – nastąpić przekroczenie pewnej masy krytycznej pierwszych „wyznawców” idei, charakteryzujących się wysoką centralnością stopnia (czyli posiadających stosunkowo dużo wpływowych przyjaciół)[27]. Przywołując słowa Duncana Wattsa, kluczowym czynnikiem przy określaniu prawdopodobieństwa lawinowego rozprzestrzenienia się jakiegoś bodźca jest „skupienie się n i e na samym tym bodźcu, ale na strukturze sieci, w której rozprzestrzenia się ów bodziec”[28]. To właśnie tłumaczy, dlaczego na każdą ideę stającą się wiralem przypada niezliczona mnogość innych, szybko popadających w zapomnienie – ponieważ miały swój początek w niewłaściwym węźle, skupisku czy nawet w niewłaściwej sieci.