GAFA pozna dokładnie dzieciństwo osób, które teraz się rodzą. Ich życie da się zoptymalizować

Grzegorz Sroczyński
GAFA, czyli wielka czwórka Google, Apple, Facebook, Amazon, prowadzi nas do gigantycznego przesilenia. Coś wisi w powietrzu, wojna, rewolucja, coś, co Walter Scheidel ze Stanfordu nazywa "wielkim wyrównywaczem" - z ekonomistą Janem Zygmuntowskim rozmawia Grzegorz Sroczyński.

Grzegorz Sroczyński: Co się dzieje ze światem?

Jan Zygmuntowski: Wchodzimy w nowy system. Można go nazwać kapitalizmem kognitywnym, bo prawdziwych fortun nie zbija się już na produkcji materialnej, ale na monetyzowaniu myśli i emocji. W centrach światowej gospodarki - Wielkiej Brytanii, USA czy Skandynawii - wartość inwestycji w kapitał niematerialny, czyli oprogramowanie, patenty, bazy danych przekroczyła wartość inwestycji w kapitał materialny, czyli maszyny, budynki, narzędzia. W Stanach to już różnica pięćdziesięcioprocentowa.

I co z tego wynika?

Że szaleńczo przyspiesza tempo akumulacji kapitału. Dawniej ktoś kupował maszynę tkacką, potem kolejną i kolejną, aż w końcu miał tysiąc maszyn i osiągał efekt skali, czyli rosły mu dochody ze sprzedanego towaru i spadały w ogólnym rozrachunku koszty stałe. W przypadku danych i oprogramowania wszystko toczy się szybciej, w dodatku dużo łatwiej zdominować rynek, bo mamy do czynienia już nie z efektem skali, ale z efektami sieciowymi.

Czytaj też: Wywiady Sroczyńskiego. Czy Polska przetrwa kolejną falę globalizacji? "Będziemy musieli się zgodzić na obniżki płac"

Czyli?

Każdy kolejny użytkownik Facebooka, czy każda nowa porcja informacji, którą dostarczasz sztucznej inteligencji, reaguje ze wszystkimi wcześniejszymi użytkownikami i danymi, tworząc nową wartość. Wzrost jest geometryczny.

W kapitalizmie kognitywnym bardzo trudno zbudować konkurencyjny produkt, który będzie miał podobny poziom skomplikowania. Żeby pokonać Google trzeba stworzyć coś, co jest co najmniej wielkości Google. To nie jest tak, że ja na mniejszym rynku mogę stworzyć małego Google i on po prostu będzie miał mniej klientów. Albo tworzę Google’a, albo w ogóle mogę nie startować. Dlatego monopole wielkiej czwórki GAFA - Google, Apple, Facebook, Amazon - są tak potężne. Dawniej w przemyśle krajowym było kilku potentatów, rywalizowali z sobą albo tworzyli kartele, ale generalnie domagali się od swoich rządów ceł ochronnych, bo musieli konkurować z innymi potentatami z zagranicy. Firmy GAFA nie potrzebują żadnego protekcjonizmu, żadnych regulacji. Państwa i rządy nie są im do niczego potrzebne.

I dlatego firmy GAFA tak mocno popierają globalizację?

Tak. Dorabiają do tego piękną ideologię, mówią o wolności, otwartości granic i swobodzie przepływu wiedzy, a tak naprawdę jest jeden powód: w kapitalizmie kognitywnym zwycięzca bierze wszystko, jest tak potężny, że ochrona ze strony państwa niespecjalnie go interesuje – za wyjątkiem istnienia sądów i policji strzegących korporacyjnej własności.

Google jest ufundowany na największej w historii świata ekstrakcji wartości z naszych umysłów, ponieważ ranking przeglądarki PageRank wyświetla te wyniki wyszukiwania, które najczęściej były linkowane poprzednio. Czyli to my najpierw uznaliśmy, że coś jest wartościowe, wkleiliśmy linka, na co Google mówi - ok, doskonale, będę pokazywać to wyżej. A z tych ruchów są zbierane cookies, do których z kolei dopasowywane są reklamy. Więc tak naprawdę Google żyje z pracy całej ludzkości, która daje mu informacje o swoich wyborach i preferencjach, a PageRank upycha w to reklamy, czyli monetyzuje naszą pracę.

Zobacz wideo

No ale daje nam w zamian wyszukiwarkę, pocztę, serwisy społecznościowe i masę innych usług całkowicie za darmo.

Nie za darmo, tylko za kolejne dane i informacje. Podstawowe pytanie brzmi, czy to jest uczciwa wymiana, czy raczej dostajemy świecidełka, a gros wartości trafia gdzie indziej.

Powstaje coraz więcej książek i prac naukowych, które pokazują, w jaką stronę może potoczyć się historia świata, jeśli nic nie zmienimy w zasadach działania GAFA. Jedną z takich książek są "Cztery przyszłości" Petera Frase’a. Ale wystarczy prześledzić zapowiedzi samych koncernów. Istnieje zespół o nazwie Google X, którego zadanie polega na szerokim koncepcyjnym myśleniu m.in. jakie firmy warto przejąć albo jakie produkty będzie można oferować za kilka dekad. Ten zespół stworzył filmik "Selfish ledger" - można to tłumaczyć jako samolubną księgę - o tym, że jeżeli Google zbierze wystarczającą ilość danych o życiu człowieka, to mając bazę miliardów użytkowników będzie w stanie ustalić, którzy z nich mieli podobne dzieciństwo, podejmowali podobne decyzje i popełniali podobne błędy. Więc jeżeli życie jakiegoś dziecka może się potoczyć w niewłaściwym kierunku, to Google będzie to życie optymalizował.

Optymalizował?

Na przykład zawężał dziecku swobodę wyboru, żeby poprowadzić jego "księgę życia" w bardziej pożądanym kierunku.

Niby jak?

Google jest w stanie sprawdzić, że dzieci, które w wieku 15 lat czytały i oglądały w sieci określone treści, częściej w dorosłym życiu mają kłopoty np. z hazardem. Więc powinny zainteresować się jakimś konstruktywnym hobby. Dlaczego dziecko nie gra na żadnym instrumencie muzycznym? To przecież bardzo pomaga w nauce samodyscypliny. Więc takiemu dziecku zaczną się pojawiać sugestie, żeby poszło na lekcje fortepianu - na YouTube zamiast filmików o sportowcach, wysoko wyświetlą mu się filmiki wrzucane przez młodych wirtuozów fortepianu. Takie sugestie mogą atakować dziecko wszędzie: w wynikach wyszukiwania, reklamach, w selekcji treści od znajomych na FB.

Algorytmy na razie nie są dość mądre, mnie na przykład włączyły informację o wynikach Ligi Mistrzów - prawdopodobnie dlatego, że jestem mężczyzną w odpowiednim wieku - chociaż piłka mnie średnio interesuje.

No i właśnie.

Spokojnie, mamy dopiero 2019 rok. Te algorytmy wciąż się uczą. Pierwszy smartfon pojawił się na rynku w 2007 roku, minęła zaledwie dekada i już nie wyobrażamy sobie codziennego życia bez tego urządzenia. Takie jest tempo zmian, a jeśli przyspieszy, to wirtualnych asystentów będziemy mieć szybciej, niż sądzimy.
Konglomerat GAFA będzie dokładnie znał dzieciństwo osób, które teraz się rodzą. Ich choroby od początku życia, skłonności, to, jakie obejrzały filmiki na YouTube, gdzie przebywały godzina po godzinie dzięki GoogleMaps, jakich dokładnie mają znajomych. Te dane nie są anonimowe, wystarczy jedno zalogowanie na Gmaila albo YouTube, żeby przyporządkować do konkretnej osoby wszystkie przeszłe i przyszłe dane.

Czyli różnica miedzy moim pokoleniem a pokoleniem mojego dziecka jest taka, że o nim GAFA wie wszystko?

Tak. O panu wiedzą sporo od mniej więcej 10 lat: co pan klika, co kupuje, gdzie jeździ. Znają pana wybory jako dorosłego człowieka, algorytm jest więc w stanie dość dobrze ocenić pana konstrukcję psychologiczną, ale bez informacji z dzieciństwa nie będzie to aż tak dokładne. O mnie wiedzą już nieco więcej, mam 26 lat, więc zahaczyli o mój okres nastoletni, wtedy przecież dużo się w życiu dzieje, wiedzą, jakie miałem kłopoty w szkole, a jeśli korzystam z inteligentnego głośnika Amazona, to rozmowy z wirtualnym asystentem są aktywnie nasłuchiwane. Natomiast o naszych dzieciach będą wiedzieli już w zasadzie wszystko, nawet jeśli pański syn nie korzysta jeszcze z internetu, to przecież pan korzysta. Jeśli pan wpisze w wyszukiwarkę "atopowe zapalenie skóry u dzieci" i spędzi ileś czasu na wczytywaniu się w wyniki, to algorytm będzie mógł zbudować portfolio założeń, że ta choroba dotyka pańskiego syna.

Mogłem przecież czytać o tej chorobie z innego powodu, na przykład pisać jakiś tekst dziennikarski.

Owszem. Ale po sposobie, w jakim pan korzystał z danej strony można określić emocje. I odpowiednio zaawansowany algorytm będzie w stanie wyłapać, czy szukane informacje dotyczą pana, pańskiej rodziny, czy po prostu googluje pan coś z ciekawości.

No dobrze, ale co z tego?

Właśnie w tym problem, że nie do końca wiemy, co z tego.

Sztuczna inteligencja będzie karmiona bilionami takich informacji o naszych osobistych wyborach. Te dane wchodzą ze sobą w korelacje, których nie jesteśmy w stanie zrozumieć ani zauważyć. Powiedzmy, że dzieci, które miały w pierwszym roku życia atopowe zapalenia skóry, a jako 10-latki jadły dużo parówek, w dorosłym życiu są kiepskimi kierowcami albo częściej popadają w alkoholizm.

Bez sensu. Jaki to ma związek?

Żaden. Dla nas. Sztuczna inteligencja z tych bilionów danych potrafi wyprowadzić kompletnie nieoczywiste zależności. Algorytmy już teraz dość trafnie potrafią określić naszą konstrukcję psychologiczną na podstawie konkretnej teorii np. wielkiej piątki cech: neurotyczność, ekstrawersja, otwartość na doświadczenie, ugodowość, sumienność. Po naszych wyborach są w stanie ocenić poziom tych cech. I za chwilę mogą się dziać rzeczy, o których w ogóle nie będziemy wiedzieć. A jeśli algorytm uzna, że część pańskich znajomości jest niezbyt odpowiednia, bo mało produktywna dla pańskiego życia? Jeśli algorytm zacznie panu utrudniać kontakt z tymi osobami, żeby pańskie życie ulepszyć?

Ale po co Google czy Facebook miałyby poprawiać moje życie?

Bo dzięki temu będą mogły z pana ściągać więcej pieniędzy, co jest nadrzędną motywacją każdej kapitalistycznej firmy. Im bardziej ktoś jest wydajny, tym lepiej dla GAFA. Wyciskanie maksymalnej produktywności z każdego mózgu będzie celem tych korporacji.

No ale to znaczy, że GAFA będzie chciała poprawić życie całej ludzkości. Może to dobrze.

Czy totalny nadzór nad całym światem w celu maksymalizacji zysku korporacji jest czymś dobrym? Pewnie przyniesie to jakieś korzyści, ale efekty uboczne mogą być zatrważające. Na pewno wzrosną nierówności, bo te sugestie algorytmu czy wirtualnego asystenta będą tylko pozornie dostępne dla każdego, prawdziwe skuteczne "ulepszenia" zostaną skierowane do tych, którzy mogą się zastosować - do zamożnych. To ich będzie stać na monitorowanie wszystkich czynności życiowych, kupienie odpowiedniego oprzyrządowania i dostosowanie diety tak, żeby była idealna dla czyjejś konstrukcji organizmu. Będzie ich stać, żeby dostosować zainteresowania ich dzieci do ustalonej przez algorytm osobowości. Natomiast ktoś w Afryce dzięki wirtualnemu asystentowi będzie mógł najwyżej zamówić sobie pizzę.

Teraz też istnieją takie nierówności. Jednego stać na zajęcia dodatkowe dla dziecka, innego nie stać.

Zgoda. Nie chodzi mi o to, że pojawią się całkowicie nieznane w historii ludzkości zjawiska, tylko o to, że mogą zostać podniesione do potęgi entej. Zamożni wykorzystując dane GAFA będą mogli założyć siedmiomilowe buty. Różnica jeszcze się powiększy.

W krajach rozwiniętych spada dzietność, konglomerat GAFA przewiduje, że ten trend się nie zmieni, więc trzeba będzie więcej produktywności wycisnąć z jednej osoby, monitorować jej funkcje życiowe, dobierać diety, to jest obszar, w który już teraz wchodzą koncerny - technologie medyczne. Za 50 lat nadzorowanie procesów życiowych człowieka i poprawianie naszego życia w celu zwiększenia wydajności będzie powszechne.

Sztuczna inteligencja jest w stanie wykryć takie powiązania, które dla nas brzmią jak magia. I to jest powód, dla którego tak trudno nam regulować tę sferę. Bo póki rozumiemy jakieś dane, to budujemy sobie algorytm np. decydujący, czy ktoś dostanie kredyt w banku. Ten algorytm może być banalny: wiek, przedziały zarobkowe, wysokość wydatków. Natomiast sztuczną inteligencję aplikujemy wtedy, kiedy danych jest tyle, że nikt nie wie, co da się z nich wyciągnąć. Wpuszczamy w ten gąszcz samouczącą się sztuczną inteligencję, ona wypluje jakiś wynik - na przykład czy dać komuś kredyt, czy odmówić - ale nie dowiemy się, dlaczego tak zdecydowała. Jak rozmawiam z ludźmi z Brukseli, którzy próbują wymyślić unijne regulacje dotyczące GAFA, to oni często mówią, że algorytmy muszą być wytłumaczalne. Żeby każdy wiedział, dlaczego podjęto wobec niego taką, a nie inną decyzję.

Bo mam prawo wiedzieć, dlaczego nie dostałem kredytu.

Albo azylu, zasiłku, pozwolenia na broń, czegokolwiek. A jeżeli to jest zbyt skomplikowane? Sztuczną inteligencję oczywiście możemy zapytać, dlaczego wiąże ze sobą jakieś fakty, tyle że jej odpowiedź jest tak skomplikowana, że jej nie rozumiemy. Możemy i powinniśmy oczywiście posiłkować się półśrodkami – pokazując założenia, mówiąc na jakim zbiorze danych algorytm był testowany, ale pełna odpowiedź jest poza naszym zasięgiem.

Samouczące się algorytmy pracują teraz najczęściej dla rynku reklamowego i nie wiemy do końca, dlaczego taka reklama, a nie inna, trafia do określonej grupy odbiorców. Ale jakoś tak się składa, że te reklamy są skuteczne. Trwa też automatyzacja zawodów prawniczych przy pomocy algorytmów. Od pewnego czasu polskie kancelarie nie są w stanie wygrywać przetargów na obsługę zagranicznych klientów, bo wypierają je kancelarie z Londynu. Londyn w funtach jest w stanie zaoferować cenę niższą o 30-50 proc. niż Warszawa, bo optymalizują cały back office, czyli proces pisania i zawierania umów. Wkrótce będą w stanie na przykład wyłapać, że w ostatnich pięciu latach umowy zawierane przez jakąś firmę we wtorki były mniej korzystne. Więc przestań zawierać umowy we wtorki. Brzmi idiotycznie, ale takie niewytłumaczalne zależności istnieją. Dlaczego? Nie wiem, to zbyt skomplikowane dla mózgu człowieka. Co będzie, jeśli GAFA dzięki bilionom danych będzie w stanie ustalić takie zależności we wszystkich segmentach naszego życia, od pracy aż po związki miłosne?

Jedną z najbardziej przełomowych książek, jakie ostatnio czytałem jest "Wiek kapitalizmu inwigilacyjnego" Shoshany Zuboff z Harvardu. Ta książka zrobiła dość dużo szumu, ale omawiana jest powierzchownie, że jesteśmy nadzorowani przez GAFA, że trzeba chronić nasze dane itd. Tymczasem Zuboff stawia dużo ciekawszą tezę, że skoro GAFA zbiera informacje o decyzjach, jakie podejmujemy i z tego tworzy produkty marketingowe dla reklamodawców, to tak naprawdę są to nowe produkty finansowe, tyle że behawioralne.
Do tej pory rynek finansowy sprzedawał produkty bazujące na przykład na tym, jak wyglądają zmiany cen na rynku pszenicy. Można było spekulować pszenicą, grać na zwyżkę cen lub spadek. Nowe produkty behawioralne pozwolą spekulować zachowaniami ludzi. Tak jak wielki gracz mógł niegdyś rzucić na rynek pszenicy setki milionów dolarów i doprowadzić do zmiany cen, tak samo GAFA - a są to największe na świecie platformy reklamowe - będą miały pokusę, żeby spekulować naszymi zachowaniami.

Jak?

Wykorzystując ludzkie słabości. Przychodzi reklamodawca z branży samochodowej i mówi: "Chcę dokładnie wiedzieć, jaki profil użytkownika interesuje się moimi autami. Posegmentujcie nam to". I wychodzi z analizy danych, że ten konkretny model auta jest kupowany przez konkretne profile psychologiczne: osoby, które chcą pokazać autem status oraz te, które chcą okazać przywiązanie do wartości rodzinnych. I firmy marketingowe są w stanie eksploatować te wartości, sterować ludźmi w tę stronę. To samo zrobiła Cambridge Analytica w kampanii Trumpa, czy w kampanii Brexitowej.

Ale co z tego, że w okienku reklamowym, na które nie zwracam uwagi albo wycina mi je AdBlock, wyświetli się reklama samochodu, w której będzie coś o wartościach rodzinnych?

Nic. A co, jeśli wyłuskujemy spośród użytkowników Facebooka osoby neurotyczne, które boją się o swoją przyszłość? I zaczynamy je bombardować informacjami o wzroście liczby przestępstw z "niezależnych" ośrodków analitycznych. "Uwaga! Tego raportu nie chciały opublikować główne media. Wzrost rabunków w Chicago o 300 procent, napastnicy obcinają palce ofiarom". Po czym od pewnego momentu zaczynamy sprzedawać systemy bezpieczeństwa dla domu.

Cienkie.

Może i cienkie. Ludzki umysł jest cienki w zderzeniu z bilionami danych, więc nie wymyślę tu na poczekaniu przykładu tak sprytnego, jak mógłby wypluć z siebie algorytm, który zna pana na wylot. I nie mówimy tylko o treściach z okienka reklamowego, na które być może nie zwraca pan uwagi, chociaż z wielu badań wynika, że jednak - nawet nieświadomie - rejestruje pan zamieszczane tam treści. Mówimy o wynikach wyszukiwań, o tym, co wyświetla się panu jako promowane posty na Facebooku… 

Chyba nigdy w nie nie kliknąłem. Zawsze są to albo rzeczy głupie albo zbyt sensacyjne, co na kilometr pachnie ściemą.

Rynek influencerów w Europie jest praktycznie nieuregulowany. Można kupić youtuberkę i powiedzieć, żeby coś zrobiła, albo żeby głosiła jakieś treści, nie informując, że to reklama. Youtuberzy i vlogerzy są głównym źródłem informacji młodszego pokolenia. Dla pana te treści to śmieci, być może nie zwróci pan uwagi, a dla pana dziecka to będzie normalne źródło wartościowych informacji. Można zapłacić Facebookowi za wyświetlanie tekstu, że w Polsce atakują gigantyczne kleszcze. Ktoś zakłada portal informacyjny, tam publikuje rozmaite treści przerażające, płaci koncernom GAFA, żeby wyświetlały to wyżej albo jako promowane posty. Być może pan to odróżni i odsieje - dziennikarze pewnie mają większe kompetencje do weryfikowania informacji. Ale proszę się dodać na FB do paru takich grup komentujących bieżące informacje i zobaczyć, czym ludzie żyją. Oni naprawdę nie mają pojęcia, jakie treści łykają, i że są to treści wypaczone.

Produkty behawioralne najlepiej działają w sferze polityki.

Dlaczego akurat polityki?

Bo wpływasz na opinie ludzi i nie podsuwasz im wprost żadnego produktu, więc jest to bardziej wiarygodne. Musisz tylko sprawić, żeby ludzie myśleli, że rzeczywistość wygląda w określony sposób. Treść sponsorowana mówi na przykład: świat jest niebezpieczny, a w ogóle to zaraz będzie wojna. I ta treść ma się wyświetlać tylko osobom neurotycznym. To wystarczy. Bo tak się przypadkiem składa, że trwa kampania wyborcza, a jeden z kandydatów na prezydenta to "silny człowiek" np. jakiś były generał.
Problemem spowodowanym przez GAFA jest upadek publicznej agory i dyskusji. Bo jej sens polegał na wymianie myśli, argumentów, a tymczasem bańki informacyjne są nakręcane rekcjami emocjonalnymi. To co dobrze chodzi, to są opinie polaryzujące. Filmy, które są polaryzujące generują więcej komentarzy i więcej lajków. Były takie próby, żeby ostrzegać użytkowników: "Twój komentarz jest polaryzujący i agresywny, czy na pewno chcesz go zamieścić?" - i takie ostrzeżenia w testach działały łagodząco, ale powodowały też mniejszą ilość reakcji. Z puntu widzenia GAFA to by oznaczało mniej danych, dzięki którym mogą więcej o nas wiedzieć i lepiej dostosować swój produkt do potrzeb reklamodawców.
Wystarczy spojrzeć, jak You Tube promuje filmy naukowe o kulistości ziemi i filmy udowadniające, że ziemia jest płaska, a przykrywa ją żelazna kopuła udająca niebo. Na przykład popularny jest filmik, na którym wystrzeliwują w niebo jakąś rakietę własnej konstrukcji, ona nagle jakby o coś uderza, spada, a teza jest taka, że uderzyła w tę żelazną kopułę, którą oczywiście politycy i naukowcy przed ludźmi ukrywają. I te filmiki o płaskiej ziemi są wielokrotne częściej promowane przez YouTube, generują więcej lajków i więcej łapek w dół. Bo w tym wszystkim chodzi o to, żeby ludzie okazywali emocje. Nawet jeśli jest to klikanie łapki w dół ze złości, że ktoś publikuje debilizmy. Na tej samej zasadzie tak bardzo rosną zasięgi ruchów antyszczepionkowych.

Proszę sobie obejrzeć kilka kanałów na YouTube z kontentem dla dzieci. Ktoś zrobił na przykład film o pięciu paluszkach - był dość okropny - po czym twórcy kanału odkryli, że jak potną tę animację, poskładają nieco inaczej i zmiksują z inną muzyką, to powstaje nowy filmik. A jak ten z kolei połączą z innym popularnym filmikiem - na przemian wrzucając fragmenty - to znowu mamy nowy filmik. Istnieją w internecie kanały dla dzieci, które mają kilka tysięcy filmów trwających po kilkanaście minut i ogrywających te same pocięte fragmenty i te same dżingle muzyczne, ale za każdym razem, kiedy dziecko ogląda to na tablecie, można wpuścić kolejną reklamę. Tam nie ma fabuły, nie ma związku przyczynowo-skutkowego, ale dzieci w pewnym wieku to nie nudzi. Czy wiemy, jak to wpływa na ich mózgi?

W ostatniej dekadzie w USA o 40 proc. spadł czas, który młodzi ludzie spędzają ze znajomymi. Wzrost liczby samobójstw wśród dziewczynek jest trzykrotny. Dlaczego dziewczynki? Instagram, Snapchat, które generują oczekiwania dotyczące wyglądu.

Ale zawsze tak było! Zawsze istniały kanony urody, do których nie można było doskoczyć.

To prawda. Ale nie było to aż tak inwazyjne doświadczenie i aż tak silna presja tego konstruktu społecznego. Dziewczyna nie była codziennie bombardowana zdjęciami wszystkich ładniejszych koleżanek. Albo tym, że jakaś bogatsza znajoma non stop wrzuca relacje z kolejnych egzotycznych miejsc, albo fotki drogich dań z drogich knajp. Wszystkie badania psychologiczne i socjologiczne sugerują, że nierówności są szkodliwe nie tylko dlatego, że najbiedniejsi nie mają dostępu do jakichś dóbr. Chodzi o samą rozpiętość, o poczucie, że mój sąsiad ma dużo lepiej niż ja. W sytuacji, kiedy dowiaduję się o tym raz na jakiś czas, bo widzę jaką furę parkuje w garażu, to jest to znośne. Jeżeli natomiast kilka razy dziennie jestem bombardowany taką treścią, bo on wrzuca zdjęcia na FB, jego żona wrzuca i jego dzieci wrzucają, to nawet mniejsza nierówność powoduje u ludzi większy dyskomfort.

I co z tym robić?

Na razie nikt nic nie robi. Unia Europejska zastanawia się nad nałożeniem na GAFA podatku cyfrowego, dzięki czemu rządy mają odzyskać chociaż część pieniędzy z niepłaconych przez koncerny podatków, pojawiają się też oceniane krytycznie rozwiązania dotyczące odpowiedzialności platform za treści.

Ale co taki podatek zmieni?

Niewiele. Nie zlikwiduje problemów, o których rozmawiamy, bo nie zmienia struktury rynkowej, nie odnosi się do problemy monopolu GAFA, ani tym bardziej nie kwestionuje własności danych. Za to Ursula von der Leyen będzie mogła powiedzieć "wygraliśmy walkę w GAFA i będziemy mieli z tego 5 mld euro rocznie". To żadne rozwiązanie, tylko taka łatka.

A gdyby nie miała to być łatka?

To by trzeba było podzielić koncerny GAFA na osobne części i wprowadzić zakaz integracji wertykalnej. Nie może być tak, że operator telefonu wskazuje nam jeden możliwy system operacyjny, domyślną  przeglądarkę i wyszukiwarkę, integruje to ze wszystkimi elementami systemu. Rozbijamy to na części. YouTube nie może należeć do Google’a, serwis GoogleMaps też musi działać osobno. Z Facebooka trzeba by wydzielić silnik reklamowy, niech Zuckerberg nadal nim zawiaduje, ale już nasze dane powinny trafić do innego podmiotu. Powinno się też wydzielić jako osobne firmy Messengera i WhatsApp’a. Wprowadzić zakaz finansowania krzyżowego, co polega na tym, że z części biznesu przynoszącej świetne dochody koncerny latami finansują niedochodowe produkty, żeby wykosić konkurentów. Rozbicie GAFA spowodowałoby również tę korzyść, że nie każda innowacja musiałaby służyć optymalizacji zysku.

Oni na to odpowiedzą, że jest odwrotnie, bo po rozbiciu dużych firm na mniejsze spadną ich wydatki na badania i rozwój.

Ale tak nie jest! Mamy na to dowody, chociażby wyniki engodenicznych modeli wzrostu Philipa Aghiona z London School of Economics. Produktywność i innowacyjność w światowej gospodarce z powodu działań monopolu GAFA spada. Przejęcie przez któregoś z gigantów małego obiecującego startupa gwarantuje mu bardzo szybki wzrost w krótkim terminie, ale w dłuższym ta firma słabiej się rozwija i robi mniej ważne rzeczy. Google przejmuje jej pomysły i technologie, a potem zastanawia się, jak je ułożyć w swojej strukturze biznesowej pod jeden główny czynnik, którym jest optymalizacja zysku. W ten sposób wiele zespołów utalentowanych inżynierów np. zajmujących się przetwarzaniem audio i wideo - co mogło służyć ważnym innowacjom - musiało ograniczyć wdrażanie swoich odkryć do serwisu YouTube.

Potrzebne jest uspołecznienie tych wielkich platform, przekształcenie przynajmniej części GAFA w publiczną infrastrukturę. Na przykład sieć społecznościowa Facebooka mogłaby być publiczna i znaleźć się pod nadzorem niezależnego holdingu, tak jak Wikipedia. Przecież obecnie kluczowe elementy internetu - na przykład system domen - znajduje się w rękach niezależnej fundacji ICANN, nadzorowanej przez obserwatorów z całego świata. Więc ten niemal utopijny system współpracy - który powstał w czasach raczkującego internetu - istnieje i dobrze działa. Moglibyśmy narzucić taki model sieciom społecznościowym i wyszukiwarkom. Wydzielamy nasze dane z Facebooka, Ubera, Goggle’a i oddajemy pod zarząd niezależnej fundacji pod egidą ONZ.

Jeśli Uber zbiera dane o naszych przejazdach, niech się nimi dzieli dla dobra wspólnego. Mogłaby powstać europejska baza danych - zarządzałby nią np. Europejski Komitet Regionów - a Uber musiałby tam przekazywać zanonimizowane informacje. Jeśli dołączymy do nich dane o pociągach, przejazdach autobusowych, przelotach, to możemy mieć kompletną wiedzę o tym, jak ludzie w Europie się poruszają.

Samorządy dzięki temu mogą uprawniać swoją sieć transportu publicznego, przewoźnicy mogą lepiej dostosować połączenia. Taki bank danych może też ogłosić: mamy interface, który udostępniamy dla startupów, możesz świadczyć usługi przewozowe albo nauczyć dzięki tym danym sztuczną inteligencję, jak coś zrobić jeszcze lepiej. Wspieramy wtedy konkurencję na rynku usług cyfrowych. Dziś to jest niemożliwe, bo Uber staje się właścicielem wszystkich informacji, chociaż są one owocem wspólnej pracy kierowcy i użytkownika.

Facebookowi można zostawić na własność tzw. silnik reklamowy, czyli tę cześć, do której przychodzi reklamodawca. Ale nasze dane niech ma specjalny bank. Od każdego klienta, któremu silnik wyświetli reklamę, można pobierać 0,001 euro. To jest jak podatek. I poza tym dokładnie wiemy, ile naszych danych potrzebowali i po co.

To wszystko się nie stanie. Przecież pan to wie.

Stanie się, bo w takiej czy innej formie coś się stać musi. GAFA prowadzi nas do gigantycznego przesilenia. Coś wisi w powietrzu, wojna, rewolucja – coś, co Walter Scheidel ze Stanfordu nazywa "Wielkim Wyrównywaczem"…

To "coś" nadchodzi z powodu polaryzacji, którą podkręcają platformy społecznościowe?

Też. Obecny model działania GAFA pcha nas w niebezpiecznym kierunku. Przy tej skali nierówności i tak mamy na świecie mocne napięcia, a GAFA jeszcze rozdmuchuje płomienie. Lont może podpalić katastrofa klimatyczna jakimś zupełnie nieprzewidzianym zdarzeniem.

***

Ekonomista Jan ZygmuntowskiEkonomista Jan Zygmuntowski Fot. Adam Burakowski / Agencja Wyborcza.pl

Jan Zygmuntowski (1994) - ekonomista zajmujący się innowacjami, cyfrową gospodarką i zrównoważonym rozwojem. Prezes zarządu Fundacji Instrat. Doświadczenie zdobywał m.in. w Polskim Funduszu Rozwoju. Absolwent Szkoły Głównej Handlowej w Warszawie i stypendysta G20 Global Solutions.

Więcej o: