KOPEĆ: Jak zdusić postprawdę

Żeby stłamsić bestię postprawdy o tysiącu głów, wraz z jej zdecentralizowanymi przetokami, ropnymi erupcjami fanatyzmów i wykwitami neozabobonu, potrzebujemy innowacji na miarę Google Search


Opublikowany w „New Yorkerze” rysunek satyryczny Petera Steinera stał się klasykiem. Widzimy na nim psa siedzącego przed komputerem i podpis: „W Internecie nikt nie wie, że jesteś psem”. Porzekadło weszło do języka i doczekało się strony na Wikipedii, także polskiej[i]. Celnie opisywało tę epokę Internetu, w której sieć była w znacznej mierze anonimowa, fora dyskusyjne plądrowały niepilnowane „dzieci Neostrady” i nikt nie mógł wiedzieć, czy porady na temat leczenia raka, które wyskakują w komentarzach na Onecie, nie pochodzą przypadkiem od dziesięciolatka z dwóją z przyrody.

Minęły lata i Internet się unormował. Dysponując podstawowymi kompetencjami medialnymi (o które niekoniecznie tak łatwo, jak się może wydawać[ii]), nietrudno znaleźć w nim wiarygodne informacje na bieżące tematy, wliczając zarówno „poważne” tytuły prasowe, jak i uniwersyteckie encyklopedie czy kursy akademickie prowadzone przez utytułowanych wykładowców. Facebook, za sprawą swojej restrykcyjnej polityki prawdziwych nazwisk[iii], cichaczem wyrobił nam odpowiedniki internetowych dowodów osobistych, którymi możemy posługiwać się nie tylko do rejestracji w całej masie serwisów, ale i choćby do zlecania przelewów bankowych[iv]. Google dzięki przełomowym rozwiązaniom technologicznym, także w obszarze sztucznej inteligencji, dostarczył nam narzędzi do wydobywania wiedzy z chaosu. Przy okazji Internet przestał być przestrzenią, w której na każdym kroku napotykamy reklamy maszynek do powiększania penisów – dziś da się spacerować po nim całymi tygodniami, nie natrafiając na żadną reklamę ostrej pornografii ani na wiadomość od nigeryjskiego księcia, który pilnie potrzebuje poufnej lokaty kapitału. Nie mówiąc już o trojanach – lęk przed nimi ulotnił się jak perfumy modne w czasach polskiej recepcji Słonecznego Patrolu.

Równolegle do profesjonalizacji serwisów internetowych rozwijała się blogosfera, społeczności (najpierw na Usenecie i forach, dziś częściej wewnątrz portali), coraz bardziej profesjonalne kanały wideo, podcasty i inne alternatywne obiegi. Niektórzy przekonywali, że dziennikarze obywatelscy będą kontrolować dziennikarzy i dawać głos tym, którzy gdzie indziej nie znajdują reprezentacji, zarówno politycznej, jak i związanej z zainteresowaniami czy stylem życia.

Na skalę algorytmu

W całej tej nowej złożoności pomagali nam się orientować giganci z Doliny Krzemowej – najpierw Google, potem także Facebook czy Twitter. Wszystko zmierzało w dobrym kierunku, pomimo lęków przed cyfrowym Wielkim Bratem, utyskiwaniami alterglobalistów, trwogą obrońców prywatności i specjalistów od prawa autorskiego. Digitalizacja stała się synonimem postępu, także w Polsce, gdzie miała przede wszystkim zwalczać nierówności i popychać gospodarkę ku mitycznej innowacyjności.

Twórcy internetowych korporacji z Doliny Krzemowej doskonale pojęli konsekwencje „długiego ogona”[v] Internetu – nie próbowali odtwarzać tradycyjnych relacji pomiędzy medialnym establishmentem a masami pasywnej widowni. Starali się opleść swoimi wpływami jak najszersze grono nisz, skupiając je pod wspólnymi parasolami umożliwiającymi sprawną nawigację i wykorzystanie efektu skali. Dało się tak postąpić właśnie za sprawą digitalizacji – na cyfrowych półkach znacznie później kończy się miejsce, a dystans traci na znaczeniu. Integracja rozproszonych źródeł informacji odbywała się na poziomie pośredników – wyszukiwarek i portali społecznościowych, i to pośrednicy odcinali kupony.

Tę strategię działania klarownie ilustruje przykład przytaczany przez Tima O’Reilly’ego[vi] dotyczący dwóch pomysłów na handel reklamami w Internecie. Firma DoubleClick zbudowała swój model biznesowy w oparciu o kontrakty z największymi graczami w branży. Chwaliła się, że ma na koncie setki wdrożeń. W tym samym czasie AdSense – usługa Google – miała już setki tysięcy użytkowników, którzy sami instalowali narzędzia i zarządzali swoimi kontraktami z dostawcą. Biznes rósł jak na drożdżach, a koszty rosły znacznie wolniej. Jak skończyła się rywalizacja tych dwóch modeli? Od marca 2008 r. roku DoubleClick jest własnością korporacji Google, która z kolei jest niekwestionowanym liderem reklam w sieci.

DoubleClick starała się sprzedawać reklamy w Internecie tak, jak sprzedawałaby je w tradycyjnych mediach. Google podeszło do sprawy inaczej – zbudowało narzędzie, którego sprawność rosła wraz z zasięgiem, dzięki czemu mogła zagospodarować także „długi ogon” Internetu.

Facebook działa podobnie – skupia pod swoim parasolem jak najwięcej osób, firm i stron, pozwalając użytkownikom na nawigację i sytuując się w roli rozdzielni, która przerzuca uwagę użytkowników w odgałęzienia sieci. Decyzje o tym, co komu pokazać, są warunkowane wskazaniami algorytmów czy sztucznych inteligencji, które działają tym sprawniej, im więcej otrzymują danych.

Prawda leży w sieci

Tak jak Larry Page z Sergeyem Brinem czy Mark Zuckerberg odnieśli sukces, między innymi zrozumiawszy, na czym w praktyce polega zdecentralizowany charakter Internetu, tak my dzisiaj musimy zrozumieć, na czym polega związek pozbawionego centrum Internetu z decentralizacją prawdy. I wyciągnąć odpowiednie wnioski.

Dyskusja o postprawdzie rozgorzała, kiedy Wielka Brytania zagłosowała za wyjściem z Unii Europejskiej, a w Stanach Zjednoczonych wybory prezydenckie wygrał Donald Trump. Dziennikarze „poważnych gazet” donosili o nawałnicy fałszywych wiadomości nagłaśnianych i dystrybuowanych wewnątrz portali społecznościowych. Nie nadążali przy tym ich falsyfikować, a nawet gdy reagowali dostatecznie szybko, posądzenia o sprzyjanie skompromitowanemu establishmentowi błyskawicznie pozbawiały ich autorytetu.

Niektóre tradycyjne media próbują dostosować się do sytuacji, gdy urzędujący prezydent Stanów Zjednoczonych i jego najwyższa administracja kłamią podczas oficjalnych wystąpień. Najpierw telewizje zaczęły na bieżąco zamieszczać sprostowania słów prezydenta, lub jeszcze kandydata na prezydenta, w paskach u dołu ekranu[vii]. Później CNN zdecydowała się nie prezentować konferencji prasowej Seana Spicera – sekretarza prasowego Białego Domu – na żywo, ale odczekać do jej zakończenia i zrelacjonować wystąpienie ustami swojego korespondenta. Dzięki temu stacja mogła od razu wskazać kłamstwa w wystąpieniu sekretarza, zamiast pozwalać im wybrzmieć przez kilka minut, zanim zostaną odpowiednio zweryfikowane[viii]. Ale co poradzić na fakt, że Donald Trump często komunikuje się z użytkownikami bezpośrednio za pomocą Twittera, gdzie żaden dziennikarz nie może „wejść” pomiędzy niego a czytelnika?

Jak zapanować nad siecią bez środka

Najbliższe dni i miesiące pokażą, czy tradycyjne media są w stanie poradzić sobie z nawałnicą postprawdy. O ile można mieć nadzieję, że dadzą sobie radę z kłamstwami wygłaszanymi przez państwowych oficjeli, choćby adaptując na szerszą skalę już wypróbowywane metody, o tyle płonna wydaje się nadzieja, że tradycyjne media zdołają dotrzeć z faktami do grupujących się na portalach społecznościowych antyszczepionkowców (czy też proepidemików), ludzi negujących globalne ocieplenie czy różnego rodzaju fanatyków. Być może znaleźliśmy się z powrotem w sytuacji, w której nikt nie jest w stanie zapanować nad chaosem Internetu. Możliwe, że oczekując od tradycyjnych mediów ugaszenia pożaru, trzymamy się kurczowo modelu, który już nie działa – staramy się przenieść znane metody działania w środowisko, w którym na nic się nie zdadzą. Staramy się znaleźć nowe silne centrum, zamiast szukać sposobów zapanowania nad siecią pozbawioną środka.

PageRank – innowacja, która przesądziła o sukcesie Google Search – polegała na pozornie bardzo prostej adaptacji do podobnych warunków. O tym, czy strona była warta uwagi użytkownika, miało decydować to, jak często linkowały ją inne strony. To wystarczyło, by uzyskać wyniki przytłaczająco lepsze od konkurencji i pozwalało osiągnąć rozmach nieosiągalny przy wykorzystaniu pracy skoszarowanych ekspertów.

Dziś nad rozgardiaszem internetowej komunikacji czuwają programy dalece bardziej skomplikowane. Tymczasem wielbiciele tradycyjnych mediów, do których sam się zresztą zaliczam, oczekują, że z rozbestwioną postprawdą poradzi sobie garść zawodowych dziennikarzy. Zachowujemy się jak szaleni inwestorzy nie mogący zrozumieć, dlaczego pękła bańka dotcomów – zamiast szukać nowego modelu dla nowego środowiska, załamujemy ręce, że dawne ścieżki nie prowadzą już do celu.

Żeby stłamsić bestię postprawdy o tysiącu głów, wraz z jej zdecentralizowanymi przetokami, ropnymi erupcjami fanatyzmów i wykwitami neozabobonu, potrzebujemy innowacji na miarę Google Search. Informatycy, słyszycie nas?

Tekst pochodzi z numeru 227 (1/2017) Res Publiki Nowej pt. Prawda. Zapraszamy do księgarni.

Jarosław Kopeć – arabista i kulturoznawca, członek Laboratorium Techno-Humanistyki Wydziału Artes Liberales Uniwersytetu Warszawskiego, asystent w Instytucie Książki i Czytelnictwa Biblioteki Narodowej. Współredaktor monografii Gamification. Critical Approaches. Badacz kultury cyfrowej


[i] Wikipedia, W Internecie nikt nie wie, że jesteś psem [dostęp: 28.02.2017]. Dostępny w Internecie: https://pl.wikipedia.org/wiki/W_Internecie_nikt_nie_wie,_że_jesteś_psem.

[ii] Zob. „Kultura Popularna”, 3(41)/2014 [dostęp: 28.02.2017]. Dostępny w Internecie: http://nck.pl/media/attachments/317203/Kompetencje%20medialne.pdf.

[iii] Polityka prawdziwych nazwisk budziła kontrowersje, np. wśród tubylczych Amerykanów w USA, jako że ich tradycyjne imiona zostawały przez Facebooka uznawane za nieprawdziwe. Zob. Amanda Holpuch, Native American activist to sue Facebook over site’s ‚real name’ policy, „TheGuardian.com” [dostęp: 28.02.2017]. Dostępny w Internecie: https://www.theguardian.com/technology/2015/feb/19/native-american-activist-facebook-lawsuit-real-name.

[iv] Przemysław Pająk, Przelewy bankowe przez Facebooka. Czy to w ogóle ma sens?, „Spidersweb.pl” [dostęp: 28.02.2017]. Dostępny w Internecie: http://www.spidersweb.pl/2013/06/przelewy-bankowe-przez-facebooka-czy-to-w-ogole-ma-sens.html.

[v] Termin „długi ogon” (ang. long tail) ukuł Chris Anderson. Oznacza zjawisko, w którym przychody mniejszych graczy na rynku przekraczają zyski najbardziej eksponowanej czołówki, o ile potraktuje się je łącznie. Wykorzystanie algorytmów i większa łatwość przechowywania dużych ilości treści w Internecie pozwala na kapitalizowanie „długiego ogona” w sposób wcześniej niemożliwy. Zob. Chris Anderson, The Long Tail, „Wired” [dostęp: 17.03.2017]. Dostępny w Internecie: https://www.wired.com/2004/10/tail/.

[vi] Tim O’Reilly, What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software, „Oreilly.com” [dostęp: 28.02.2017]. Dostępny w Internecie: http://www.oreilly.com/lpt/a/1.

[vii] Tom Cahill, Networks Are Now Fact-Checking Trump’s Lies in Real Time and It’s Ruining His Campaign, „US Uncut” [dostęp: 2/28/17]. Dostępny w Internecie: http://usuncut.com/politics/trump-getting-fact-checked-real-time/.

[viii] Vox, How should the media cover a White House that isn’t afraid to lie? [film] [dostęp: 2/28/17]. Dostępny w Internecie: https://www.youtube.com/watch?v=Hlk3TBJdWwE.

Skomentuj lub udostępnij
Loading Facebook Comments ...

Skomentuj

Res Publica Nowa