GÓRSKI: Obronić suwerenność ludu w świecie cyfrowym

Jeśli wciąż chcemy żyć w świecie, w którym wszyscy jesteśmy suwerenem, potrzebujemy posiadać sprawstwo także nad przestrzeniami w świecie cyfrowym


Tradycyjnie suwerenność wiązała się z terytorium – to, co znajdowało się na danym obszarze, zarówno gazety, jak i archiwa, podlegało jurysdykcji danego państwa. Nowe technologie stworzyły jednak kolejne, przekraczające dotychczasowe granice, przestrzenie, w których my, obywatele i użytkownicy, jesteśmy obecni, w których się poruszamy. Jeśli wciąż chcemy żyć w świecie, w którym wszyscy jesteśmy suwerenem, potrzebujemy posiadać sprawstwo także nad nimi.

Zasady demokracji

Jednak ludzkie sprawstwo wiąże się z pewnymi ograniczeniami, wspólnymi zasadami, których musimy przestrzegać, by każdy z nas mógł być równy i wolny. Już dawno w demokratycznym świecie zrozumieliśmy, że pewna działalność suwerena jest dopuszczalna, a inna nie, oraz że przed niepożądaną aktywnością musimy się zabezpieczać. Wiemy, że oddawanie wielu głosów podczas wyborów przez jedną osobę jest niedopuszczalne, ale nie w porządku jest również płacenie obywatelom za oddanie głosu, choć przecież w tym przypadku zasada „jeden obywatel, jeden głos” nie jest naruszana. Mamy jednak słuszne poczucie, że takie praktyki godzą w suwerenność ludu.SPIS TREŚCI

Co jednak narusza naszą wolność w przestrzeni cyfrowej? Szczególne zagrożenia dotyczą obszaru informacji. Z jednej strony jest to pojawianie się i rozprzestrzenianie nieprawdziwych informacji, a także fake newsów, czyli takich informacji, które nakierowane są na wywołanie określonych emocji. To zagrożenie istniało od początków pojawienia się prasy, ba, nawet realizowało się niezliczoną ilość razy. Jednak dziś łatwość wygenerowania, upublicznienia i rozpropagowania fałszywych informacji jest nieporównywalnie większa. Stworzony materiał nie musi przechodzić przez kolejne szczeble procesu redakcyjnego i kalkulacji ekonomicznej, nie potrzebujemy drukarni ani zorganizowanej dystrybucji. Często brakuje kolejnych szczebli weryfikacji i decyzji.

Nowe przestrzenie wspólne

Z drugiej strony zagrożenie wiąże się z działalnością maszyn – botów i algorytmów. To dwa odrębne przypadki. W pierwszym z nich, niczym jak w przypadku tworzenia fikcyjnych wyborców podczas głosowania, ich twórca chce wpływać na określony efekt. Może się to odbywać przez powielanie określonej informacji, tak by przyniosła zamierzony efekt wyborczy lub przedstawiała opinii publicznej w złym lub dobrym świetle daną osobę, organizację, produkt. Może również odbywać się to poprzez generowanie sztucznego ruchu, by polepszyć statystyki, które, jak w przypadku rynku reklam, mogą przekładać się na określone zyski lub straty firm. W obu opisywanych sytuacjach my – obywatele, użytkownicy oraz przedsiębiorcy – tracimy sprawczość nad przestrzenią, która należy do nas.

Przypadek algorytmów, w szczególności tych tworzonych przez światowych gigantów ze względu na potencjał oddziaływania na rzeczywistość i jej kształtowania – Facebook i Twitter jako nowe agory, Google jako skrojony na dzisiejsze czasy foucaultowski mechanizm wiedza/władza – dotyczy mniej bezpośredniego wpływu. Władza i wiedza, jeśli jest wynikiem kontroli i sterowania, jest ułudą, bowiem informacje, na podstawie których poodejmuje się decyzje, są obarczone przekłamaniem. Jednak poddanie ich jedynie regułom rynkowym, czyli przynoszeniu największego zysku, choć skuteczne na krótką metę, może przynieść polityczne i gospodarcze konsekwencje, w których niestabilność państwa, regionu czy świata przyniesie stratę nam wszystkim. Inną negatywną konsekwencją funkcjonowania algorytmów może być rosnąca polaryzacja rozbijająca wspólnotę-suwerena.

Jak zauważa Timothy Garton Ash, media społecznościowe stały się naszym dobrem wspólnym i tak jak w przypadku innych tego typu dóbr społeczność musi mieć większy wpływ na ich kształt. Świadomość tego problemu rośnie. W najbliższym czasie będziemy obserwować, jak ta sprawa się rozwinie, a w zasadzie jak nią pokierujemy.

Dane – broń obosieczna

Trzecie z zagrożeń związane z obszarem informacji dotyczy naszych danych, w szczególności danych wrażliwych (preferencji politycznych, hierarchii wartości czy założeń filozoficznych). To one mogą być wykorzystywane, by skutecznie na nas wpływać. Choć personalizacja może mieć pozytywne strony – jeśli nie masz prawa jazdy, po co masz być bombardowany reklamami coraz to nowszych modeli samochodów, albo kiedy nie posiadasz dzieci, po co masz oglądać reklamy najwygodniejszych pieluszek z super zapięciem na rzep? – to jednak staje się często narzędziem wykorzystywanym dla partykularnych celów politycznych, nie tylko tych sterowanych z zagranicy.

Tę dwojaką naturę technologii opartych na danych można zobrazować w następujący sposób: te same algorytmy oparte na danych wrażliwych mogą służyć zarówno walce z dyskryminacją, jak i być wykorzystywane w kampanii wyborczej polityka, który buduje swój przekaz na hasłach homofobicznych czy rasistowskich. Na ich podstawie bańki informacyjne mogą zarówno powstawać, jak i być przebijane.

Kontrola każdego użytkownika nad swoimi danymi jest podstawowym elementem jego sprawczości, także jako obywatela. Jednak nie jest to odpowiedź w przypadku wykorzystania danych, jeśli dana osoba wyraziła na to zgodę, co może być analogiczne do dobrowolnego oddania głosu w wyborach w zamian za pieniądze lub przywożenia wyborców, którzy w przeciwnym razie by nie zagłosowali. Jeśli takie działania wyborcze wyjdą na jaw, można karać inicjatora i sprawcę, można, jeśli będzie to proceder na dużą skalę, nawet unieważniać wybory. To wymaga jednak akceptacji ze strony suwerena.

Obywatel i technologia

We wszystkich wyżej opisanych przypadkach zagrożeń związanych z informacjami w przestrzeni cyfrowej zasadnicze pozostają kompetencje każdego z nas do poruszania się po niej, umiejętność oddzielania treści wartościowych od niewartościowych, przydatnych od manipulacji, prawdziwych od fałszywych. Suwerenność nie jest dana raz na zawsze, jest zadaniem – trzeba o nią walczyć, dbać, a kiedy potrzeba, to bronić.

Należy wychować obywateli, którzy są w stanie się sami obronić. I wcale nie chodzi o to, żeby państwo cenzurowało informacje. Bo jeżeli państwo w celach obronnych wychowuje ludność w sposób półautorytarny, to znaczy, że już przygotowuje się na przegraną z państwem autorytarnym – twierdzi Timothy Snyder, broniąc koncepcji suwerenności informacyjnej, która opierałaby się na działaniach samych obywateli, a nie władzy. I dodaje: żeby budować suwerenność informacyjną, trzeba wychowywać obywateli w duchu wolności słowa i dbać o różnorodność źródeł informacji, a nie prowadzić do skoncentrowania kontroli w jednym ośrodku. Dobrze jednak temu pomagać poprzez korzystanie z narzędzi, które ułatwiają poruszanie się w świecie cyfrowym, świecie, w którym ludzie, boty i algorytmy się przenikają.

Piotr Górski – redaktor prowadzący Res Publikę Nową, historyk idei.

Partner publikacji

 

Czytaj całe wydanie
Res Publica Nowa: Suwerenność informacyjnaSPIS TREŚCI

Skomentuj lub udostępnij
Loading Facebook Comments ...

Skomentuj

Res Publica Nowa