ANKIETA: Prawo do rozpoznania bota

Czy Europejczycy powinni być informowani o stykaniu się w sieci z maszynami?


Poprosiliśmy osoby zajmujące się tematem dezinformacji w sieci o podzielenie się uwagami na temat pomysłu wprowadzenia obowiązku informowania obywateli UE o tym, czy w sieci stykają się z człowiekiem, czy z botem*. Prezentujemy uzyskane odpowiedzi:

Krzysztof Liedel

dyrektor Centrum Badań nad Terroryzmem Collegium Civitas oraz kierownik Instytutu Analizy Informacji Collegium Civitas

Unia Europejska powinna podjąć temat ruchu w Internecie generowanego przez boty. Taki mechanizm powinien mieć charakter formalno-prawny, który nakazywałby oznaczanie czy wskazywanie, które treści mają charakter naturalny, a które są generowane w sposób sztuczny. To dałoby się zrobić, takie technologie już się pojawiają.

Trudniejsze mogłoby się okazać wprowadzenie takiego rozwiązania, bowiem wymaga to konsensusu. Dziś wiele środowisk ma interes, by zostało tak, jak jest, by nie rozgraniczać treści wygenerowanych sztucznie od tych stworzonych przez człowieka. Nie mam wątpliwości, że wprowadzenie przepisu nakazującego takie rozróżnienie jest jak najbardziej uzasadnione.

Anna Mierzyńska

analityczka polityki w sieci, w tym manipulacji i dezinformacji

Technicznie nie zawsze jest możliwa szybka i wiarygodna odpowiedź na pytanie, czy w sieci mamy do czynienia z botem, czy z kontem prawdziwego użytkownika. Zwłaszcza, że możliwości jest więcej – istnieją konta łączące aktywność automatyczną z aktywnością ludzką, tzw. cyborgi. Algorytmy nie zawsze są też w stanie rozpoznać, czy mamy do czynienia z prawdziwym, czy z fałszywym kontem. Zapewne więc właśnie ograniczenia techniczne sprawiły, że postulat o informowaniu, z jakim kontem mamy do czynienia, nie został włączony do rekomendacji przedstawionych przez Komisję Europejską.

Kamil Basaj

założyciel i kierownik projektu Info Ops Polska, doradca ministra obrony narodowej

Rozpatrując zagadnienie z perspektywy operacji wpływu, która jest realizowana poprzez wirtualne środowisko informacyjne, rekomendacja stanowiąca o konieczności informowania użytkownika sieci o naturze obiektu, z którym prowadzi komunikację, ma znikome znaczenie.

Działania komunikacyjne, operacje dezinformacji realizowane przez podmioty profesjonalne mają znacznie bardziej rozbudowaną strukturę niż działania polegające na „nasycaniu” środowiska informacyjnego oczekiwaną przez atakującego informacją za pomocą zautomatyzowanych narzędzi.

Niejednokrotnie działania zautomatyzowane służą odwróceniu uwagi, maskowaniu działań właściwych, informacyjnych, psychologicznych.

Rekomendacja stanowiąca o konieczności oznaczania natury obiektu komunikującego może stanowić pewien wkład w działania systemowe służące zwiększaniu świadomości zagrożeń u użytkowników sieci, nie należy jej jednak traktować jako remedium na zagrożenia wynikające z wielowymiarowych operacji informacyjnych realizowanych przez aktora państwowego.

Urzędnik UE zajmujący się dezinformacją

Co do zasady, świat wirtualny mógłby stać się nieco bardziej przyjaznym miejscem, gdyby obywatel mógł mieć stuprocentową pewność, czy ma do czynienia z człowiekiem, czy z botem. Z pewnością ułatwiłoby to również walkę z dezinformacją w sieci.

Boty stanowią około 15 proc. wszystkich kont na Twitterze. Wiemy, jak wpływają na dyskusje we wrażliwych dla Europejczyków tematach, od brexitu po protesty żółtych kamizelek. Testujemy nowe metody ich wykrywania, bez używania zaawansowanych rozwiązań technologicznych. Znamy też dobrze wszystkie znaki ostrzegawcze (nazwy kont, język, duża aktywność itp.), jednak to, co wiemy, nie daje nam stuprocentowej skuteczności w wykryciu botów. Do tego potrzebne są bardziej zaawansowane narzędzia i technologie, których dostępność jest w tej chwili ograniczona.

Dodatkowym wyzwaniem jest czas. Od momentu, w którym zaczynamy podejrzewać obecność botów w danej dyskusji, do chwili, w której możemy taką aktywność nazwać po imieniu i publicznie opisać, mija dużo czasu, który zarządca botów może wykorzystać do ich uśpienia bądź usunięcia. Szybsze identyfikowanie botów umożliwiłoby szybszą reakcję na ich działalność, a co za tym idzie – większą odporność użytkowników Internetu na manipulacje w dyskusjach.

Bardzo istotne jest pytanie, czy możliwa jest stuprocentowa wykrywalność botów – a jeżeli jest to możliwe w tej chwili, czy będzie tak samo skuteczne za kilka miesięcy? Razem z wykrywalnością rośnie także „spryt” twórców botów. Pytanie brzmi więc, na ile realne jest wprowadzenie w życie ww. rekomendacji?

Kolejne pytanie dotyczy sposobu realizacji takiej rekomendacji. Czy rozwiązaniem problemu wykrywalności botów byłoby prawo UE? Kluczowe byłoby zidentyfikowanie odpowiedzialności za wskazywanie i informowanie użytkowników o tym, kto jest botem, a kto człowiekiem. Przykład współpracy dotyczącej identyfikowania dezinformacji i zamykania podejrzanych kont, rozpoczętej między Komisją Europejską a platformami internetowymi (Facebook, Twitter, Google) kilka miesięcy temu, pokazuje, że twarde prawo nie musi być punktem wyjścia.

Adam Lelonek

prezes Zarządu i współzałożyciel Fundacji Centrum Analiz Propagandy i Dezinformacji

Postulat, by obywatele UE musieli być informowani, czy w sieci stykają się z człowiekiem, czy z botem, rodzi więcej wątpliwości, niż wydaje się rozwiązywać problemów. Pojawia się bowiem od razu kilka pytań. Kto miałby zajmować się taką identyfikacją, czy też kto ponosiłby odpowiedzialność za błędy z nią związane?

Trzeba pamiętać, że istnieją również konta półzautomatyzowane, które przez większość czasu są jednak realnymi użytkownikami. Wydaje się więc, że taki przepis mógłby być po prostu nierealny do wykonania. Nawet największe firmy jak Facebook czy Twitter z ich budżetami nie radzą sobie z przeciwdziałaniem fake newsom czy fact-checkingiem. A przecież działania botów mają miejsce także poza mediami społecznościowymi, np. w krajowych mediach internetowych, które nie dysponują takimi zasobami finansowymi jak globalni potentaci, ale również na platformach blogowych. Również są aktywne przy treściach audio i wideo.

Maia Mazurkiewicz

koordynatorka Frontu Europejskiego prowadzącego na Facebooku grupę Wojownicy Klawiatury

Ponad 79 proc. z nas ufa temu, co czyta w Internecie – dodatkowo mamy też problem z odróżnianiem faktów od interpretacji czy opinii. Nie wiemy również, czy czytane przez nas treści są tworzone i następnie rozpowszechniane przez dziennikarzy lub użytkowników Internetu, czy też przez wyspecjalizowane firmy i boty.

Skuteczne promowanie określonych treści w mediach społecznościowych może prowadzić do zmian norm społecznych. Takim przykładem jest stosunek do UE. Badania społeczne i sondaże pokazują, że zdecydowana większość Polek i Polaków popiera członkostwo Polski w UE. Natomiast wyniki monitoringu mediów społecznościowych (tzw. social listening) pokazują, że ponad 80 proc. generowanych przez użytkowników wiadomości na jej temat jest negatywna lub fałszywa. Ten dysonans może prowadzić do fałszywego poczucia, że popieranie UE nie jest jednak normą społeczną.

Dlatego tak ważne jest nie tylko weryfikowanie treści i walka z kłamstwami oraz manipulacjami, ale także jasne określenie, które treści są płatną reklamą, które komentarze są opiniami użytkowników mediów społecznościowych, a które zostały przygotowane przez pracowników firm marketingowych (albo boty) wynajętych do kampanii politycznych.

W ramach grupy Wojownicy Klawiatury walczymy z fałszywymi informacjami na temat Unii Europejskiej. W walce z przekazami generowanymi przez boty albo profesjonalne trolle, która nigdy nie zostanie ostatecznie zakończona, może pomóc obowiązek informowania użytkowników przez platformy social mediowe o tym, że stykają się z treściami udostępnianym lub powielanymi przez boty.

* Pytanie w ankiecie brzmiało: Komisja Europejska opublikowała raport nt. europejskiej suwerenności medialnej. Na jego podstawie powstało 14 rekomendacji. Zabrakło wśród nich postulatu, by obywatele UE musieli być informowani o tym, czy w sieci stykają się z człowiekiem, czy z botem. Jakie byłyby konsekwencje wprowadzenia takiego zapisu dla obszaru, którym się Pani/Pan zajmuje?

 

Partner publikacji

 

Czytaj całe wydanie
Res Publica Nowa: Suwerenność informacyjnaSPIS TREŚCI

Skomentuj lub udostępnij
Loading Facebook Comments ...

Skomentuj

Res Publica Nowa