RAPORT Z POLA BITWY: Wydawcy i reklamodawcy vs boty

Skala działań botów jest tak duża, a konsekwencje widoczne i dotkliwe, że w branżach rośnie świadomość potrzeby uregulowań prawnych


Z dezinformacją możemy się zetknąć w każdej dziedzinie życia, a konsekwencje tego mają wyraźny wymiar finansowy. W przypadku politycznych fake newsów, o których mówi się najwięcej, konsekwencją może być destabilizacja państwa, przekładająca się ostatecznie na gospodarkę. Gdy dezinformacja dotyczy rynku wydawców i reklamodawców, każda z firm może obliczyć swoje straty lub niewłaściwie wydane pieniądze. Okazuje się, że największymi oszustami i wyłudzaczami są boty.

Nieefektywność i straty

O ruchu botowym dowiadujemy się po kampaniach. Nie jesteśmy w stanie podejmować żadnych decyzji w trakcie ich trwania, co ogranicza możliwości optymalizacyjne – zauważa Paweł Lewandowski z domu mediowego MediaCom.

Według analiz reklamodawców fejkowy ruch waha się od poziomu kilkunastu procent do poziomu 50-60 proc. w przypadku kampanii zasięgowych. Na to składają się wielokrotne otwarcia lub fraudy bazujące na liczbie kliknięć, zabiegi w atrybucji reklamy, ad stalking. Boty usłużnie wykonują te działania.

Szacuje się, że za ponad 50 proc. rocznego ruchu w Internecie odpowiadają boty, w tym 45 najbardziej aktywnych spośród tych znanych generuje 85 proc. Są wśród nich m.in. Googlebot czy Yandex bot, które ułatwiają nam życie. Jednak boty uznawane za złe generują 1/3 ruchu, z czego 1/4 to boty podszywające się pod ludzi. To szczególnie istotne w przypadku kampanii reklamowych.

W przypadku fejkowych kont trzeba pamiętać, że skala zjawiska zależy od obszarów tematycznych. Przykładowo, podczas wyborów parlamentarnych w 2015 roku 1/3 aktywności politycznej na Twitterze była generowana przez boty.

Światowa Federacja Reklamy szacuje, że wysokość wyłudzeń z budżetów reklamowych za pomocą botów (ad fraud) do 2025 roku osiągnie 50 mld co roku, co będzie drugim po handlu narkotykami źródłem przychodów ze zorganizowanej przestępczości. Pierwsze zatrzymania w związku z taką działalnością miały miejsce w listopadzie 2018 roku dzięki współpracy Google i FBI.

Skala działań botów jest tak duża, a konsekwencje widoczne i dotkliwe, że nie dziwią dyskusje o konieczności jego prawnego uregulowania. Poruszane są w gremiach politycznych i biznesowych, a także w branży wydawców i reklamodawców, która zyskuje coraz większą świadomość tego problemu.

Globalni liderzy rynku aktywnie włączają się już w proces naprawy. Marc Pritchard z P&G w ogłoszonym 12 kwietnia 2019 roku „The New Media Supply Chain” odnosił się do kwestii zlikwidowania fałszywego ruchu kreowanego przez boty powodujące nieefektywne wydawanie pieniędzy. Największy reklamodawca na świecie wprowadza zasadę jawności i kontroli, wskazuje też na to, że odpowiedzialność za działania armii botów powinny ponosić platformy, które pozwalają na taką automatyczną aktywność. Podobne regulacje wewnętrzne wprowadza drugi gigant rynku FMCG, Unilever. Keith Weed, globalny dyrektor do spraw marketingu, podczas konferencji Światowej Federacji Reklamodawców zapowiedział większy rygor w reklamowaniu się online. Kryteria kontroli zaufanych wydawców Unilevera będą obejmowały nie tylko „3W”: widoczność, weryfikację i (realną) wartość reklamy. Aby zasłużyć na miano zaufanego wydawcy Unilevera, spółki mediowe będą musiały przejść audyty dotyczące oszustw reklamowych, bezpieczeństwa marki online, doświadczenia reklamowego, jakości ruchu, formatowania reklam i dostępu do danych – mówi Zofia Bugajna-Kasdepke, członkini zarządu MSLGROUP CEE.

O potrzebach i wyzwaniach branży wydawców i reklamodawców w związku z niekorzystną rolą botów rozmawialiśmy z jej przedstawicielami również podczas seminarium, które odbyło się w formacie Chatham House.

Zagrożenie dla reputacji i wiarygodności

Z perspektywy osób bazujących na reputacji i wiarygodności marek, zjawiska, których ogniskami i nosicielami są boty, można już obserwować i będą się one pogłębiać.

Wiarygodność mediów, waluta, jaką była reputacja brandów mediowych, zdewaluowała się. Dotychczas to, co ukazywało się w gazetach czy telewizji, uchodziło za informacje dobrze sprawdzone, ale obecnie mamy do czynienia z kryzysem zaufania społecznego wobec nich. Dochodząca do tego dezinformacja w Internecie sprawia, że branża wydawnicza i reklamowa nie jest w stanie efektywnie odpowiedzieć na istniejące zagrożenia.

W marcu 2019 roku TVN zgłosił do prokuratury, że wizerunki ich największych gwiazd zostały wykorzystane w kampaniach reklamowych przeprowadzanych przez boty. To uderza nie tylko w ewentualnych konkurentów reklamowanego produktu, ale także psuje reputację wykorzystanych w ten sposób osób, a tym samym również innych marek, których są twarzą.

Wciąż brakuje narzędzi, które mogłyby być skutecznym zabezpieczeniem przed zmasowanym atakiem botów na daną markę, które mogą pojawiać się coraz częściej. Takie narzędzia posiadają obecnie jedynie określone instytucje państwa, np. CBA, ale nie są one nastawione na zabezpieczenie rynku reklam.

Również upowszechnienie deep fake’ów, co jest to tylko kwestią czasu, zmieni dynamikę dezinformacji i kryzysów wizerunkowych nią wywołanych. Duże znaczenie będzie miało przygotowanie społeczeństwa, a raczej brak takiego przygotowania, na funkcjonowanie w świecie z nieprawdziwymi, ale realistycznymi nagraniami wideo.

Pokusa zysku

Ruch botowy, z którym borykają się obecnie wydawcy, po części został na nich sprowadzony przez nich samych. Pęd korporacji, by w każdym kolejnym roku zrealizować wynik finansowy, popychał ich do korzystania z nieuczciwych praktyk. W tej strategii brakowało jednak myślenia długofalowego. Liczyło się bowiem spełnienie oczekiwań szefostwa. Generowanie sztucznego ruchu, przy braku możliwości jego weryfikacji, było im więc na rękę. Osiągano go tanim kosztem, a następnie dość drogo sprzedawano. Praca nad zmianą tej logiki wymagać będzie czasu i pieniędzy. Tym bardziej, że opiera się na mechanizmie samooszukiwania.

Sytuacji nie poprawili audytorzy mediowi, którzy, dość bezrefleksyjnie, tworzą tzw. pole mediowe. W przypadku przetargu dla dużego marketera agencja przedstawiająca ofertę zgodną z rzeczywistymi kosztami nie jest konkurencyjna z agencją korzystającą ze sztucznego ruchu. Do tego dochodzi rozdrobnienie rynku mediowego i reklamowego wynikające z łatwości wejścia na rynek i prowadzenia kampanii dla bardzo dużego klienta. Przy braku odpowiedniej weryfikacji łatwo i tanio można wywiązać się ze stawek oferowanych klientowi poprzez sztuczny ruch, choć nie idą za tym rzeczywiste efekty.

By uzdrowić obecną sytuacją poprzez jej urealnienie, każda strona rynku powinna popracować nad podwyższeniem standardów. To oznaczałoby jednak wyższe ceny, a w łańcuchu zależności w ramach firm spowodowałoby, że każdy musiałby tłumaczyć się swojemu przełożonemu. Trudne do wytłumaczenia mogłoby się okazać to, że zapłaciło się np. 30 proc. więcej, ale był to ruch prawdziwy, a nie botowy.

Możliwość zmiany komplikuje również struktura własnościowa na rynku. Jeśli decydują sami udziałowcy, którzy nastawieni są na zysk na koniec roku, to nie mają oni specjalnych oczekiwań etycznych wobec funkcjonowania firmy, której są udziałowcami.

Motory zmian

Jednak w ostatnim czasie wydawcy wykonali pewną pracę w celu podniesienia jakości dzięki możliwościom weryfikacyjnym tego, co się kupuje. Pojawiła się presja ze strony rynku agencji, by nie płacić za fraudy. To w ich interesie jest, żeby tym zarządzać. Oprócz tego są podmioty, które trzymają ceny wysoko, ale wciąż dominuje podejście „dużo i tanio”. Również ważną rolę pełnią globalni gracze, którzy stają się wzorem do naśladowania. To przypadek firm, które zablokowały YouTube ze względu na to, że ich reklamy były wyświetlane przy treściach uznanych za niewłaściwe.

Zaczynamy także obserwować stymulację branży w stronę większej transparentności i niechęci do płacenia za sztuczny ruch. Tu pomocny mógłby być standard pomiaru, który doprowadziłby do tego, że nie rozliczamy się za fejkowe odsłony.

Pewną nadzieję można dostrzegać również w powołaniu instytucji czuwającej nad poziomem cen na rynku krajowym. Jakiś czas temu tego typu rewolucję przeprowadzono w telewizji, wprowadzając jawne cenniki. Pojawienie się zewnętrznego audytora reklam w Internecie, który przeciwdziałałby dumpingowi, spowodowałoby konieczność konkurowania nie ceną, ale jakością, lepszą optymalizacją, strategią lub prowizją. To doprowadziłoby do wycenienia się rynku na nowo.

Źródłem zmian dotyczących dezinformacji pozostaje jednak reaktywność. Rynek dostosowuje się do działań negatywnych poprzez obronę przed nimi. To powoduje, że brakuje pozytywnych bodźców do tworzenia dobrych treści. Ma ona zresztą coraz mniejsze znaczenie. Już teraz do jej tworzenia wykorzystuje się boty. Tymczasem trzeba postawić na jakość.

Potrzeba regulacji

Jednym z motorów zmian mogą być również regulacje prawne. Stworzenie ich musi być jednak bardzo umiejętne i być na poziomie europejskim. Na Węgrzech rząd wprowadził regulacje w oparciu o stałą ustawową prowizję agencyjną, ale ze względu na biznes globalny marketer, który nie chce płacić tej stawki, może stworzyć w Polsce hub obsługujący rynek węgierski.

Raport dla Komisji Europejskiej dotyczący europejskiej suwerenności medialnej mówi również o perspektywie wydawców. Proponuje się w nim m.in. budowanie platform umożliwiających wydawcom pozyskanie narzędzi do konkurowania na rynku reklamy, zdominowanym przez największych graczy  Google’a i Facebook’a, do których trafia 50 proc. budżetów reklamowych. Jednak brakuje propozycji dla rynku reklamy.

Technologie w służbie prawu

Technologia, która potrafi określić, kto jest botem, na podstawie czego maszyna podejmie decyzję o tym, czy wyświetlić reklamę, czy nie, dla agencji reklamowych byłaby bardzo korzystna. W tym przypadku najbardziej „stratni” byliby wydawcy, ale rozwiązałoby to część problemu.

Wyzwaniem jest też to, że coraz więcej powierzchni reklamowej jest sprzedawane i obsługiwane poprzez różne systemy wymiany reklam. Oznacza to, że nie jest ona kupowana bezpośrednio od wydawcy, lecz po drodze jest technologia. Narzędzia do sprzedaży i zakupy powierzchni reklamowej mają teoretycznie wbudowane narzędzia antyfraudowe, ale nikt nie jest w stanie stwierdzić, na ile skutecznie one działają. Ponadto nawet po wykryciu takiego frauda pozostaje kwestia egzekucji. W jaki sposób zapobiec temu, by pieniądze nie trafiały do właściciela takiego bota? Jest to tym trudniejsze, im więcej pośredników, platform i technologii znajduje się po drodze, które nie są zestandaryzowane.

Innym wyzwaniem jest automatyzacja procesów. Automatyczne transakcje handlowe to rynek szacowany na 5 mld dol. w 2020 roku. W każdej sekundzie, 24 godziny na dobę, mamy do czynienia z decyzjami. Moc obliczeniowa i zaplecze informatyczne może doprowadzić do bankructwa tysiące, jeśli nie miliony, osób. To samo dziać się może na rynku reklamy. Jeśli kiedyś pierwszy milion trzeba było ukraść, to dziś mogą to zrobić dla nas boty. Tam, gdzie liczy się prędkość podejmowania decyzji lub skala działania, te maszyny są bezkonkurencyjne. Równie dobrze sprawdzają się przy oczernianiu konkurencji.

Zmiany rynku

Jednocześnie obserwujemy, że na wyraźnym odróżnieniu aktywności botów i ludzi można budować pozycję marki i zaufanie do niej. Taką politykę opartą na etycznej odpowiedzialności prowadzą globalne gracze.

Maciej Surowiec, EU Government Affairs Manager z Microsoft, wyjaśnia: W obszarze konwersacyjnej sztucznej inteligencji (SI) Microsoft bazuje na szeregu zdefiniowanych zasad. Nasze 10 pryncypiów obejmuje szeroki zakres zagadnień – od wymagań transparentności w stosowaniu botów do zapewnienia ludzkiej interwencji w pewnych procesach decyzyjnych, kiedy decyzje podejmowane autonomicznie przez SI mogą nie być właściwe. I dodaje: Microsoft uważa, że zastosowanie SI w pewnych kontekstach musi być regulowane.

Stosowanie transparentności oraz odpowiedzialności społecznej opłaca się więc firmom.

Zmiany społeczne i krytyczne myślenie

Rynek wydawców i reklamodawców nie może abstrahować od kontekstu społecznego, w którym się porusza. Dorastają kolejne pokolenia, dla których świat Internetu i jego obecne zasady są naturalne. To do funkcjonowania w świecie cyfrowym przygotowują się, również poprzez naukę korzystania z narzędzi i instrumentów pozwalających osiągnąć cele.

Wyzwanie polega również na tym, że boty i algorytmy potrafią upodabniać się coraz bardziej do ludzi dzięki rozwojowi sztucznej inteligencji . Pozostawieni bez technologii nas wspierającej, uzbrojeni tylko w nasze naturalne narzędzia będziemy mieć coraz większy kłopot w odnalezieniu się w świecie cyfrowym.

W walce z dezinformacją kluczowe pozostaje krytyczne myślenie, łatwiej jednak o nie, gdy wiemy, kiedy mamy do czynienia z botem, a kiedy z człowiekiem.

Opracował Piotr Górski

Partner publikacji

 

Czytaj całe wydanie
Res Publica Nowa: Suwerenność informacyjnaSPIS TREŚCI

Skomentuj lub udostępnij
Loading Facebook Comments ...

Skomentuj

Res Publica Nowa