Ty też trenujesz AI
Wartość rynku generatywnej sztucznej inteligencji niedługo przekroczy wartość biliona dolarów. U jego podstaw leży wolontaryjna praca każdego i każdej z nas.
„To jest (i zawsze będzie) darmowe!‟ głosił słynny napis na stronie rejestracyjnej platformy Facebook. Deklarację zmieniono jednak, bez podawania jednoznacznej przyczyny, w sierpniu 2019 roku na „To szybkie i proste”. Wówczas pojawiły się dwa zasadnicze pytania. Pierwsze, raczej oczywiste, brzmiało: Czy Facebook przestanie być darmowy? Oraz drugie, raczej filozoficzne: Czy Facebook kiedykolwiek był darmowy? Dzisiaj wiemy, że platforma nie przeszła w 2019 na model subskrypcyjny. Drugie pytanie jednak wciąż pozostaje w mocy.
Choć Facebook nie wymaga od nas bezpośredniej zapłaty, to równocześnie generuje ogromne przychody z naszej aktywności. Mechanizm ten w prostych słowach wyjaśnił przed Kongresem Stanów Zjednoczonych w 2018 roku sam Mark Zuckerberg: Facebook zwyczajnie „wyświetla reklamy‟. Tak założyciel portalu streścił równie genialny, co złożony proces monetyzacji aktywności użytkowniczek i użytkowników zarówno Facebooka, jak i innych serwisów społecznościowych. Ogromne ilości danych dotyczących zachowania osób na platformach umożliwiają personalizowanie treści reklamowych i generowanie przychodów. W tym procesie nasze posty (czyli główny powód, dla którego korzystamy z mediów społecznościowych) są raczej produktem ubocznym, treścią, która sama w sobie nie generuje przychodu, jednak reakcja na nią już tak. To ma się jednak zmienić.
Nasza aktywność w internecie staje się bowiem motorem napędowym nowej rewolucji technologicznej. Tę zapoczątkowało udostępnienie do użytku publicznego systemów nazywanych Sztuczną Inteligencją, takich jak ChatGPT czy Midjourney. Duże Modele Językowe (LLM) są karmione naszymi postami, tweetami, storiesami, wiadomościami, zdjęciami, memami, grafikami, utworami, książkami, artykułami, czy esejami. Treści, które (w dużej mierze) pozostawały w domenie publicznej, dostępne do powszechnego użytku, zostają w tym procesie monetyzowane i stają się kapitałem w rękach swoich producentów. Mechanizm ten jest nam już od dawna znany, obecnie jednak mamy do czynienia z jego najnowocześniejszą iteracją. Wydaje się, że jesteśmy świadkami i świadkiniami kolejnej akumulacji kapitału, tym razem jednak ma ona miejsce w świecie cyfrowym.
Wyścig zbrojeń
Rynek tzw. generatywnej sztucznej inteligencji (Generative AI, GenAI), w skład której wchodzą takie serwisy, jak DALL-E i ChatGPT od OpenAI, Bard od Google czy LLaMA od Meta, według niektórych szacunków do 2032 roku ma osiągnąć wartość 1,3 biliona dol. Rewolucja AI, jaka miała miejsce w ubiegłym roku, szybko przeistoczyła się w technologiczny wyścig zbrojeń z udziałem największych przedstawicieli branży. Po oszałamiającym sukcesie ChatGPT, które stało się najszybciej rozwijającą się aplikacją w historii, każdy z technologicznych gigantów chciał do niego dołączyć.
Microsoft zadeklarował długoletnią inwestycję 13 mld dol. w OpenAI, start-up, który de facto rozpoczął w ubiegłym roku całe zamieszanie. Google na początku tego roku zainwestował 300 mln dol. w konkurencyjną spółkę zajmującą się rozwojem AI, o nazwie Anthropic, która niedawno otrzymała również dotację w wysokości 4 mld dol. od firmy Amazon. Równocześnie wspomniana już firma Meta zamierza zainwestować nawet 33 mld dol. w rozwój sztucznej inteligencji na swoich platformach. Sztuczna Inteligencja już wyprzedziła nasze założenia dotyczące tempa rozwoju nowych technologii, jak chociażby prawo Moore’a, twierdzące, że moc obliczeniowa nowopowstałych komputerów podwaja się co dwa lata. Najbardziej zaawansowany współczesny system AI jest obecnie ok. 5 mld razy silniejszy od Sztucznej Inteligencji sprzed dekady.
Zapewne najprostszym przykładem udowadniającym tempo tego procesu jest przeskok między dwoma ostatnimi wersjami flagowych produktów OpenAI. Dokładnie rok po wydaniu ChatGPT 3.5, jego następca, wersja 4.0 może pochwalić się zdumiewającymi umiejętnościami pracy z tekstem, w tym streszczania, redagowania i podsumowywania treści. Jest również znacznie bardziej skuteczny w kreatywnych zadaniach takich, jak pisanie poezji. Potrafi również interpretować obrazy, a przez to tłumaczyć memy, czy tworzyć przepisy kulinarne na podstawie zdjęcia zawartości lodówki. Ten sam silnik, który napędza ChatGPT, pozwala na funkcjonowanie DALL-E, słynnego generatora obrazów od OpenAI. Jego najnowsza, trzecia wersja, wydana we wrześniu 2023, pozwala na tworzenie jeszcze bardziej oszałamiających ilustracji na podstawie prostych poleceń.
Co jednak istotne, system GPT 4.0 został wytrenowany na ok. 13 bilionach tokenów, tzn. różnego rodzaju treści zarówno w formie tekstu, jak i kodu. Dla porównania, wersja 3.0 przyswoiła ich ok. 300 mld. Jednak czym faktycznie są te tajemnicze „treści‟, którymi żywią się najbardziej kontrowersyjne systemy technologiczne naszych czasów?
Czym karmić AI?
Rozwinięcie akronimu GPT to Generative Pre-Trained Transformer. Fraza Pre-Trained odnosi się do pierwszej fazy rozwoju systemu, która opiera się na treningu na dużych ilościach danych. Na ich podstawie podobne systemy uczą się, jak wskazywać kolejne tokeny w sekwencjach, czyli np. kolejne słowa w zdaniach. To na tym etapie uformowane zostały podstawy funkcjonowania GPT, jego zrozumienie zasad gramatyki, ale i podstaw logiki. Dopiero po tej wstępnej fazie system jest profilowany do konkretnych zadań, jak generowanie tekstu na podstawie promptów, tłumaczenie itd. Jednak te „duże ilości danych‟ nie wzięły się znikąd. We wstępnej fazie rozwoju najsilniejsza sztuczna inteligencja naszych czasów karmiona była treściami dostępnymi w internecie, takimi jak dyskusje na Reddicie, strony na Wikipedii, blogi, książki, artykuły, poematy, instrukcje obsługi, przepisy… najczęściej bez wiedzy autorek i autorów, nie mówiąc już o rekompensacie.
Podobne działanie wzbudziło w pierwszej kolejności sprzeciw artystów i artystek wizualnych, których prace zostały wykorzystane do szkolenia generatorów obrazu. Gdy na rynek wchodziła pierwsza wersja programu DALL-E czy Midjourney, a system szkolenia AI nie był jeszcze wiedzą powszechną, przypadkowe osoby zaczęły wykorzystywać nazwiska artystek i artystów w swoich promptach. Twórczynie i twórcy, których prace są objęte prawami autorskimi, zaczęli masowo zaskarżać działania OpenAI i pokrewnych firm. „Jesteśmy jak Dawid przeciwko Goliatowi‟, mówiła Kelly McKernan, jedna z pierwszych osób, które wkroczyły na drogę sądową przeciwko bezprawnemu wykorzystywaniu jej obrazów do szkolenia sztucznej inteligencji. „Koniec końców, ktoś czerpie zyski z mojej pracy. Wczoraj upłynął mój termin zapłaty czynszu za mieszkanie, a dalej brakuje mi 200 dolarów. Moja sytuacja zaczyna być desperacka i to po prostu nie jest uczciwe”.
Do podobnych wniosków doszły pisarki i pisarze. Wśród nich znaleźli się scenarzyści i scenarzystki z Hollywood, którzy na początku maja 2023 roku rozpoczęli jeden z najdłuższych strajków w historii amerykańskiej branży filmowej. Jedną z obaw było wykorzystywanie sztucznej inteligencji w produkcji scenariuszy. Obok nich swój sprzeciw podnieśli również autorki i autorzy powieści, a w śród nich m.in. George R.R. Martin, John Grisham czy Jodi Picoult, którzy oskarżyli OpenAI o „naruszenie praw autorskich na masową skalę”. Podobne zastrzeżenia mieli również wydawcy i wydawczynie największych portali informacyjnych, takich jak New Yorker, BBC, Reuters czy New York Times, które zainstalowały na swoich stronach wtyczki uniemożliwiające skanowanie i wykorzystywane publikowanych przez nich treści przez OpenAI.
Cyfrowe dobra wspólne
Obrazy, grafiki, piosenki, scenariusze, powieści, artykuły, reportaże… co jednak z bardziej przyziemnymi treściami? Co z moim postem na Facebooku sprzed sześciu lat, kiedy szukałem mieszkania? Co z moim zdjęciem na Instagramie sprzed czterech, kiedy pojechałem na wycieczkę w Beskidy? Co z tymi wszystkimi informacjami z naszego życia, które upubliczniamy w przestrzeni internetu? One również staną się paliwem dla koncernów chcących uszczknąć choćby kawałek tego niewyobrażalnie wielkiego tortu zwanego „rynkiem AI za dekadę”. Tym samym nasze działanie przynosi wymierne korzyści dla producentów Sztucznej Inteligencji.
Przestrzeń cyfrowej wspólnoty, którą kultywujemy za pośrednictwem naszej aktywności w internecie, przywodzi na myśl tzw. dobra wspólne (commons), kultywowane jeszcze w XVII wieku. Lasy, łąki, nawet kamieniołomy stanowiły dobra, z których mogli czerpać członkowie i członkinie lokalnej społeczności. Były one źródłem nie tylko pożywienia, ale niekiedy również schronienia, jak i umożliwiały utrzymanie pewnego stopnia niezależności w ramach systemu feudalnego. „Dyskredytowane w XVI-wiecznej literaturze jako źródło lenistwa i nieporządku, dobra wspólne były niezbędne do przetrwania dla wielu drobnych rolników”, pisze Silvia Federici w tekście Caliban and the Witch. „Przetrwali oni tylko dzięki dostępowi do łąk, na których można było hodować krowy, lub lasów, w których można było zbierać drewno i dzikie jagody i zioła, kamieniołomom, stawom rybnym i otwartym przestrzeniom, gdzie można się było spotykać. Oprócz zachęcania do zbiorowego podejmowania decyzji i współdziałania w pracy, dobra wspólne były materialnym fundamentem, na którym mogła rozwijać się chłopska solidarność i społeczność.”
Analogicznie, internet stanowi w dużej mierze wspólnie kultywowaną przestrzeń i przynosi korzyści jednostkom, które decydują się partycypować w jej tworzeniu. Zapewnia wsparcie w naszym życiu codziennym, w pracy i kontaktach międzyludzkich. Tak samo, jak niegdyś commons, przestrzeń internetu jest również podstawą istnienia wielu społeczności. Platformy z forami dyskusyjnymi pokroju Reddita, cyfrowe markety, takie jak Etsy, ale i media społecznościowe pokroju dawnego Twittera, funkcjonującego na zasadzie „digitalowego placu miejskiego”.
Pod wieloma względami jesteśmy obecnie w momencie przejściowym, w którym zmieniają się fundamentalne zasady myślenia o przestrzeni internetu. Już od dawna korzystamy z niej na zasadach prywatnych konglomeratów, do pewnego stopnia świadomi i świadome, że nasza uwaga stanowi dla nich niekończące się źródło pieniędzy. Jednak teraz proces kapitalizacji naszych działań na ich platformach wszedł w kolejny etap. Analogicznie dla naturalnych dóbr wspólnych, cyfrowe dobra powszechnego dostępu stają się obecnie źródłem kapitału, który trafia do bardzo ograniczonego grona osób. Jak zauważa Katharina Pistor w tekście The Code of Capital, „[…] Prawa własności prywatnej są nastawione na ekspansję. Ulegają one wpływom prywatnego przemysłu, by zagarnąć dobra wspólne i przejąć korzyści pieniężne”.
Kto wyszkoli Sztuczną Inteligencję?
Może wydawać się, że Sztuczna Inteligencja uczy się sama. Jednak w praktyce nawet Duże Modele Językowe potrzebują nauczycieli i nauczycielek. Ich praca natomiast może okazać się jeszcze bardziej żmudna i niewdzięczna, niż ich odpowiedników z sektora „ludzkiej edukacji‟. Okazuje się bowiem, że za sukcesem gigantów rynku AI stoją miliony pracownic i pracowników z krajów takich, jak Kenia, Malezja, czy Nepal, pracujących za minimalne wynagrodzenie. Ich zadaniem jest zaznaczanie na ekranie i kategoryzowanie ubrań, hydrantów, czy osób, dodawanie własnych zdjęć z różnym wyrazem twarzy, albo wskazywanie, który fragment nagrania został wypowiedziany przez człowieka, a który przez maszynę. Ta czasochłonna i repetytywna praca za niewielkie wynagrodzenie pod wieloma względami stanowi podstawę rynku, który zaraz ma przebić barierę biliona dolarów.
Jednak każdy z nas może rościć sobie prawo do zysków, jakie Modele Językowe przyniosą swoim producentom. Nasze codzienne działania w przestrzeni internetu, na które poświęcamy często długie godziny, generują bowiem wymierne korzyści finansowe dla określonej grupy osób. Obecnie powtarza się nam, że rozwój Sztucznej Inteligencji stanowi dobro wspólne, które w przyszłości przyczyni się do polepszenia naszego standardu życia. Jej wprowadzenie nazywa się rewolucją, która przyćmiewa nawet odkrycie elektryczności, z resztą co tam elektryczność – blednie przy niej odkrycie ognia! Natomiast ich twórców (sic) nazywa się pionierami na skalę Newtona czy Prometeusza.
Tutaj pojawia się natomiast kolejna analogia do dóbr wspólnych. Ich prywatyzacja pod wieloma względami została umożliwiona przez niewiedzę i brak kompetencji ich pierwotnych, żeby nie powiedzieć prawowitych, właścicieli i właścicielek. System prawa własności był bowiem wprowadzany przez ograniczoną grupę właścicieli ziemskich. Choć w przypadku Dużych Modeli Językowych nawet ich twórcy nie znają do końca szczegółów ich działania, to oni pozostają rzecznikami Sztucznej Inteligencji. Liderzy branży uczestniczą w formułowaniu nowych regulacji, bo tylko oni są w stanie wyjaśnić jakie ryzyko mogą przynieść ich systemy. Jednak w konsekwencji, to tylko oni mają prawo wskazać różnicę między „udostępnianiem wynalazku do użytku publicznego” a „globalnym projektem szkolenia prywatnego systemu AI” albo między „trenowaniem AI” a „czerpaniem zysków z nieświadomej pracy”. Tobie natomiast, tak jak i mi, pozostaje podporządkować się ich woli. Pamiętajmy jednak, że to nie jest i nigdy nie było darmowe!
—
Wiktor Knowski jest niezależnym dziennikarzem. Publikował m.in. w Krytyce Politycznej, Muno, The Lambert i F5. Jest współzałożycielem Peace Ambassadors Polska, organizacji pozarządowej zajmującej się m.in. szkoleniami z zakresu bezkonfliktowej retoryki. Absolwent Artes Liberales na Uniwersytecie Warszawskim.
Photo by Nguyen Dang Hoang Nhu on Unsplash