Faszyzm 2.0 – Zmieniające się oblicze cenzury w mediach społecznościowych

Władza, która kryje się w zdolności do maszynowego przetwarzania postów każdego użytkownika, jest o wiele głębsza i bardziej doniosła, niż wielu może sobie uświadamiać. I chociaż nie może bezpośrednio dyktować, co użytkownicy piszą w swoich wiadomościach, ma zdolność do fundamentalnego kształtowania, które wiadomości zyskują popularność.

*

Ponadto każdy, kto korzysta z Facebooka, jest świadomy, zwłaszcza jeśli chodzi o tematy politycznie drażliwe, że system będzie warunkował zasięg danej osoby. Czasami w ekstremalnym wręcz stopniu. Albo taki użytkownik zostanie po prostu zbanowany na jakiś czas albo całkowicie wyrzucony z sieci.

−∗−

Tłumaczenie: AlterCabrio – ekspedyt.org

−∗−

 

Faszyzm 2.0 – Zmieniające się oblicze cenzury w mediach społecznościowych

Moderowanie treści za pomocą sztucznej inteligencji subtelnie kształtuje opinię publiczną i zaangażowanie polityczne

Facebook zarabia tylko około 34 funtów rocznie od przeciętnego klienta w Wielkiej Brytanii – nieco poniżej 3 funtów miesięcznie (i to przed podliczeniem kosztów), więc ewidentnie nie ma przestrzeni ani motywacji, aby zapewnić obsługę i opiekę klienta z udziałem ludzi. Użytkownik nie jest klientem. Jest raczej produktem, którego dane są sprzedawane reklamodawcom.

W ten sposób użytkownicy nie mają bezpośredniej relacji klienta z platformą. Sieć nie jest bezpośrednio motywowana do „troszczenia się” o użytkownika przed reklamodawcą. I bez względu na to, w którym miejscu się znajdujesz na tym spektrum między „absolutyzmem wolności słowa” a „podmiotami prywatnymi mającymi prawo cenzurować każdego użytkownika”, przy tak niskich marżach nieuniknione jest, że przetwarzanie maszynowe będzie musiało zostać użyte do moderowania postów i radzenia sobie z interfejsem klienta.

Ale faktem też jest, że możliwości przetwarzania i zarządzania klientami, które rozwijają się w Social Networks, są wykorzystywane na wiele sposobów wykraczających poza moderację. I prawdą jest również, że to zautomatyzowane przetwarzanie odbywa się na dużą skalę i jest teraz stosowane do każdego posta, jaki zamieszcza każdy użytkownik. 68% wyborców w USA jest na Facebooku. W Wielkiej Brytanii jest to 66%, a we Francji 73,2%. Liczby te są podobne dla każdego demokratycznego kraju na Zachodzie. Dlatego niezwykle ważne jest, aby stosowane zasady były politycznie neutralne.

Władza, która kryje się w zdolności do maszynowego przetwarzania postów każdego użytkownika, jest o wiele głębsza i bardziej doniosła, niż wielu może sobie uświadamiać. I chociaż nie może bezpośrednio dyktować, co użytkownicy piszą w swoich wiadomościach, ma zdolność do fundamentalnego kształtowania, które wiadomości zyskują popularność.

Serwisy społecznościowe stały się de facto placami miejskimi i większość osób zgodziłaby się, że ich korporacyjni właściciele powinni unikać wywierania wpływu na politykę.

Ponadto każdy, kto korzysta z Facebooka, jest świadomy, zwłaszcza jeśli chodzi o tematy politycznie drażliwe, że system będzie warunkował zasięg danej osoby. Czasami w ekstremalnym wręcz stopniu. Albo taki użytkownik zostanie po prostu zbanowany na jakiś czas albo całkowicie wyrzucony z sieci.

Możemy więc zadać pytanie, skoro korporacje posiadające media społecznościowe mają tak dużą władzę cenzorską, skąd wiemy, że nie angażują się w nieetyczną ingerencję polityczną? Czy można zaufać ich odpowiedzialności?

Wrócę do tego pytania, ale oczywiste jest, że zaufanie do tych korporacji jest głęboko nieuzasadnione.

Pandemia uświadomiła wielu osobom poziom kontroli, jaki narzucają osoby odpowiedzialne za nasze sieci społecznościowe. Tworzą zasady, aby zwiększyć zaangażowanie w posty, które sami preferują, sprawiając, że liczba obserwujących pewne osoby jest bardziej wartościowa. Z drugiej strony użytkownicy, którzy idą pod prąd (lub wbrew narracji establishmentu), widzą, że ich zaangażowanie jest subtelnie zmniejszane lub nawet spada, albo mogą zostać całkowicie wykluczeni z serwisu. A dowody wskazują, że wbrew zasadom demokracji, ktoś bardzo mocno przeważył szale na Facebooku, Twitterze i YouTube.

Kiedy Elon Musk kupił Twittera, zaprosił niezależnych dziennikarzy Matta Taibbiego, Bari Weissa i Michaela Schellenburgera do biur Twittera, aby zbadali wewnętrzną komunikację firmy i sprawdzili, w jakim stopniu poprzedni właściciele cenzurowali tweety użytkowników.

Pliki Twittera [Twitter Files] są tego wynikiem i jasno pokazują, że doszło do ingerencji na dużą skalę, a w wielu przypadkach również z powodów politycznych. Zespół Twitter Files ustalił, że agencje rządowe są mocno osadzone w firmie, monitorując i cenzurując obywateli USA, a inne kraje i agencje rządowe regularnie (i zdecydowanie) domagały się działań cenzurujących. Ale co więcej, ujawnili również, że podobne poziomy ingerencji miały miejsce w innych sieciach społecznościowych, takich jak Facebook.

Ale odkąd Twitter Files zebrało dowody ingerencji, pojawiło się nowe i potencjalnie jeszcze większe zagrożenie ingerencją. Sztuczna inteligencja.

Był czas, gdy wydawało się, że algorytmy były jedynym tematem rozmów, jaki mogli omawiać marketingowcy cyfrowi. A ponieważ nie można sobie pozwolić na ludzką interwencję na poziomie poszczególnych postów, to właśnie algorytmy były używane.

Na początku były dość proste, jak równania, które ćwiczyliśmy na lekcjach matematyki w szkole, więc były stosunkowo łatwe do rozwiązania. Rozwój Google był napędzany przez prosty, ale genialny pomysł: liczenie zewnętrznych linków do strony internetowej jako wskaźnika trafności.

Ale algorytmy ustąpiły miejsca bardziej złożonym modelom uczenia maszynowego, które nadal w swej istocie opierają się na algorytmach, ale teraz są generowane automatycznie i są tak ogromne, że każda ludzka próba ich rozwikłania jest niemożliwa. Dlatego ograniczamy nasze myślenie o nich do tego, co mogą osiągnąć, jakie istotne rzeczy mogą rozróżnić, a nie do tego, jak dokładnie działa kod.

A teraz weszliśmy w trzecią generację technologii. Uczenie maszynowe przekształciło się w rozwój Dużych Modeli Językowych (LLM) lub, bardziej popularnie, AI. A wraz z tą najnowszą ewolucją, korporacjoniści odkryli ogromne i przerażające nowe możliwości władzy i kontroli.

Tworzenie LLM-ów wymaga szkolenia. Szkolenie wyposaża je w określone umiejętności i uprzedzenia. Celem szkolenia jest wypełnienie luk, tak aby nie było oczywistych dziur w zdolności LLM-ów do radzenia sobie z podstawowymi elementami ludzkiej konceptualizacji i mowy. I to jest wyróżniająca cecha LLM-ów. Możemy z nimi konwersować i rozmowa płynie, a gramatyka i treść wydają się normalne, płynne i kompletne. W idealnym przypadku LLM zachowuje się jak wyrafinowany angielski kamerdyner — uprzejmy, informatywny i poprawny, ale nie niegrzeczny. Ale szkolenie nadaje również specjalizacje LLM-om.

W kontekście mediów społecznościowych – a to właśnie tutaj zaczyna ujawniać się przerażający poziom władzy – LLM-y pełnią funkcję dyżurnego nadzorcy, egzekwując „moderację treści”.

Llama Guard, będący własnością Meta, jest doskonałym przykładem, wyszkolonym nie tylko do moderowania, ale także do tworzenia raportów o użytkownikach. A ta funkcja raportów ucieleśnia nie tylko możliwość tworzenia sprawozdań, ale także, poprzez zawarte dane, wynajdywanie okazji do wywierania wpływu i prezentowania sugestii na temat użytkownika oraz dla użytkownika. A skoro mówimy o sugestiach, LLM jest zdolny nie tylko do tych z gatunku oczywistych, które użytkownik zaakceptuje i chętnie przyjmie, ale także do tych z rodzaju bardziej podstępnych, nieświadomych, które mogą mieć charakter manipulacyjny i być zaprojektowane do kontrolowania.

Nie ma jeszcze dowodów (których mam świadomość), że LLM-y w szczególności używane są właśnie w ten sposób. Jeszcze nie ma. Ale możliwość ta istnieje z całą pewnością i jeśli przeszłe zachowania wskazują na przyszłe zmiany, prawdopodobnie będą tak używane.

Wystarczy obejrzeć odcinek z 2006r. z programu telewizyjnego Derrena Browna „Derren Brown: The Heist”, w którym przekonuje on grupę nieznajomych, że muszą dokonać napadu na bank, aby unaocznić, jak głębokie i potężne może być użycie sugestii. Dla tych, którzy nie znają Derrena Browna, jest on hipnotyzerem scenicznym i mentalistą, który ma tendencję do podkreślania siły sugestii bardziej niż hipnozy (większość jego programów w ogóle nie zawiera hipnozy). Tylko dzięki sile sugestii sprawia, że ​​ludzie robią najbardziej niezwykłe rzeczy.

Sugestie „podobne do tych Derrena Browna” działają, ponieważ ludzki mózg jest w rzeczywistości o wiele mniej zwinny i o wiele bardziej liniowy, niż chcielibyśmy myśleć. Świadomość jest cennym zasobem, a wiele czynności, które często wykonujemy, przenosi się do sfery nawyku, więc możemy je wykonywać bez zastanowienia, a to po to, abyśmy mogli zachować świadomość tam, gdzie jest ona najbardziej potrzebna.

Z przyzwyczajenia zmieniamy biegi w samochodzie z manualną skrzynią biegów, nie myśląc o tym. I wszyscy doświadczyliśmy tej gry, w której masz określony czas na wymyślenie listy rzeczy, takich jak kraje, kończących się na literę A. Jeśli takie zadanie otrzyma ktoś postawiony przed tłumem, czasami trudno jest wymyślić cokolwiek. Mózg często nie jest tak dobry w kreatywnym myśleniu lub szybkim, świadomym przypominaniu sobie czegoś na zawołanie.

Ale jeśli ktoś, z kim rozmawiałeś kilka minut przed meczem, opowiedział ci o swoich wakacjach w Kenii, możesz być pewien, że Kenia będzie pierwszą odpowiedzią, jaka przyjdzie ci do głowy. Co więcej, skojarzenie nastąpi automatycznie, czy tego chcemy, czy nie!

Tak po prostu działa mózg. Jeśli informacja jest przekazywana we właściwym czasie i we właściwy sposób, można niemal z całkowitą pewnością stwierdzić, że dana sugestia zostanie zastosowana. Derren Brown to rozumie i jest mistrzem w wykorzystywaniu tego.

Wyszukiwarki i platformy mediów społecznościowych mają ogromną moc, aby kształtować zachowania za pomocą subtelnych sugestii. I rzeczywiście, istnieją dowody, że Facebook i Google to zrobią.

Profesor i badacz dr Robert Epstein – jak to się mówi – „złapał Google” na manipulowaniu polem sugestii wyszukiwania, które pojawia się pod polem tekstowym, w którym użytkownicy wpisują zapytanie o wyszukiwanie. Cały epizod stał się jeszcze bardziej nikczemny, gdy stało się jasne, że oszukiwali i mieli pewien poziom świadomości, że ich eksperymenty są nieetyczne. Nie będę przytaczał pełnych szczegółów, ale sprawdź stosowne odniesienia – to ciekawa historia sama w sobie.

Użytkownicy znajdują się w szczególnie ufnym i otwartym stanie umysłu podczas korzystania z funkcji sugerowanych linków Google i nie zauważają, że wyniki zawierają działania i nakazy, które zamiast być najlepszą odpowiedzią na zapytanie wyszukiwania, mają na celu manipulowanie późniejszymi działaniami użytkownika.

W odniesieniu do postów w mediach społecznościowych, wykorzystanie sugestii jest często znacznie bardziej subtelne, co utrudnia ich wykrycie i sprzeciw. Analiza LLM w całej bazie danych postów użytkowników może ujawnić powiązane posty, które dostarczają sugerowanych działań. Tutaj sieć może wykorzystać fakt, że ma do dyspozycji wiele milionów wiadomości użytkowników, w tym wiadomości sugerujące preferowane wyniki. Takie wiadomości mogą być wybierane i preferencyjnie promowane w kanałach użytkowników.

Moderacja treści jest oczywiście konieczna, aby poradzić sobie z nieakceptowalnym językiem i antyspołecznym zachowaniem. Istnieje jednak duży obszar niejasnych sytuacji [szara strefa], w których nieprzyjemne opinie mogą zostać określone jako „mowa nienawiści”, a ponieważ jest to szara strefa, sieć społecznościowa ma duże pole manewru, aby wkroczyć w czyjeś osobiste przekonania i przestrzeń wolności słowa.

Termin „mowa nienawiści” był bardzo skutecznym narzędziem uzasadniającym stosowanie „permanentnych banów”, ale obecnie głównym zmartwieniem jest to, że wraz z wdrożeniem LLM-ów został przekroczony niemal bez echa ważny kamień milowy w historii, co oznacza zupełnie nowy poziom takich ograniczeń i zagrożeń dla wolności komunikacji użytkowników.

A tym kamieniem milowym jest to, że teraz LLM-y są używane do rządzenia ludzkim zachowaniem, a nie odwrotnie. Przekroczenie tego kamienia milowego zostało ledwie zauważone, ponieważ wcześniej mieliśmy już prostsze algorytmy spełniające tę rolę, a poza tym i tak dzieje się to wszystko w sposób ukryty.

Użytkownicy nie widzą tego, dopóki nie zostaną przez to w oczywisty sposób dotknięci. Ale nawet wtedy wciąż istnieje wiele powodów, aby sądzić, że w przyszłości będziemy mogli spojrzeć wstecz i uznać, że ten kamień milowy był czymś w rodzaju krytycznego momentu, po którym jakaś wersja przyszłości w stylu „Sky-Net” stała się nieunikniona.

Zaledwie tydzień temu premier Wielkiej Brytanii Keir Starmer ogłosił inicjatywę policji, która ma na celu wykorzystanie mediów społecznościowych do identyfikacji osób biorących udział w tłumieniu zamieszek w miejscach publicznych. Pokazuje to, w jaki sposób zautomatyzowane raporty LLM mogą być wykorzystywane także poza mediami społecznościowymi, w kontekście egzekwowania prawa.

Nie ma jeszcze szczegółów, jak będzie wyglądał ten monitoring, ale mając na uwadze dotychczasowy sposób wprowadzania projektów technologicznych, możesz być pewien, że rząd będzie dysponował listą firm technologicznych, które zaproponują rozwiązania. I możesz być pewien, że LLM-y będą prezentowane jako integralna część niemal wszystkich z nich!

Ustaliliśmy więc, że media społecznościowe są zamknięte i zastrzeżone, co umożliwiło ustanowienie nowych struktur władzy medialnej. Zobaczyliśmy, że właściciele mediów społecznościowych mają władzę, aby stłumić lub podkręcić popularność postów i wdrażają teraz nadzór i raporty przez LLM (AI), co wskazuje na gotowość do rozszerzenia nadzoru także w świecie rzeczywistym. Widzieliśmy, za pośrednictwem Plików Twittera [Twitter Files], że ​​korporacje mediów społecznościowych łamały prawo podczas pandemii i wykazały chęć współpracy z agencjami rządowymi w celu cenzurowania i tłumienia niekorzystnych poglądów.

_______________

Fascism 2.0 – The changing face of social media censorship, Paul Lancefield, Aug 21, 2024

***

Paul Lancefield jest autorem Desilo, aplikacji pomagającej odwrócić sytuację cenzury AI i politycznego przekłamania. Jeśli zgadzasz się z Paulem co do zagrożenia, jakie AI stanowi dla wolności słowa, możesz pomóc, po prostu obserwując go na X.

 

−∗−

[Odnośniki w tekście własne – AC]

O autorze: AlterCabrio

If you don’t know what freedom is, better figure it out now!