1. Strona główna
  2. Artykuły
  3. Algospeak i konsekwencje moderacji treści w zakresie redukcji szkód

Algospeak i konsekwencje moderacji treści w zakresie redukcji szkód

W dynamicznym i stale zmieniającym się krajobrazie mediów społecznościowych pojawiło się ciekawe zjawisko językowe: „mówić.” Ten cyfrowo natywny język wykorzystuje zakodowane słowa o alternatywnych znaczeniach do omawiania tematów nadmiernie moderowanych w mediach społecznościowych, unikając w ten sposób wykrycia przez algorytmy. Rozwój takiego języka odzwierciedla ciągłą bitwę pomiędzy użytkownikami a firmami Big Tech. Na TikToku często można spotkać ludzi zamieniających termin „samobójstwo” na wyrażenia takie jak „nie(żywy)"; emoji lub dziwnie napisane słowa są również często używane. Algospeak przenika wszystkie formy dyskursu politycznego na naszych platformach mediów społecznościowych, ale pojęcie nie jest nowy i brzmi bardziej jak unowocześniona wersja Cockney rymowany slang.

Ale Algospeak to coś więcej niż tylko kreatywna gra słów; to celowe i umiejętne poruszanie się po zawiłym labiryncie moderacji treści może to zrobić wyciszyć dyskusje w zatwierdzonych tematach. W świecie, w którym legalność narkotyków stale się zmienia, platformy stoją przed wyzwaniem znalezienia równowagi między egzekwowaniem wytycznych społeczności a wspieraniem otwartego dialogu. Ponieważ restrykcyjne interpretacje zasad moderowania treści często tłumią szczegółowe dyskusje, niezamierzone konsekwencje moderowania treści w kluczowych dyskusjach na tematy związane z narkotykami stają się wyraźnie widoczne.

Jak działa moderowanie treści

Większość głównych platform mediów społecznościowych, takich jak Meta czy TikTok, przyjmuje dość ogólne podejście do moderowania treści. TikTok zatrudnia moderowanie treści w czasie rzeczywistym poprzez zaawansowane algorytmy, które stale skanują i analizują treści generowane przez użytkowników, aby szybko identyfikować i eliminować naruszenia społeczności. Systemy te oznaczają treść na podstawie różnych sygnałów, w tym słów kluczowych, obrazów, tytułów, opisów i dźwięku.

Jednak to, co inaczej kształtuje treści na TikTok, to sposób, w jaki platforma reguluje widoczność treści. W przeciwieństwie do tradycyjnego moderowania treści, które koncentruje się głównie na usuwaniu lub filtrowaniu, moderowanie widoczności polega na celowym promowaniu, wzmacnianiu lub ustalaniu priorytetu treści uznawanych za bardziej odpowiednie i odpowiednie. Jest to wyraźny trend w moderowaniu treści poza TikTok: Organizacja Human Rights Watch odkryła, w jaki sposób treści dotyczące Palestyny ​​na Instagramie i Facebooku należącym do Meta są systematycznie cenzurowane. Tłumienie treści związanych z polityką, społecznościami marginalizowanymi, narkotykami czy przestępczością, niezależnie od kontekstu i odbiorców, do których próbuje dotrzeć, rodzi pytania o to, w jaki sposób rzekomo „społecznościowa” sieć jest prowadzona bardziej przez tych, którzy obsługują platformy, niż przez faktycznych członków, którzy je tworzą .

 

Różne platformy, różne sterowanie

W przeszłości, zmiany algorytmu w YouTube wzbudziły obawy twórców kanałów edukacyjnych dotyczących narkotyków. Twórcy tacy jak PsychedSubstance i The Drug Classroom, którzy oferują treści informacyjne na temat bezpieczeństwa narkotyków i redukcji szkód, sprawdzili swoje przychody z reklam i liczbę wyświetleń znaczący wpływ przez zmiany algorytmu YouTube. Zmiany te, wprowadzone po wycofaniu się reklamodawców w związku z obawami dotyczącymi wyświetlania reklam zawierających treści ekstremistyczne, doprowadziły do ​​ograniczonej monetyzacji niektórych filmów, co wpływa na zdolność kanałów do przetrwania i dotarcia do szerszej publiczności. W w niektórych przypadkach, całkowicie usunęli nawet kanały promujące redukcję szkód.

Podobną dynamikę można zaobserwować na wszystkich platformach. Instagram ma konsekwentnie stawiane wyzwania na przykład w przypadku treści związanych z konopiami indyjskimi i firmami zajmującymi się konopiami indyjskimi. Co kiedyś było rzadkością w branży z siedzibą w USA i Kanadzie, obecnie usuwanie kont firm zajmujących się konopiami indyjskimi stało się powracającym problemem. Podobne wyzwania stoją w przypadku klinik i przedsiębiorstw zajmujących się ketaminą, które muszą przestrzegać przepisów dotyczących medycyny, promując produkty w zrównoważony sposób. Choć zasadne jest zapewnienie, aby reklamodawcy przestrzegali istniejących przepisów dotyczących promocji produktów medycznych, należy zająć się praktyką rekreacyjnego spożycia tych substancji. Zapobieganie rozpowszechnianiu informacji o redukcji szkód oznacza, że ​​treści związane z narkotykami podlegają kontroli zasad reklamowych, które stanowią: znaczną część przychodów platformy – lub restrykcyjne wytyczne dotyczące bezpieczeństwa społeczności.

Te decyzje platform wywołują szerszą dyskusję na temat tego, dla kogo jest internet i jak znaleźć odpowiednią równowagę między środkami regulacyjnymi a zachowaniem otwartych kanałów, szczególnie w przestrzeniach, gdzie Odpowiedzialny dyskurs jest kluczowy.

 

Moderacja treści a moderacja kontekstu

Podczas gdy TikTok moderuje treści w czasie rzeczywistym za pomocą algorytmów, moderowanie kontekstu bierze pod uwagę otaczające okoliczności i zniuansowane znaczenia treści. W przeszłości platformy takie jak Facebook, Twitter (X) i YouTube zatrudniały dziesiątki tysięcy pracowników indywidualnie, biorąc pod uwagę takie czynniki, jak zamiary, zachowanie historyczne i szersza rozmowa podczas oceny potencjalnie problematycznych treści. Posiadanie pewnego poziomu nadzoru człowieka nad moderacją może pomóc w opracowaniu bardziej zrównoważonego podejścia do moderowania treści, zapewniając bezpieczeństwo marki platform, a jednocześnie umożliwiając szczegółowe dyskusje. Jednak poleganie na algorytmach jest znacznie bardziej opłacalne niż zatrudnianie tysięcy moderatorów (nawet jeśli tak jest zapłacił prawie nic).

Nic dziwnego, że urok algorytmów stał się dla platform nie do odparcia. Obiecowana opłacalność i wydajność czynią je kuszącym wyborem – i w przeciwieństwie do ludzkich moderatorów nie stają się straumatyzowany według treści, które moderują. Ostatecznie jednak nadmierne poleganie platform na nich jest problemem na ich własny koszt. Chociaż automatyzacja zapewnia szybkość i skalę, często brakuje jej szczegółowego zrozumienia i wiedzy kontekstowej, jaką może zapewnić jedynie ludzki nadzór. Potrzebę moderowania zróżnicowanych treści potęguje zmieniający się krajobraz reformy polityki antynarkotykowej. Podobnie jak legalność substancji takich jak konopie indyjskie i psychodeliki zmieniony przez cały czas, podobnie jak otaczające je konteksty prawne i kulturowe. Niestety, obecnym strukturom moderacyjnym często brakuje elastyczność reagować na te zmiany. Redukcja szkód, ze specyficznym dla kontekstu naciskiem na łagodzenie ryzyka, wymaga równie wrażliwego na kontekst podejścia Starcia ze sztywnymi wytycznymi i automatycznym filtrowaniem stosowanym obecnie na wielu platformach.

 

Czy można znaleźć równowagę?

Znalezienie równowagi między wydajnością zautomatyzowanych algorytmów a głębią ludzkiej wiedzy to nie tylko wybór platform, ale konieczność, zwłaszcza jeśli chodzi o poruszanie się po zawiłościach dyskursu narkotykowego i edukacji. W pewnym sensie algospeak jest chroniony przez algorytmiczne moderowanie treści, ponieważ może przekroczyć kontrolę i dotrzeć do szerszego grona odbiorców. Biorąc pod uwagę globalny outsourcing moderacji treści, moderatorom często może brakować całości kontekstowy informacji o poście i ograniczać treści związane z narkotykami w oparciu o globalny zakaz używania narkotyków, nawet jeśli są one zdekryminalizowane lub legalne w miejscu, w którym pierwotnie opublikowano post.

I choć polityka międzynarodowa umożliwia łatwiejsze egzekwowanie przepisów – zwłaszcza wraz z rozwojem sztucznej inteligencji – często skutkuje ona podejściem uniwersalnym, które nie uwzględnia niuansów krajowych ani regionalnych. Opracowanie praktyk moderowania treści na tym poziomie będzie kluczem do odzwierciedlenia zmieniających się przepisów i zachowań, niezależnie od tego, czy dotyczą one narkotyków, czy innych praktyk lub produktów. To ograniczenie jest rozpoznawane przez Reddit, który ma kierowany przez społeczność podejście do umiaru. Platforma ta podkreśla, jak może działać moderacja kontekstowa, w ramach której osoby najbardziej zaangażowane w społeczność mają wpływ na moderowanie jej treści, jednocześnie przestrzegając wartości obowiązujących w całym Reddicie. Jednak większe platformy użyteczności publicznej, takie jak Twitter (X), mogą mieć trudności z odtworzeniem na masową skalę modelu moderacji mikrospołeczności z Reddita.

Ostatecznie najlepsze rozwiązanie w zakresie moderowania treści wymaga czasu i poważnych inwestycji, a to dwie rzeczy, na których zbudowała się branża nieuregulowana, wykładniczy wzrost gardzi. Tylko dzięki organizowaniu się społeczności lub regulacjom rządowym firmy z branży mediów społecznościowych zmienią swoje postępowanie. I dopóki nie zostaną zmuszeni do współpracy z ekspertami w danej dziedzinie – np organizacje zajmujące się redukcją szkód – w celu opracowania odpowiednich do kontekstu zasad moderowania treści, nie możemy oczekiwać zmian systemowych. Niezależnie od tego, czy jest to umyślna, czy celowa niewiedza, na razie firmy z branży mediów społecznościowych zdecydują się na moderowanie swoich ogromnych społeczności we własnym zakresie i przy niewielkiej lub żadnej odpowiedzialności społeczności.

Poprzedni post
Znalezienie normy: wzmacniacze funkcji poznawczych i nadmierna produktywność
Następny post
W Kanadzie walka o kluby współczucia trwa w sądzie

Related content

Героиня на героине: возможно ли контролируемое употребление наркотиков?

.
Журналистский материал „Героин – собственность модели”, рассказывающий личную историю молодой россиянки Тэо, употр ебляющей героин последних десять лет, был снят с…