1. Головна
  2. статті
  3. Algospeak і наслідки модерації вмісту для зменшення шкоди

Algospeak і наслідки модерації вмісту для зменшення шкоди

У динамічному ландшафті соціальних медіа, що постійно розвивається, виник цікавий лінгвістичний феномен: «algospeak.” Ця цифрова рідна мова використовує закодовані слова з альтернативними значеннями для обговорення тем, які надто модеруються в соціальних мережах, таким чином уникаючи виявлення алгоритмами. Зростання такої мови відображає постійну боротьбу між користувачами та великими технологічними компаніями. У TikTok часто можна зустріти людей, які замінюють термін «самогубство» такими виразами, як «не(живий)" емодзі або слова, написані дивним чином також часто використовуються. Algospeak проникає в усі форми політичного дискурсу на наших платформах соціальних мереж, крім концепція не є новим і більше схоже на модернізовану версію Римований сленг кокні.

Але Algospeak — це більше, ніж просто творча гра слів; це навмисна та вміла навігація заплутаним лабіринтом модерування вмісту, яка може заглушити дискусії на санкціоновані теми. У світі, де законність наркотиків постійно змінюється, перед платформами постає завдання знайти баланс між дотриманням правил спільноти та сприянням відкритому діалогу. Оскільки обмежувальні інтерпретації політики модерації вмісту часто пригнічують деталізовані дискусії, непередбачені наслідки модерації вмісту для важливих дискусій на теми, пов’язані з наркотиками, стають різко очевидними.

Як працює модерація вмісту

Більшість основних платформ соціальних медіа, таких як Meta або TikTok, використовують дещо загальний підхід до модерації вмісту. TikTok наймає модерація контенту в реальному часі за допомогою передових алгоритмів, які постійно сканують і аналізують створений користувачами вміст, щоб швидко виявляти та усувати порушення спільноти. Ці системи позначають вміст на основі різноманітних сигналів, включаючи ключові слова, зображення, заголовки, описи та аудіо.

Що по-різному формує контент на TikTok, так це те, як платформа регулює видимість вмісту. На відміну від традиційної модерації вмісту, яка головним чином зосереджена на видаленні чи фільтрації, модерація видимості полягає в навмисному просуванні, розширенні або пріоритетності вмісту, який вважається більш релевантним і прийнятним. Це була помітна тенденція модерування вмісту за межами TikTok: Human Rights Watch виявила, як контент, пов’язаний з Палестиною, в Instagram і Facebook, що належать Meta, систематично цензуру. Придушення контенту, пов’язаного з політикою, маргіналізованими спільнотами, наркотиками чи злочинністю, незалежно від контексту та аудиторії, яку він намагається охопити, викликає запитання про те, як нібито «соціальна» мережа керується більше тими, хто керує платформами, ніж фактичними членами, які їх складають. .

 

Різні платформи, різні елементи керування

В минулому, зміни алгоритму на YouTube викликали занепокоєння серед творців освітніх каналів про наркотики. Творці, такі як PsychedSubstance і The Drug Classroom, які пропонують інформативний контент про безпеку наркотиків і зменшення шкоди, отримали доходи від реклами та кількість переглядів суттєво вплинули через зміни алгоритму Youtube. Ці зміни, запроваджені після того, як рекламодавці відмовилися від реклами через побоювання, що реклама показується проти екстремістського контенту, призвели до обмеження монетизації деяких відео, що вплинуло на здатність каналів виживати та охоплювати ширшу аудиторію. в деякі випадки, вони навіть повністю видалили канали, які пропагують зменшення шкоди.

Подібну динаміку можна спостерігати на різних платформах. Instagram має постійно ставили виклики наприклад, для вмісту, пов’язаного з канабісом і бізнесом з канабісу. Те, що колись було рідкістю для промисловості США та Канади, тепер видалення бізнес-акаунтів канабісу стало постійною проблемою. Подібні проблеми виникають у клініках і підприємствах, пов’язаних із кетаміном, які повинні дотримуватися медичних правил у збалансованому просуванні продуктів. Незважаючи на те, що рекламодавці повинні дотримуватись існуючих правил щодо реклами медичних продуктів, існує практика рекреаційного споживання цих речовин, яку необхідно вирішити. Запобігання поширенню інформації про зменшення шкоди означає, що контент, пов’язаний з наркотиками, таким чином контролюється правилами реклами, які становлять значну частину доходу платформи – або обмежувальні вказівки з безпеки спільноти.

Ці рішення платформ викликають ширшу дискусію про те, для кого призначений Інтернет і як знайти відповідний баланс між регуляторними заходами та збереженням відкритих каналів, особливо в місцях, де відповідальний дискурс має вирішальне значення.

 

Модерація вмісту проти модерації контексту

Хоча TikTok модерує контент у режимі реального часу за допомогою алгоритмів, модерування контексту враховує навколишні обставини та нюанси змісту. У минулому такі платформи, як Facebook, Twitter (X) і YouTube, наймали десятки тисяч працівників на індивідуальній основі, враховуючи такі фактори, як наміри, історичну поведінку та ширшу дискусію під час оцінки потенційно проблемного контенту. Наявність певного рівня людського нагляду за модерацією може допомогти знайти більш збалансований підхід до модерації вмісту, зберігаючи безпеку бренду платформи, водночас дозволяючи нюансовані обговорення. Але покладатися на алгоритми набагато рентабельніше, ніж залучати тисячі модераторів (навіть якщо вони заплатили майже нічого).

Не дивно, що привабливість алгоритмів стала непереборною для платформ. Економічність і ефективність, які вони обіцяють, роблять їх спокусливим вибором – і, на відміну від людей-модераторів, вони не стають травмований за вмістом, який вони модерують. Але надмірна залежність платформ від них зрештою за власний кошт. Хоча автоматизація забезпечує швидкість і масштаб, їй часто не вистачає детального розуміння й контекстуальних знань, які може забезпечити лише людський контроль. Потреба в тонкій модерації контенту посилюється мінливим ландшафтом реформи політики щодо наркотиків. Як і легальність таких речовин, як канабіс і психоделіки змінилися протягом усього часу, як і правовий і культурний контексти, що їх оточують. На жаль, поточні структури модерації часто не мають цього гнучкість реагувати на ці зміни. Зменшення шкоди з акцентом на пом’якшення ризиків, що залежить від контексту, вимагає так само чутливого до контексту підходу, який Зіткнення із жорсткими вказівками та автоматизованою фільтрацією, яка зараз використовується багатьма платформами.

 

Чи можна знайти баланс?

Встановлення балансу між ефективністю автоматизованих алгоритмів і глибиною людського розуміння є не просто вибором для платформ, а необхідністю, особливо коли мова йде про навігацію складнощами дискурсу про наркотики та освіти. У певному сенсі algospeak захищено алгоритмічною модерацією вмісту, оскільки він може перевершити контроль, щоб охопити ширшу аудиторію. Враховуючи глобальний аутсорсинг модерації вмісту, модератори часто можуть бути неповними контекстуальний інформацію в дописі та обмежувати вміст, пов’язаний з наркотиками, на підставі глобальної заборони наркотиків, навіть якщо вони декриміналізовані або законні в місці, де спочатку було опубліковано допис.

І хоча міжнародна політика пропонує легше застосування – особливо з розвитком штучного інтелекту – вона часто призводить до універсального підходу, який не враховує національні чи регіональні нюанси. Розвиток практик модерації вмісту на цьому рівні буде ключовим для відображення змін у законах і поведінці, будь то щодо наркотиків чи будь-якої іншої практики чи продукту. Це обмеження визнає Reddit, який має a керований громадою підхід до поміркованості. Ця платформа підкреслює, як може працювати модерація залежно від контексту, коли ті, хто найбільше інвестує в спільноту, мають право голосу в модерації її вмісту, дотримуючись цінностей Reddit. Але більшим платформам загального інтересу, таким як Twitter (X), може бути важко відтворити модель модерування мікроспільноти Reddit у великому масштабі.

Зрештою, найкраще рішення для модерації вмісту вимагає часу та серйозних інвестицій, двох речей, на основі яких індустрія створила нерегульований, експоненціальне зростання зневажає. Лише завдяки організації спільноти чи державному регулюванню компанії соціальних мереж змінять свою поведінку. І поки вони не будуть змушені співпрацювати з експертами-предметниками – як організації зменшення шкоди – щоб розробити відповідну контексту політику модерації вмісту, ми не можемо очікувати системних змін. Незалежно від того, чи є це навмисним чи навмисним ігноруванням, на даний момент компанії соціальних медіа вирішать модерувати свої величезні спільноти власноруч і майже без відповідальності перед спільнотою.

Попереднє повідомлення
Пошук нормального: когнітивні покращувачі та гіперпродуктивність
наступне повідомлення
У Канаді в суді триває боротьба за клуби співчуття

Додатковий контент

Барселонська декларація: нарковійна – це війна проти жінок, які вживають наркотики

.
У лютому 2019 року понад 40 жінок з Європи та Центральної Азії зустрілися в Барселоні, щоб разом працювати над міжсекторальним…